Recharger un véhicule électrique en roulant ?

Le système de recharge actuel freine l’essor des véhicules électriques : l’infrastructure de bornes est encore peu développée et le temps de recharge rebute les clients potentiels. Le futur doit proposer des systèmes de recharge intelligents, rapides, sécurisés, faciles et disponibles partout. S’il était possible de recharger son véhicule tout en roulant, la faible autonomie des batteries ne serait alors plus un problème ! C’est l’un des objectifs de la recharge par induction, autrement appelée technologie WEVC : Wireless Electric Vehicle Charging !

Ces 30 derniers mois, la recherche sur la recharge par induction a été à l’honneur en Flandre. Lecentre de recherches flamand pour l’industrie du véhiculeFlanders’ DRIVE a, en collaboration avec 9 organisations leaders en Flandre et 2 universités flamandes, mené des recherches pour étudier la faisabilité, l’efficacité et l’applicabilité pratique de celle-ci. L’étude a porté sur la recharge à l’arrêt et en mouvement pour les bus, et sur la recharge à l’arrêt pour les voitures. Les résultats ont été présentés fin juin : la technologie est réalisable, sûr et efficace ! La société Bombardier, membre du projet, déploie à présent sa technologie de rechargement de bus électriques par induction à Bruges (Belgique), à Braunschweig, Mannheim et Berlin (Allemagne).  

Que cela soit à l’arrêt ou en mouvement et que la recharge soit lente ou rapide, les rendements moyens mesurés étaient de plus de 90%.« Nos recherches prouvent que la recharge sans fil par induction, est presque aussi efficace qu’avec un câble : les systèmes mis au point lors de notre étude dépassent les 90 % de rendement pour la recharge statique, mais aussi pour la recharge de véhicules en mouvement avec une vitesse allant jusqu’à 70 km/h », affirme Renilde Craps, directrice de Flanders’ DRIVE

Les tests en mouvement ont eu lieu sur un tronçon de la N769 à Lommel. Ils ont montré la même efficacité sur une chaussée bétonnée ou asphaltée. « Toutefois, la recharge en mouvement requiert plus de concentration du chauffeur, afin de garder le véhicule aligné dans de la voirie », note le centre de recherche.

Recharge sans fil par induction

La recharge par induction nécessite deux bobines. La bobine primaire est intégrée dans une voie de circulation pour une recharge en mouvement ou dans une place de parking pour une recharge statique. La bobine secondaire est placée sous le plancher du véhicule électrique. La recharge de la batterie est automatique : le processus s’amorce sitôt que le conducteur a garé son véhicule au bon endroit.

La société Qualcomm, qui s’est illustré dans l’innovation sans fil et dans le traçage des véhicules, développe un système similaire. Sa technologie irait de 3 kW jusqu’à 20 kW. Elle mène actuellement un essai à Londres en partenariat avec Renault. Il devrait permettre d’avoir un retour d’expériences suffisant pour construire la réglementation de cette technologie. Des discussions sont en cours avec différents fabricants pour développer ce système en série. « D’ici 2016, ces systèmes de charges devraient se développer », prévoit le Dr Anthony Thomson,  Vice président de Qualcomm.

Et en France ? Dans le cadre des investissements d’avenir, l’ADEME finance sept projets de recharge pour les véhicules électriques et hybrides. Parmi eux, les projets MOV’EO TREVE (Test de la Recharge des Véhicules Electriques) et le projet Eguise testeront des infrastructures de recharge par induction.

Par Matthieu Combe, journaliste scientifique

 

Découvrez le pack
Transports et technologies

Ce pack est composé des bases documentaires suivantes :

  • Véhicule propre
  • Technologies avancées et systèmes de transport
  • Transport ferroviaire
  • Aéronautique

Les concept car pour imaginer le futur

Il s’agit d’une véhicule expérimental produit généralement à un seul exemplaire afin de démontrer une technologie, des éléments de style ou un mode d’utilisation nouveau. Ce sont le plus souvent des outils de communication et non des prototypes fonctionnels, mais qui dévoilent les tendances des véhicules du futur.

  • « Honda Fuzo 2068 » de John Mahieddine

John Mahieddine imagine ici le véhicule du futur : les roues sont rétractables, ce qui lui permet de voler jusqu’à 640 km/h. Cet engin se conduit grâce à plusieurs joysticks et deux pédales. Il est équipé de parachutes et d’airbags.

  • La « Peugeot Concept Car Metromorph » de Roman Mistiuk

Le concept car Metromorph de Peugeot se transforme en balcon à la maison pour résoudre les problèmes de stationnement.

  • La « Peugeot RD » de Carlos Arturo Torres Tovar

La RD est un véhicule monoplace à 3 roues électrique. Intelligent, il possède une aide vocale et affiche sur le pare-brise des informations liées au trajet.

  • La « Wolkswagen aqua » de Zhang Yuhan

Volkswagen Aqua est un véhicule amphibie imaginée par le Chinois Zhang Yuhan. Il a été imaginé pour pouvoir se déplacer sur l’ensemble du relief chinois : lacs, rivières, côtes, routes, marais, neige et glace. Il fonctionne à l’hydrogène et à l’électricité.

  • Le « Neuron Concept Car » de Ian Kettle

Ce véhicule a été imaginé par le designer Ian Kettle dans le cadre de son projet de fin d’étude au Royal College of Art,, une voiture futuriste capable de lire la pensée de son utilisateur. Elle ne nécessite donc ni pédales ni volants.

Peut-on imaginer cette technologie dans un futur proche ?

L’entreprise Autonomos développe un casque contenant 16 capteurs qui mesurent les signaux électromagnétiques envoyés par le cerveau. Après étalonnage, les signaux peuvent être interprétées par un ordinateur pour actionner le volant et les pédales du véhicule. La preuve en vidéo :

  • La « AudiShark » de Kazim Doku

 

Véhicule volant de 2 places imaginé par le Turc Kazim Dolu ne possédant pas de roue. Il plaît notamment pour design inspiré des motos.

  • La « Citroën EGGO » de Damnjan Miticdeux

 

Voiture de 2 places équipée de quatre moteurs électriques à raison de un par roue. Des  panneaux solaires intégrés à la carrosserie permettent de recharger les batteries. Les vitres sont teintées.

  • La Volkswagen Hover imaginée par l’université de Chengdu

 

Ce véhicule est un deux places électrique qui vole à 30 centimètres du sol avec une autonomie de 140 km. Il est équipé de nouvelles batteries qui permettent une recharge rapide en moins de 12 minutes. Avec 2 places, il se conduit avec un joystick. Volkswagen compte bien commercialiser ce véhicule en Chine, qui a obtenu une exclusivité de 10 ans.

Découvrir d’autres concepts cars moins futuristes :

Par Matthieu Combe, journaliste scientifique

Découvrez le pack
Transports et technologies

Ce pack est composé des bases documentaires suivantes :

  • Véhicule propre
  • Technologies avancées et systèmes de transport
  • Transport ferroviaire
  • Aéronautique

Les futurs véhicules électriques se préparent !

L’EN-V de General Motors

Les véhicules électriques 2 places pour les zones urbaines denses séduisent les constructeurs automobiles. L’EN-V de General Motors possède un moteur électrique dans chaque roue. Sa vitesse de pointe est de 41 km/h pour une autonomie d’environ 40 kilomètres. Les prototypes utilisent le GPS et la communication « Vehicule  to Vehicule », ce qui leur permet d’être activés manuellement ou de façon autonome. Les véhicules sont aussi connectés à un réseau qui permet l’échange d’information entre les différents propriétaires d’EN-V.

Micro Commuter de Honda

Autre véhicule taillé pour la ville, imaginé par Honda. Ici, c’est une personne à l’avant et une à l’arrière, ou une à l’avant et deux enfants à l’arrière ! Une tablette permet de contrôler les applications d’aide à la navigation, de divertissement et de contrôles des commandes du véhicule  La tablette se recharge à l’énergie solaire, grâce à un panneau photovoltaïque situé sur le toit. Sa vitesse maximale est de 80km/h pour une autonomie de 60 km. Ce véhicule est actuellement en tests sur les routes du Japon. Le constructeur décidera alors de le commercialiser en Asie et/ou dans les pays occidentaux. Plus qu’un concept de véhicule, le micro commuter est une plateforme de voiture électrique qui pourra servir de base a des véhicules utilitaire ou décapotables.

La C-Zen

La C-Zen est le premier véhicule électrique « origine France garantie » de 2 places. En vente dès novembre 2013, avec 120 km d’autonomie et une pointe à 90 km/h.

La lumeneo Smera

La Lumeno Smera est construite par le constructeur automobile français Lumeneo. Elle possède deux sièges en ligne et mesure 86 cm de large. Elle s’incline jusqu’à 20° dans les virages. Sa vitesse maximum est de 110 km/hpour une autonomie de 100 km.

La lumeneo Neoma

La Lumenso Neoma possède également une vitesse de pointe de 110 km/h mais une autonomie plus élevée que la Smera, celle-ci allant jusqu’à 140 km.

La Twingo électrique

Le concept car Renault Twin’Z de Ross Lovegrove prépare la future Twingo électrique.

Par Matthieu Combe, journaliste scientifique

Découvrez le pack
Transports et technologies

Ce pack est composé des bases documentaires suivantes :

  • Véhicule propre
  • Technologies avancées et systèmes de transport
  • Transport ferroviaire
  • Aéronautique

Quelle technologie alternative va tirer son épingle du jeu ?

1/ Hybride Essence-électricité

La Toyota Prius Plug-In Hybrid est déjà disponible mais ne possède qu’une autonomie électrique de 25 km. En utilisation mixte électrique / thermique, elle ne consomme que 2,1 L/100 km, consommation la consommation étant beaucoup plus élevée en mode « thermique » seul. Volvo, BMW, Ford et Mitsubishi proposeront leurs véhicules hybrides rechargeables entre 2013 et 2014. Sur une hybride rechargeable, l’autonomie électrique devrait varier entre 25 et 80 km selon les modèles.

2/ Hybride essence-air comprimé

PSA  développe 2 prototypes utilisant la technologie Hybrid Air : la Citroën C3 ou la Peugeot 208. L’hybrid air n’utilise pas de batterie. Elle associe un moteur essence et un moteur à air comprimé, une pompe hydraulique, un stockage d’énergie sous forme d’air comprimé et une transmission automatique. La consommation homologuée est de 2,9L/km soit environ 69gCO2/km. Les premiers véhicules devraient être vendus en 2016.

3/ Hybride GNV-essence

La Fiat Panda TwinAir Turbo Natural Power produit 86 g/km de CO2 pour 3,1 kg de méthane aux 100 km en cycle mixte. Son moteur a été élu moteur le plus écologique de l’année 2013. Le GNV, comparé à l’essence ou au diesel favorise la baisse des émissions de gaz à effet de serre et de polluants (NOx, particules, etc.) des véhicules. Le GNV permet également une réduction non négligeable de la consommation du véhicule. Le carburant est moins cher, en moyenne 20 % d’économies par rapport au diesel. De plus, le GNV peut être remplacé par du bio-GNV (ou bio-méthane) provenant de la fermentation de déchets organiques, boues de stations d’épuration ou d’effluents d’élevage sans adaptation du moteur. Les voitures GNV disponibles en Europe sont des véhicules bi-carburés, mais brûlant un seul combustible à la fois. Tout véhicule à essence peut être converti à la bi-carburation essence-GNV. Actuellement, Fiat, Opel, Volkswagen, Citroën, Renault, Volvo et Mercedes vendent divers modèles de voitures et petits camions essence/GNV. Iveco propose une large gamme de poids-lourds.

4/ Hybride GNV-électricité

Il est possible de combiner les avantages du GNV et de la carburation électrique. Cependant, aujourd’hu, aucun véhicule léger hybride au GNV n’est encore commercialisé. Quelques bennes à ordures ménagères hybrides circulent acutellement en France. Depuis 2011, le SIOM (Syndicat mixte d’ordures ménagères de la Vallée de Chevreuse) fait rouler 26 bennes hybrides GNV-électricité.

5/ Pile à combustible

La Hyundai ix35 FECV est le premier véhicule à pile à combustible produit en série. Son prix reste prohibitif : elle est actuellement proposée à 50 000 euros, mais le constructeur espère baisser rapidement son prix grâce à l’effet de série. Toyota, Honda et General Motors lanceront leur modèle en 2015, le temps de développer les infrastructures de recharge.  Les véhicules électriques à pile à combustible sont propulsés par de l’électricité produite à partir d’hydrogène stocké dans une pile à combustible à 200 bars et d’oxygène. Ces véhicules n’émettent que de l’eau au pot d’échappement. Il faut toutefois que l’hydrogène soit produit à partir d’énergies renouvelables pour que cela soit intéressant. Il est également possible de construire des véhicules hybride hydrogène-essence  où l’hydrogène alimente un moteur à bi-carburation avec de l’hydrogène liquéfié et de l’essence grâce à 2 réservoirs distincts.

Par Matthieu Combe, journaliste scientifique

 

Découvrez le pack
Transports et technologies

Ce pack est composé des bases documentaires suivantes :

  • Véhicule propre
  • Technologies avancées et systèmes de transport
  • Transport ferroviaire
  • Aéronautique

Stocker l’énergie électrique… sous la mer

Imaginez que l’on ouvre la porte d’un sous-marin navigant à 50 mètres sous la mer. L’élément liquide s’y engouffrerait avec une grande force, comme le montrent de nombreux films catastrophe américains.

Au niveau de la mer, la pression atmosphérique est en effet de 1 bar. A 10 mètres de profondeur, à la pression atmosphérique s’ajoute la pression hydrostatique de 1 bar liée à la colonne d’eau. La pression augmente ensuite de manière linéaire. A 50 mètres de profondeur la pression est ainsi de 6 bars. 

Exploiter ce gradient de pression entre les profondeurs de la mer et la surface pour stocker/restituer l’énergie électrique est au cœur de l’approche de la start-up SubHydro AS en collaboration avec le SINTEF, le plus grand centre de recherche scientifique de toute la Scandinavie et basé à Oslo en Norvège.

« C’est précisément cette énergie potentielle que nous voulons exploiter » indique Rainer Schramm, ingénieur allemand qui a fait carrière dans les technologies aérospatiales et qui est le fondateur de SubHydro.

« Le SINTEF possède des experts dans le domaine de génération électrique, des technologies, et des eaux profondes, ce qui signifie que nous avons tous le nécessaire réunit en un seul endroit » explique l’ingénieur.

Une solution pour développer en masse les énergies renouvelables fluctuantes

L’innovation de SubHydro consiste à ancrer au fond la mer des sphères creuses en béton et en contact avec l’air atmosphérique vie un tube de ventilation. Quand la production éolienne ou solaire est faible, de l’eau s’engouffre dans la sphère entrainant une turbine, comme dans une centrale hydroélectrique classique.

Quand la production éolienne ou solaire est abondante, l’excès d’électricité est utilisé pour chasser l’eau de la sphère et la remplacer par de l’air. 

Chaque système Subhydro sera dimensionné pour stocker/délivrer 300 MW pendant 8 heures, c’est-à-dire le tiers de la puissance d’un réacteur nucléaire standard. L’efficacité d’un cycle complet de stockage-déstockage Subhydro est de 80%, ce qui est aussi élevé qu’avec les centrales de pompage-turbinage (STEP), et bien meilleur qu’avec les solutions à base d’hydrogène ou d’air comprimé. 

Renforcer le béton avec des fibres d’acier

Plus les sphères creuses sont installées en profondeur, plus l’énergie stockée est importante du fait de la pression hydrostatique, et plus l’équation économique est favorable. Tout l’enjeu des recherches actuelles est de trouver un béton aux propriétés optimales.

« Le challenge est de trouver l’équilibre optimal entre la résistance du béton et son coût. Si nous parvenons à mettre au point un béton 5 fois plus résistant que le béton ordinaire, nous pourrons réduire de 75% l’épaisseur des parois des sphères.

C’est un facteur critique. Nous devons parvenir à des coûts de production et d’installation qui rendent le stockage de l’énergie économique par rapport aux prix de l’électricité. » explique le chercheur Martius Hammer. “L’une des solutions que le SINTEF explore est de renforcer le béton avec des fibres d’acier au lieu de barres d’acier standards .Le béton actuel peut être utilisé mais notre mission est de trouver une alternative meilleur marché ».  

Jules Verne est de retour, mais en Norvège

 « Plusieurs personnes ont eu l’idée de stocker l’énergie en exploitant la pression au fond de la mer, mais nous sommes les seuls au monde à le rendre possible » affirme Rainer Schramm. 

D’après les chercheurs du SINTEF, la profondeur idéale pour installer les sphères se situerait entre 400 et 800 mètres. Il suffit de lire une carte des fond marins pour identifier de nombreux pays jouissant de ces profondeurs d’eau à une distance raisonnable du littoral, comme par, en Europe, le Portugal, l’Espagne, la France (par exemple en Méditerranée), l’Italie, la Grèce, l’Irlande, la Grande-Bretagne et la Norvège. 

Ce système de stockage innovant élimine complètement le problème de l’impact paysager et, à l’inverse des STEP à eau douce ou à eau de mer, évite de consommer des surface montagnardes ou littorales où les conflits d’usage sont fréquents et les règlementations compliquées. 

Des éoliennes flottantes (ou des parcs solaires flottants en fonction du gisement local) pourraient être installés à proximité de ces STEP air/eau sous-marines, ceci afin d’optimiser les coûts de raccordement, par exemple par liaison sous-marine HVDC.

Par Olivier Daniélo

 

Découvrez notre offre de formation Energie :


News environnement : Août 2013

Mesurer l’activité biologique en eau profonde via la bioluminescence

Détecter le passage des neutrinos cosmiques de très haute énergie. Telle est la mission du télescope sous-marin Antares, déployé au large de Toulon. Si ce type de particule interagit peu avec la matière, en frappant une molécule d’eau elle peut produire un muon, une particule chargée qui émet des photons lors de son passage. Or c’est cette radiation émise que les quelque 900 photomultiplicateurs que compte le télescope Antares sont chargés d’observer par 2.400 mètres de profondeur. Des profondeurs où 90% des organismes abyssaux qui y vivent et s’y déplacent présentent la particularité d’émettre de la lumière. Or si jusqu’à présent, cette bioluminescence n’avait pas gêné la mission d’Antares, deux épisodes survenus entre mars et juillet des années 2009 et 2010 ont littéralement ébloui cet instrument. En général, le bruit de fond lumineux que mesure Antares est compris entre 40 et 100 kHz. Or lors de ces deux épisodes, ce bruit est passé soudainement à 9.000 kHz.

Un pic qui a coïncidé avec une augmentation de la température de l’eau et de la salinité. D’où le lien fait par les chercheurs entre la bioluminescence et les mouvements de convection qui se produisent dans le golfe du Lion, mouvements qui apportent aux eaux profondes de l’oxygène et des nutriments et boostent l’activité biologique. Or c’est ce pic d’activité biologique qu’a mesuré le télescope sous-marin Antares. Selon les chercheurs, cette mesure de la bioluminescence pourrait devenir la première méthode pour mesurer en continu l’activité biologique en eaux profondes. L’impact sur la vie des mouvements des masses d’eau et la circulation océanique pourrait être alors mieux compris ce qui est d’autant plus important dans un contexte de réchauffement climatique où ces convections d’eau profonde devraient diminuer significativement au cours du siècle.

Les résultats de ces travaux, menés par une équipe coordonnée par des chercheurs de l’Institut Méditerranéen d’Océanographie (CNRS/IRD/Université Aix-Marseille/Universite du Sud Toulon-Var) et du Centre de Physique des Particules de Marseille (CNRS/Université Aix-Marseille), ont été publiés dans PLoS ONE le 10 juillet dernier.

Source : www.bulletins-electroniques.com/actualites/73688.htm

Une usine de traitement d’eau nouvelle génération

Une nouvelle start-up de Nanyang Technological University (NTU), appelée De.Mem vient de lancer avec succès sa première usine de traitement d’eau à l’étranger, au Vietnam. Cette nouvelle usine, située à Duc Hoa près d’Ho Chi Min, fait près de 120 m2 et peut produire un million de litres d’eau potable par jour, ce qui équivaut à la consommation quotidienne de 6 600 Singapouriens.

Il s’agit d’une usine nouvelle génération nécessitant une seule personne pour la faire fonctionner, car elle est reliée par réseau sans fil à un bureau singapourien qui gère les opérations quotidiennes et surveille le bon fonctionnement de l’usine. L’avantage de cette usine high-tech est de produire de l’eau plus pure et moins chère que les usines classiques, principalement parce qu’elle alimente les habitats et les industries proches. Il faut donc moins d’énergie pour acheminer l’eau, et son prix s’en trouve réduit.

La société De.Mem (diminutif de Decentralised Membranes) notamment financée par New Asia Investments, s’est associée à GD Wasser, une société Vietnamienne, pour mettre en place cette usine. Cette innovation est également possible grâce à la société Membranes Instrument & Technology (MINT) qui est la maison mère de De.Mem et qui fournit les outils de surveillance de la qualité de l’eau développés avec Nanyang Environment and Water Research Institute (NEWRI). Le rôle de De.Mem est donc de concevoir, de construire et d’opérer cette usine innovante qui est, selon le Dr Adrian Yeo (directeur général de MINT et de De.Mem), une combinaison de nouvelles technologies, d’équipements brevetés de MINT ainsi que des processus de traitement développés à Singapour.

Suite à ce succès, quatre autres usines de traitement vont voir le jour au Vietnam d’ici fin 2013, cette nouvelle génération d’usines étant particulièrement adaptée aux pays en développement car les coûts pour la population et les entreprises sont réduits et la qualité de l’eau est augmentée.

Source : www.bulletins-electroniques.com/actualites/73650.htm

Fonte des calotte glaciaires : quand la science nuance

Selon des scientifiques du Centre de recherche allemand pour les géosciences (GFZ), à Potsdam (Brandebourg), en coopération avec l’Université de Bristol (Angleterre), la période d’observation par satellite des calottes glaciaires du Groenland et de l’Antarctique est encore trop courte pour être en mesure de formuler une conclusion définitive sur la fonte accélérée des calottes polaires, et sa persistance dans l’avenir. L’étude menée par Bert Wouters et son équipe a été publiée dans l’édition en ligne de « Nature Geosciences ».

Les chercheurs ont analysé neuf années de données récoltées par le satellite GRACE. Ces résultats ont montré que les deux calottes glaciaires perdent actuellement une quantité importante de glace : environ 300 milliards de tonnes par an. Par rapport à la première partie de la mission (2002), la contribution des deux calottes polaires à l’élévation du niveau de la mer a doublé. De plus, cette perte en volume et en surface ralenti fortement la formation naturelle de la glace.

Cependant, la fonte accélérée de ces calottes soulève plusieurs problématiques scientifiques. Car outre le réchauffement lié aux activités anthropiques, les calottes glaciaires sont influencées par une variété de phénomènes naturels tels que les chutes de neige et les courants océaniques. D’après les climatologues impliqués dans l’étude, neuf années constitue une période d’observation très courte et les 35cm de prédiction actuelle d’augmentation du niveau de la mer pour 2100 pourrait aussi bien être exagérés que sous-estimés. « Au niveau de l’observation des calottes, nous sommes davantage à une échelle météorologique que climatique », déclare Bert Wouters. « Les mesures météorologiques de la calotte glaciaire sur une courte échelle de temps peuvent masquer les phénomènes qui se déroulent réellement sur le long terme » ajoute le co-auteur Ingo Sasgen du GFZ. Selon ce dernier, le phénomène de fonte actuellement observé pourrait en réalité faire partie d’un cycle géoclimatique plus long, dont les variations de masses glaciaires pourraient s’avérer positives.

Davantage de précisions sur les effets météorologiques et climatiques seront obtenues en 2017 grâce à la mission de suivi.

Source : www.bulletins-electroniques.com/actualites/73593.htm

Impuissance à Fukushima

Une « bagatelle » : pas moins de trois cents tonnes d’eau hautement contaminée se seraient échappées de l’un des nombreux réservoirs présents sur le site de la centrale de Fukushima Daiichi, réservoirs assignés au stockage de plusieurs millions de litres d’eau radioactive provenant des systèmes de refroidissement des réacteurs. Le liquide radioactif serait parvenu à se frayer un chemin, du réservoir jusqu’à l’océan Pacifique en formant le cours d’un véritable ruisseau, avouait à demi-mots mardi dernier l’un des responsables de l’opérateur de la centrale accidentée, TEPCO (la « Tokyo Electric Power COmpany »).

L’incident est d’importance, conduisant même l’autorité de régulation nucléaire du Japon à le classer au niveau 3 de l’échelle internationale de classement des incidents et accidents nucléaires (INES, échelle comprenant huit niveaux de gravité notés de 0 à 7), le mettant dorénavant au rang des « incidents graves ». Malgré la multiplication d’incidents et de calamités sur le site de la centrale de Fukushima ces deux dernières années, c’est la première fois depuis le début de la catastrophe en mars 2011 qu’une alerte INES est diffusée par les autorités japonaises, laissant craindre un nouveau désastre environnemental.

Dérisoires sacs de sable

Les petites mains de Fukushima, les ouvriers ayant remplacé les tristement célèbres « liquidateurs », s’escriment depuis quelques jours autour du réservoir en fuite, plaçant ici et là de bien dérisoires sacs de sable pour tenter d’endiguer l’écoulement de l’eau contaminée par de très hauts niveaux de césium et de strontium radioactifs, des niveaux qui sont plusieurs centaines de fois supérieurs aux normes internationales de sécurité, d’après l’opérateur TEPCO. La tâche était placée sous le signe de l’urgence, des conditions météorologiques difficiles et de fortes pluies étant prévues dans la région pour les jours à venir.

L’un des responsables de la TEPCO, Masayuki Ono, a également dû admettre dans un désormais habituel exercice de contrition télévisuelle qu’une grande partie de l’eau contaminée s’était d’ores et déjà infiltrée dans le sol près de la centrale, terre qui devrait alors être extraite avant de trouver une solution de traitement ou de… stockage. Il est évidemment plus que probable qu’une partie de cette eau infiltrée ait déjà rejoint l’océan, s’ajoutant aux tonnes de fluides radioactifs ayant déjà terminé leur course dans la nature, et ce depuis près de deux ans et demi.

Pérennité des réservoirs ?

Cette nouvelle fuite soulève d’importantes questions à propos de la pérennité des quelques mille immenses réservoirs que TEPCO a installé sur le site, à moins de 500 mètres du rivage, réservoirs accueillant au fur et à mesure l’eau contaminée dont se servent les travailleurs du site pour refroidir les réacteurs endommagés, au même titre que l’eau récupérée lors des premiers mois dans les sous-sols de la centrale. Le rythme est effréné : près de 400 tonnes d’eau sont utilisées quotidiennement pour le refroidissement, et doivent ainsi chaque jour être stockées.

Les premières rumeurs ayant trait aux fuites de ces réservoirs ont commencé à bruisser en début de semaine dernière, lorsque des ouvriers ont découvert des flaques d’eau radioactive près de l’un de ces cylindres géants, véritables monstres de onze mètres de hauteur pour douze mètres de diamètre qui s’entassent non loin des réacteurs et de l’océan Pacifique. Des examens approfondis avaient alors révélé que le réservoir suspect, censé contenir mille tonnes de déchets liquides, n’en contenait plus que 700, les 300 tonnes manquant ayant pris la poudre d’escampette.

« On a relevé 100 msV par heure [au niveau de la fuite]. Si un employé était exposé à moins d’un mètre de l’une de ces flaques, il accumulerait en une heure la dose maximale, équivalente à cinq ans de travail pour un salarié du nucléaire », a déclaré Masayuki Ono.La TEPCO, toujours à travers la voix de Monsieur Ono, aurait tablé sur une durée de vie d’au moins cinq ans pour ces réservoirs, ce qui semble pourtant absolument dérisoire mais permettait de palier l’urgence. Le réservoir fautif n’aurait pas même tenu deux ans, et les employés de surenchérir sur les nombreuses petites fuites provenant de cylindres similaires, accidents s’élevant au moins au nombre de quatre. Cerise sur le gâteau, les réservoirs géants seraient vulnérables face à un tremblement de terre ou un tsunami, si l’on en croit Hiroshi Miyano, spécialiste du nucléaire à l’université Hosei de Tokyo. On peut facilement imaginer les conséquences dramatiques d’un tel scénario.

Une gestion calamiteuse de l’après catastrophe

Car c’est bien un séisme suivi d’un tsunami qui avaient neutralisé le système de refroidissement ainsi que les systèmes de secours de la centrale de Fukushima Daiichi en mars 2011, causant la fusion des cœurs dans les réacteurs 1, 2 et 3. La catastrophe avait été classée au niveau 7 de l’échelle internationale de classement des incidents et accidents nucléaires, niveau le plus élevé qu’elle partage seulement avec l’accident nucléaire de Tchernobyl en 1986.

Lorsque l’autorité de régulation nucléaire du Japon se prépare à faire passer du niveau 1 au niveau 3 la fuite d’eau contaminée vers le Pacifique, il faut garder en tête que chaque augmentation de niveau correspond en théorie à une multiplication par dix de la gravité de la fuite, si l’on se fie aux experts de l’Agence Internationale de l’Énergie Atomique (AIEA), bien que l’AIEA n’ait rien à voir dans cette augmentation de niveau.

La gestion calamiteuse de l’après catastrophe par la TEPCO, ainsi que le manque de transparence dont elle a fait preuve depuis plus de deux ans n’ont évidemment convaincu ni la communauté internationale, ni l’opinion publique japonaise. Immédiatement après les déclarations alarmantes de l’opérateur de la centrale accidentée, le premier ministre nippon – le très populaire Shinzo Abe – a sommé son gouvernement de plancher sur des solutions de toute urgence. La TEPCO, elle, espère toujours parvenir à purifier cette eau radioactive à l’aide d’un système de filtrage élaboré, afin de pouvoir rejeter une eau faiblement contaminée directement dans l’océan, au grand dam des analystes et des pêcheurs de la région.

Par Rahman Moonzur, journaliste scientifique

News informatique : Août 2013

Un logiciel qui répondrait aux questions sur un texte

Une équipe de linguistique informatique à l’Université de la Sarre travaille actuellement au développement d’un logiciel de compréhension de langage qui permettrait d’établir des liens dans un texte afin d’en saisir le sens global. Deux des projets menés sont soutenus financièrement par l’entreprise Google. Les bénéficiaires sont Ivan Titov, chef du groupe de recherche « Apprentissage automatique pour le traitement du langage », et Hans Uszkoreit, professeur de linguistique informatique à l’Université de la Sarre et directeur scientifique du Centre allemand de recherche sur l’intelligence artificielle de Kaiserslautern (DFKI – Rhénanie-Palatinat). Ces bourses sont destinées à soutenir des projets d’intérêt pour le moteur de recherche et pour l’informatique en général. Le soutien total de l’industriel représente 360.000 dollars.

Les informaticiens autour d’Ivan Titov développent actuellement une méthode pour permettre à un ordinateur de mettre en relation logique les éléments d’un texte. Il serait donc possible dans un futur proche pour un ordinateur de répondre à une question ciblée d’un utilisateur sur un texte donné. Le logiciel analyserait le texte en le plaçant dans son contexte et donnerait la bonne réponse à l’utilisateur. L’idée de l’équipe est d’aboutir à un programme qui répondrait à des questions sur un article long, non connu du lecteur et dont seulement un résumé ou une partie de l’écrit présenterait un intérêt.

L’équipe de recherche travaille à la fois à Sarrebruck (Sarre) et à Amsterdam. Ivan Titov, premier bénéficiaire de la bourse de recherche, travaille à rendre possible une sorte d’apprentissage par l’ordinateur, par la mise en relation des mots au sein d’une phrase pour en comprendre le sens. « Nous avons conçu un modèle pour simuler la façon dont l’homme écrit des textes. Nos ordinateurs travaillent dans le sens inverse pour comprendre ces textes : l’ordinateur va saisir le sens du texte, voire les intentions de l’auteur », indique le chercheur. Les ordinateurs ne devront pas uniquement mettre en relation des mots et des phrases, mais également lier les mots à leur signification dans un contexte donné. Ainsi, une partie implicite du discours devrait être saisie par l’ordinateur qui pourra dans un second temps répondre aux questions d’un utilisateur ou rédiger un résumé du texte incluant ces éléments.

Source : www.bulletins-electroniques.com/actualites/73679

Reconnaître les émotions par la voix

Les technologies liées à l’intelligence artificielle ont été très en vogue dans le monde de la recherche ces dernières années, notamment grâce à l’évolution de la robotique. L’interaction homme-machine a été rendue possible par le développement d’outils algorithmiques d’apprentissage automatique. Jusqu’à présent, les outils de traitement des signaux vocaux étaient focalisés sur l’analyse de la parole et la reconnaissance de mots, comme les systèmes embarqués sur les téléphones de nouvelle génération qui se commandent par la voix. La plupart des outils d’analyse de discours sont basés sur la détection des mots prononcés par une personne puis l’étude statistique du registre lexical qui en dérive.

La start-up israélienne Beyond Verbal va plus loin en analysant la tonalité de la voix d’une personne afin d’en détecter les émotions. Au lieu de centrer son analyse sur les mots prononcés, le logiciel proposé par la jeune pousse israélienne préfère se concentrer sur la façon dont ils sont dits. Pour ce faire, une analyse des composantes spectrales du son (coefficients de la représentation sonore dans un espace mathématique) permet de caractériser l’intonation de la voix d’une personne, et ainsi de détecter signes de timidité, de fatigue, d’engouement, de détermination, d’arrogance, etc. Un aperçu de l’outil est disponible en ligne, sur le site de Beyond Verbal.

Cette nouvelle approche a de beaux jours devant elle, car elle est en passe de révolutionner le monde de l’interaction homme-machine, permettant à des robots de « comprendre » les émotions et non plus seulement les mots employés par une personne. Les investisseurs en sont en tout cas convaincus : la start-up a déjà levé plus de 2,8 millions de dollars pour développer son produit.

Source : www.bulletins-electroniques.com/actualites/73630

Signature d’un accord sur l’Internet du futur entre les Etats-Unis et le Japon

L’Institut national des technologies de l’information et de la communication (NICT) du Japon et la Fondation nationale pour la science (NSF) des Etats-Unis ont signé un Memorandum of Understanding (MoU) ayant pour objectif de faciliter les coopérations entre les deux pays dans le domaine de l’Internet et des réseaux de future génération (NWGN – New Generation Network).

Les deux parties ont convenu, le mercredi 29 mai 2013, de collaborer au développement d’une future génération de réseaux de transmission qui pourrait remplacer l’Internet actuel. En effet, l’Internet devenant de plus en plus utilisé dans tous les domaines, la quantité de données produites et échangées chaque jour augmente de manière exponentielle – risquant d’entrainer des problèmes de sécurité et une consommation électrique énorme.

Le besoin d’une nouvelle architecture plus adaptée à la masse de données échangées est à l’origine de ce nouvel accord entre le Japon et les Etats-Unis. Des chercheurs américains et japonais se sont ainsi rencontrés à Tokyo pour échanger sur leurs priorités communes pour leurs investissements futurs. Trois thématiques sont principalement ressorties de ces discussions : les réseaux optiques, l’informatique mobile ainsi que la modélisation et la conception des réseaux.

Afin d’établir cette relation de travail officielle, le MoU a été conclu et signé à Tokyo par Makoto Imase, vice président du NICT, et Farnam Jahanian, directeur adjoint du NSF pour l’informatique, les sciences de l’information et l’ingénierie.

Source : www.bulletins-electroniques.com/actualites/73558

5 choses improbables qui se trouvent sur la Lune

Si je vous demande ce que les hommes ont laissé sur la Lune, il y a de fortes chances pour que vous me répondiez un drapeau américain, ou des empreintes de pas, ou même un peu de matériel technique. Et vous auriez raison, bien que pour le drapeau, il n’y en ait pas un mais six, plantés au cours des différentes missions Apollo. Et il ne sont plus vraiment américains, vu que les températures très rudes de la Lune et les rayons ultraviolet les ont sans doute rendu completement blancs. En ce qui concerne le matériel abandonné, il y en a, et pas qu’un peu. Au fil des missions lunaires, l’humanité a laissé près de 180 tonnes de matériel derrière elle, dont 3 jeeps, des dizaines de sondes et de modules, des caméras ou encore des sacs de collecteurs de défécation…

Mais il y a au moins 5 choses qui se trouvent actuellement sur la Lune, et dont je suis prêt à parier que vous ignorez l’existence.

#5 : Une statuette

En 1971, l’équipage d’Apollo 15 emporta avec lui une statuette en aluminium de 8,5 cm de haut. Baptisée Fallen Astronaut, cette sculpture réalisée par l’artiste belge Paul Van Hoeydonck est la seule œuvre d’art présente sur la Lune. Elle fut déposée sur le sol lunaire à coté d’une plaque commémorative, en hommage aux astronautes morts durant l’exploration spatiale.

#4 : Des miroirs

Ou plus exactement des réflecteurs lunaires. Ces dispositifs ont la propriété de renvoyer la lumière dans la direction d’où elle vient, ce qui permet de mesurer la distance entre la Terre et la Lune à l’aide d’un faisceau laser. 5 réflecteurs ont été déposés sur la Lune au cours de différentes missions, et 4 sont utilisés encore aujourd’hui. Pour information, la distance exacte jusqu’à la Lune est de 384 467 km.

#3 : Les initiales d’une petite fille

Jusqu’a présent, 12 hommes ont marché sur la Lune, et Eugène Cernan fut le dernier d’entre eux. En 1971, au cours de la mission Apollo 17, Cernan s’agenouilla et traça dans la poussière lunaire les lettres TDC. Les initiales de sa fille Tracy. Sans atmosphère, et à moins que l’on décide d’ouvrir un complexe touristique sur la Lune, l’inscription devrait y rester pour toujours.

#2 : Les cendres d’un homme

Eugene Shoemaker était un géologue américain, ainsi que l’un des pionniers de l’étude des planètes. Notamment connu pour avoir codécouvert la comète Shomaker-Levy9, il mourut dans un tragique accident de voiture en 1997. Deux ans plus tard, le 31 juillet 1999, une partie de ses cendres fut emportée sur la Lune à bord de la sonde Lunar Prospector, dans une petite capsule de polycarbonate. A ce jour, Eugene Shoemaker est la seule personne dans l’histoire de l’humanité dont les restes reposent sur un autre astre que la Terre.

#1 : Des balles de golf

Alan Shepard fut le premier américain dans l’espace, et le 5è homme à marcher sur la Lune. En fevrier 1971, alors qu’il commandait la mission Apollo 14, il devint également le premier golfeur lunaire de l’histoire, comme il l’avait promis à son père. A l’aide d’un club bricolé avec les moyens du bord, il tira deux balles de golf. La rigidité du scaphandre l’obligea à jouer d’une seule main, mais selon ses dires, il envoya la deuxième balle à des kilomètres. A l’heure où je vous parle, les deux balles sont toujours là-haut, quelque part sur la Lune…

 

Patrick Baud

Source : Blog www.axolot.info

L’hélicoptère à pédales existe enfin !

Le 13 juin 2013, leur engin a volé plus d’une minute, a atteint plus de 3m d’altitude et le pilote est resté au dessus d’un carré de 10m de côté.

Comme on le voit, les dimensions de l’ AeroVelo « Atlas » sont impressionnantes : occupant un carré de 47m au sol, les 4 rotors font 20.2 m de diamètre chacun. L’ensemble ne pèse que 55 kg grâce à l’utilisation de poutres triangulées en carbone, de pales en carbone+kevlar+mylar et de « chaines de transmission » en vectran. Aucun doute : la disponibilité et la maîtrise de tels matériaux sont essentielles dans une telle réalisation.

Accessoirement, il faut aussi un moteur humain exceptionnel. Le pilote Todd Reichert a fourni une puissance de 1.1 kW au début du vol et arrivait encore à fournir 600 watts à l’ atterrissage, tout ça avec 72 kg de muscles, d’os et de cerveau.  Il devait aussi contrôler l’appareil en tirant sur les haubans en vectran afin de déformer la structure pour modifier très légèrement l’orientation des rotors.

Ce fantastique exploit comble un peu notre léger retard sur ce qui était prévu en 1900 pour l’an 2000 (mais on a eu 140 caractères à la place…)

 

Par Philippe Guglielmetti dit « Dr Goulu »
Blog Pourquoi Comment Combien

Et si on travaillait immergé dans un espace en 3D ?

L’aéronautique, l’automobile, l’architecture, les systèmes d’information géographique (SIG), mais aussi la biologie et la génétique sont bouleversés par l’arrivée de la visualisation immersive et stéréoscopique en trois dimensions (3D). Cette technologie facilite le travail des designers et des ingénieurs en permettant d’explorer virtuellement un produit sous toutes ses facettes avant de lancer la phase de production.

La technologie permet de visualiser en grandeur nature et en 3D un prototype ou un modèle virtuel à partir de ses données contenues dans l’un des 200 logiciels de travail compatible. La projection se fait sans conversion de données et en temps réel. L’opérateur peut alors interagir avec l’environnement 3D pour changer un élément du design : une couleur de voiture, agrandir une distance, ajouter,  changer ou déplacer un objet… De nombreuses options, telles que l’enregistrement vidéo, l’assemblage virtuel, le « finger tracking », la fusion de scènes 3D ou l’annotation digitale sont possibles !

Vue externe de l’espace immersif de 50 m2. Les entreprises intéressées peuvent l’expérimenter au siège social de Techviz, au 63 boulevard Massena, Paris 13e. © TechViz
 

Un travail facilité et plus rapide

Grâce à cette technologie, il est par exemple possible de se « promener » à l’intérieur d’un sous-marin. Il est ainsi possible de vérifier la hauteur sous plafond, les distances entre les éléments, déplacer des objets pour améliorer l’agencement, etc. De leur côté, les constructeurs automobiles peuvent améliorer le design beaucoup plus facilement. Il leur est, par exemple,  beaucoup plus facile de choisir une couleur et la forme de la voiture grâce à un rendu « réel » en grandeur nature. Le fait de pouvoir zoomer et de vérifier chaque recoin permet d’améliorer le prototype avant sa construction.

Cette technologie est aussi utilisée par les constructeurs de centrales nucléaires et par les compagnies pétrolières pour décider de la réalisation d’un forage. Dans l’aéronautique, elle sert à construire les nouveaux modèles d’avions et, dans le secteur agricole, elle est très utilisée par les constructeurs de moissonneuses-batteuses américains. 

Les applications de la technologie sont presque infinies dès lors qu’elles nécessitent des constructions de modèles ou de prototypes coûteux. Le logiciel Techviz 3D permet d’améliorer le design dès les premières étapes, sans avoir à construire ces prototypes. « La solution immersive stéréoscopique de TechViz permet de réduire les coûts de production, plus besoin de construire systématiquement des maquettes physiques pour observer un produit sous tous les angles, explique Alexis Vartanian, Directeur Technique de TechViz. « La technologie permet aussi de vérifier les données et de faire des changements en temps réel », rappelle-t-il.

Des partenariats fructueux

Plusieurs entreprises se sont regroupées pour créer cet environnement 3D virtuel, immersif et interactif.

Entre autres, la société TechViz édite le logiciel, Christie s’occupe des projecteurs, Da Lite des écrans, PNY des cartes graphiques, ART GmbH des capteurs de position, Volfoni des lunettes, HP des ordinateurs et Anticyp Simulation s’occupe de l’intégration finale. Il est possible d’acquérir le tout pour environ 400 000 euros, contre 2 millions d’euros y a encore quelques années. Le prix devrait encore sensiblement diminuer au fur et à mesure que les ventes se développeront.

Pour promouvoir cette technologie, TechViz et ses partenaires ont créé un espace immersif de 50 m2 en juin 2013, au sein d’une salle de visualisation sur quatre faces. Elle permet de nombreuses démonstrations de visualisation d’applications de modèles 3D  afin d’illustrer l’étendue des capacités de la solution. Les clients sont au rendez-vous et l’intérêt est grandissant. « Chaque jour, nous avons au moins deux entreprises importantes qui viennent  tester la technologie  », confie Alexis Vartanian. 

 
 
Grâce aux lunettes et aux détecteurs de mouvement, il est possible de se déplacer à l’intérieur du prototype. © TechViz
 
 
Découvrez la vidéo de présentation du showroom :
 

 
Par Matthieu Combe, journaliste scientifique
 

Paypal compte lancer une monnaie intergalactique

La nouvelle a été annoncée fin janvier lors d’une conférence à l’institut SETI de Mountain View basé dans la Silicon Valley. Pendant ce temps dédié à ce programme galactique, tous les acteurs souhaitant y prendre part, ou simplement intéressés par celui-ci ont pu se rencontrer et échanger sur le sujet. 

PayPal se prépare à l’avenir et surtout aux futurs voyages dans l’espace, qu’ils soient touristiques ou professionnels. Et en vue d’éventuelles colonisations, notamment de la planète Mars. Car les projets foisonnent, avec Mars One, Space X et Virgin Galactic notamment. D’ici trois ans, un hôtel spatial conçu par la firme Orbital Technologies devrait faire le tour de la Terre. Ainsi, David Marcus, le président de PayPal communiquait : « Il est temps à présent de planifier l’avenir (…) notre vision terrestre doit se transposer dans l’espace. Dans la mesure où on commence à envisager d’habiter d’autres planètes, il faudra s’intéresser aux réalités pratiques de la vie. » Puis au tour d’Anuh Najar de préciser que « nous sommes arrivés au point aujourd’hui où tout cela semble tout à fait normal aux scientifiques, aux différents gouvernements et à tout le monde ».

Surprenante au premier abord, l’idée consistant à créer un système financier intergalactique n’est finalement pas si insolite. Ils ne sont pas rares les précurseurs pris pour des fous à avoir changé notre mode de vie grâce à des inventions ou des concepts novateurs. Si l’échelle de temps reste incertaine, le travail dans l’espace devrait bien exister un jour. Et il faudra bien conceptualiser les échanges monétaires et tout ce qui touchera à ce mode de vie futur. Les astronautes devront donc se plier à ce système et utiliser cette monnaie, la « PayPal Galactic » si elle voit le jour.

PayPal n’a jamais caché sa volonté de créer une monnaie globale. Ce projet rentre parfaitement dans cette logique. D’autant que l’avenir se tourne vers un mode de paiement toujours plus dématérialisé. Qui plus est, le programme s’affirme comme un soutien à l’industrie aérospatiale et un questionnement sur l’économie interplanétaire.

Découvrez la vidéo du projet PayPal Galactic Aiming For The Final Frontier : 

Par Sébastien Tribot

La Sweat Machine transforme la sueur… en eau potable !

Une équipe d’ingénieurs suédois, dont Andreas Hammar fait partie, a fabriqué une machine permettant de rendre potable la sueur produite par le corps humain. Créer à dessein de sensibilisation au problème de raréfaction de l’eau potable et à la difficulté pour un tiers de la population mondiale à en disposer décemment, la Sweat Machine, sans réelle efficacité à grande échelle, interpelle plus qu’autre chose. Évidemment, l’accès à l’eau potable par toute la population mondiale est un défi majeur. Et l’invention, va dans ce sens.

Elle est issue d’une collaboration impliquant l’UNICEF (The United Nations Children’s Fund), la coupe Gothia (coupe du monde de football des jeunes) et l’agence Deportivo. Les jeunes sont la cible de cette campagne de sensibilisation appelée « Sweat For Water », signifiant littéralement transpire pour l’eau, car l’objectif n’est pas d’endiguer ce phénomène mais de rappeler, d’éduquer. Il ne s’agit pas d’une solution miracle. Per Westberg, membre de l’UNICEF suède a expliqué qu’il souhaitait surtout « présenter le sujet d’une façon nouvelle et ludique ».

Le fonctionnement de la machine est assez simple. La sueur imprégnée dans les vêtements est récoltée après un essorage spécial particulièrement efficace. Le liquide ainsi tiré est alors chauffé et soumis aux ultraviolets puis filtré afin d’ôter toute présence de sels et de bactéries. Les sportifs ont été les premiers à tester la Sweat Machine en offrant leur transpiration, fruit de leur effort, lors de la coupe Gothia. En suède, un millier de personnes ont déjà goûté l’eau créée par ce procédé et sont toujours vivants. Cela peut sembler dégoûtant mais les concepteurs affirment que l’eau produite par la Sweat Machine est « plus propre que celle du robinet  ». 

Un tel dispositif existe déjà mais il n’était employé que par les astronautes lors de leurs séjours dans la Station spatiale internationale. L’appareil recyclait ainsi sueur et urine. Quoi qu’il en soit, la Sweat Machine n’a pas pour vocation d’être produite en masse. L’UNICEF envisage plus concrètement l’utilisation des pilules de purification de l’eau comme solution et prévoit de chercher des fonds pour les acheter.

Découvrez la vidéo explicative de la création de la machine : 

Par Sébastien Tribot

C’est au tour de Facebook de développer son reader !

Pour les reader, une guerre impitoyable a commencé. Alors que Google reader a fermé ses portes le 1er juillet, beaucoup se demandaient quels remplaçants allaient tirer leur épingle du jeu. On citait les lecteurs de flux suivants : Feedly, Netvibes, AOL Reader, Digg Reader, The Oldreader ou encore Newsblur… Et, il est vrai qu’ils ont su profiter de la fin du service de Google. Mais personne n’avait vu venir Facebook.

Or, selon le Wall Street Journal, Facebook travaillerait sur une application similaire depuis un an. Une rumeur que l’intéressé n’a néanmoins pas encore confirmé tout à fait. Pourtant, il serait sur le point de mettre en ligne son appli nommée Reader, qui à l’image de Flipboard, serait un agrégateur d’articles de presse. L’objectif du réseau social, dont se sert un septième de la population mondiale, est de prolonger le temps que passent ses internautes sur le site; en se transformant en journal pour appareils mobiles. Car nombreux sont les utilisateurs à consulter les news Facebook seulement quelques minutes. Devenir une plateforme centrale de l’information en proposant un contenu éditorial toujours plus étoffé se révèle donc être le but de Reader. Via ce nouveau service, Mark Zuckerberg confie même aspirer à être le « journal le mieux personnalisé au monde ». Une manière finalement d’exposer ses internautes à encore plus de publicités.

Avant lui, Flipboard, fondé par Mike McCue et Evan Doll en 2010, développait déjà ce concept. Les deux hommes ont ainsi créé une interface agréable en forme de magazine numérique. Lequel affiche le contenu de diverses sources sélectionnées  pour ses utilisateurs en fonction de leurs goûts. Et ce filtrage de l’information séduit. Aujourd’hui, Flipboard attire 50 millions d’usagers. Cependant, et malgré ce succès indéniable, le service doit-il s’inquiéter de l’arrivée prochaine de Facebook Reader ?

Tout comme Flipboard, d’autres acteurs se sont ou vont se tourner vers la curation de l’information. Quelques semaines auparavant, Linkedln rachetait Pulse, une application pour iPad pour 90 millions de dollars. En début d’année, Yahoo! rachetait Summly. Noowit, un petit nouveau dans le paysage des reader, est en train de se faire un nom grâce à un concept novateur : la possibilité de créer son propre magazine. Le reader, jusqu’alors en version Beta privée, est devenu public à l’arrêt de Google Flux. Enfin, même le moteur de recherche Bing s’y mettrait avec Bingboards. 

Mark Zurckerberg, bien conscient de l’importance de ce nouveau genre de service, ne lésine pas sur les moyens pour devenir le roi de l’information personnalisé. Cependant, d’autres acteurs bien ancrés dans ce marché, tel que Flipboard ne vont pas se laisser faire. Et puis, aucune date concernant le lancement du reader n’a encore filtré.

Par Sébastien Tribot

Les pesticides à l’origine de cancers

Une nouvelle étude accable les pesticides. Cette fois, c’est l’Institut national de la santé et de la recherche médicale (INSERM) qui a mandaté un groupe d’experts pour étudier ces produits. Des épidémiologistes,  des spécialistes en santé-environnement, en santé au travail, des biologistes de la toxicologie cellulaire et moléculaire ont ainsi épluché les données de la littérature scientifique des trente dernières années.

Ils ont analysés les données épidémiologiques de nombreux pays, concernant les insecticides, herbicides et autres fongicides et  se sont intéressés aux informations ciblant les expositions professionnelles et les expositions précoces. En effet, plusieurs enquêtes épidémiologiques suspectaient fortement les pesticides d’être à l’origine de différentes pathologies comme certains cancers.

C’est dans ce contexte que La Direction générale de la santé a donc demandé à l’Inserm de mener sa propre expertise. Les conclusions sont sans appel : les pesticides provoquent bien un risque accru de développer le cancer mais aussi la maladie de Parkinson.

D’après le rapport, la voie cutanée est la principale voie d’exposition en milieu professionnel, c’est-à-dire principalement  pour les agriculteurs et les ouvriers du secteur chimique qui fabriquent ou qui épandent. Sinon, l’exposition se fait par voie aérienne, par ingestion d’eau ou des aliments. Un tableau liste les pesticides et indique quelle est la population la plus à risque ainsi que le risque encouru (p32/33 du rapport).

Une étude importante pour la France qui est le premier pays agricole de l’Union Européenne.

Par Audrey Loubens, journaliste scientifique

Une puce électronique pour dessaler l’eau de mer

Des chercheurs de l’université du Texas à Austin et de celle de Marburg en Allemagne ont collaboré avec la société Okeanos Technologies pour fabriquer une puce électronique permettant de dessaler l’eau de mer. Le principe est simple : l’eau de mer s’écoule entre plusieurs micro-canaux de 22 microns de diamètre. Chacun d’entre eux se divise en deux.

Au point de séparation, une électrode impose une tension qui oxyde les ions chlorure. La disparition de ces ions provoque un gradient de champ magnétique qui pousse les ions chargés positivement vers la sortie. Les ions chargés négativement sont alors attirés par ceux chargés positivement. Un canal contient donc les ions chargés, tandis que dans le deuxième coule une eau partiellement dessalée.

Les avantages de cette approche sont sa simplicité de mise en œuvre, son besoin en énergie limité puisque des piles du commerce suffiraient à l’alimenter, et donc son faible coût. Reste cependant à améliorer le rendement. A ce jour, le taux de désalinisation est de seulement 25% maximum. Un taux qui doit impérativement atteindre les 99% pour que l’eau soit considérée comme potable.

Paru dans le journal Angewandte Chemie, ces travaux proposent une alternative prometteuse aux techniques actuelles dont la distillation ou l’osmose inverse, très efficaces mais très chères à mettre en œuvre.

Par Audrey Loubens, journaliste scientifique

PSA veut optimiser son process

Dans la tourmente, PSA Peugeot Citroën tente de sortir la tête de l’eau et d’endiguer la spirale infernale qui tire ses ventes vers le fond. Parallèlement à sa conquête du marché asiatique avec notamment  l’ouverture d’une nouvelle usine en Chine, le français vient de signer un accord de collaboration d’une durée de 5 ans avec le CEA pour avoir accès à une plateforme du CEA Tech spécialisée dans le manufacturing avancé.

Grâce à ses 2000m² et près de 200 chercheurs, cette plateforme est un outil au service des industriels pour les aider à produire mieux et plus. Les technologies disponibles via la plateforme relèvent des domaines de la réalité virtuelle, de la robotique ainsi que du contrôle non destructif.  Sans oublier des compétences en réalité augmentée, gestion de la connaissance et orchestration de processus. Parmi ce panel de services, PSA s’intéresse tout particulièrement aux technologies innovantes en cobotique et réalité virtuelle.

Tout d’abord, la marque au lion espère capitaliser sur la robotique collaborative ou cobotique, pour améliorer la productivité de ses usines de production. Pour y arriver, PSA va intégrer le savoir-faire des opérateurs sur les lignes d’assemblage tout en réduisant la pénibilité des postes.

Deuxième axe privilégié, la réalité virtuelle couplée à la simulation interactive ou la réalité augmentée doit aboutir à optimiser les processus de fabrication et accroître la maîtrise de la qualité des produits conjointement.

Espérons que cette collaboration procure à PSA les avancées nécessaires pour se relancer.

Par Audrey Loubens, journaliste scientifique

Quelques idées fausses sur l’osmose

Las de lire ou d’entendre des inepties sur le phénomène – pourtant bien maîtrisé – d’osmose, Eric M. Kramer et David R. Myers, respectivement professeurs de physique et de chimie au Bard College at Simon’s Rock, dans le Massachusetts, ont décidé d’aborder le sujet à travers certaines des idées fausses habituellement véhiculées à longueur de papiers, dans un article publié ce mois-ci dans la revue scientifique à comité de lecture Trends in Plant Science. Selon eux, la notion d’osmose serait une notion plutôt bien assimilée en physique et en biophysique, alors qu’elle ne serait le plus souvent comprise que d’une manière simplifiée – voire erronée – en biologie et en chimie.

Le mal à la racine

« Toute une série d’erreurs surprenantes continuent d’apparaître à longueur d’articles de presse, papier ou en ligne, ainsi que dans les manuels scolaires » se lamente Eric Kramer. « Les idées fausses sur l’osmose sont particulièrement communes dans le matériel éducatif destiné aux étudiants en chimie et biologie. Une fois apprises et assimilées, ces erreurs influencent le raisonnement des spécialistes tout au long de leur carrière » ajoute-t-il.

L’osmose est un phénomène de diffusion de la matière (généralement des molécules de solvants) à travers une membrane semi-perméable, séparant deux substances dont les concentrations en produits dissous sont différentes. Le déplacement du solvant à travers cette membrane est provoqué par la différence de pression osmotique, elle-même engendrée par la différence de concentration des deux substances.

Effrayante entropie

Les travaux de Josiah Willard Gibbs, physico-chimiste américain du XIXe siècle, sur l’application de la thermodynamique à l’osmose (publiés en 1897), ont incité de nombreux scientifiques à publier pendant plus d’un demi-siècle leurs propres explications concernant les interactions solvant-soluté. Un manuel a même été publié en 1951, offrant aux physiciens une explication à la fois exacte, complète et documentée des travaux de Gibbs, alors que les apprentis chimistes et biologistes restèrent à la traîne. Selon Eric Kramer, la notion d’entropie thermodynamique, « relativement effrayante pour le commun des mortels » pourrait bien être l’une des raisons de ce décalage.

Sachet de sucre

Pour illustrer son propos, Kramer fait appel à l’expérience du sachet de sucre, un classique des premières leçons – approximatives – sur le phénomène d’osmose : une fois le sachet dans l’eau, l’eau se précipite dans le sachet.

  • « La première erreur serait de limiter le phénomène d’osmose aux liquides »  explique-t-il, « alors que cela fonctionne très bien pour les gaz » ;
  • « Une autre erreur voudrait que l’osmose nécessite une force d’attraction, […] le sucre ne tire pas l’eau vers lui. Cela ne fait pas partie de l’explication » ;
  • « Croire que l’osmose se fait toujours dans le même sens du gradient de concentration serait également une erreur. Lorsque que l’on dissout quelque chose dans l’eau, l’eau ne devient pas nécessairement plus diluée. En fonction de la substance, sa concentration peut en fait augmenter » ;
  • « Penser que, comme pour la diffusion, il puisse s’agir d’un processus spontané serait une autre idée fausse », termine-t-il.

Par Moonzur Rahman

Technip fiabilise ses calculs avec le logiciel PTC Mathcad

Contracteur dans le domaine parapétrolier, Technip vend des projets clés en main pour des clients appartenant à l’industrie pétrolière et gazière.

Technip dispose d’une flotte de navires spécialisés dans l’installation de conduites et la construction sous-marine proposant les meilleures solutions et les technologies les plus innovantes pour répondre au défi énergétique mondial.

L’entreprise d’ingénierie conçoit et fournit des réseaux de conduite, vend des pipelines fixes ou rigides.

Responsable d’un service d’ingénierie (Subsea Structures and Equipment Dept Head), Sylvain Routeau et son équipe sont chargés de concevoir des équipements destinés à être montés sur le pipeline afin de lui apporter les fonctionnalités nécessaires.

Le service conçoit des équipements tels que le limiteur de courbure, le raidisseur ou encore la suspension de la colonne montante du pipe qui part du fond marin et remonte à la surface, parfois sur plus de 1000m.

Dans ce contexte de travail, il est essentiel de mettre au point des systèmes d’une fiabilité maximale en raison des enjeux importants d’ordre financier et liés à la sécurité des personnes. C’est pourquoi le bureau d’études s’est doté depuis plus de quinze ans du logiciel de calculs techniques PTC Mathcad, mis au point et développé par PTC.

 

Avoir la main sur le calcul grâce à une grande lisibilité

Spécialement dédié au calcul, PTC Mathcad a eu pour principale mission de réduire au maximum les opérations.

Le calcul analytique se fait désormais automatiquement. « Le logiciel a également permis de nous adapter beaucoup plus rapidement aux multiples évolutions connues dans le calcul depuis vingt ans », précise Sylvain Routeau. Il est en effet possible de cumuler toutes les données permettant de constituer un historique des opérations. Les capacités de présentation de PTC Mathcad ont ainsi permis d’obtenir une grande lisibilité  du calcul et donc une vérification simple et efficace.

 

Gagner en temps et en fiabilité de calcul

L’aspect « documentation » de Mathcad, comme le décrit si bien Sylvain Routeau, se traduit par un accès à la formulation mathématique ; « on peut voir l’équation », résume le responsable du bureau d’étude.Le traitement de calcul PTC Mathcad permet d’accompagner la formulation de texte, de conserver toutes les données écrites et d’y ajouter des notes qu’il est ensuite possible de réutiliser. « Au fil des années, on a ajouté et accumulé des notes de calcul générique pour calculer telle ou telle pièce en fonction des différents projets qui se sont succédés.», se souvient Sylvain Routeau.

   @ Technip

 

Gestion automatique des vérifications et des unités de calcul

PTC Mathcad présente bien d’autres avantages pour Sylvain Routeauet ses ingénieurs. Outre la lisibilité des calculs et la richesse de sa base de données, Mathcad a la capacité de résoudre des systèmes analytiques ou numériques, ce qui permet d’éviter de lourdes et fastidieuses vérifications après calcul. Du point de vue de la vérification des calculs, PTC Mathcad est beaucoup plus rapide : « par rapport à des systèmes classiques, nous établissons des notes de calcul en un temps réduit ; mais la différence se fait surtout au niveau de sa relecture et de sa vérification. Cette étape prend en moyenne trois fois moins de temps qu’avec Excel ce qui représente un gain de productivité évident », souligne Sylvain Routeau.

Le système est aussi capable de gérer des unités différentes, comme par exemple d’additionner des pieds directement avec des mètres par exemple.

 

Les atouts du système

Technip utilise PTC Mathcad depuis 1997, qui a depuis connu de nombreuses évolutions afin de toujours répondre aux exigences des ingénieurs. Grâce à sa convivialité et à la richesse de sa documentation, PTC Mathcad facilite la formation des nouvelles recrues au sein du service d’ingénierie. « Ce logiciel est simple d’utilisation. Il n’y a pas besoin de formation particulière. J’encadre une trentaine d’ingénieurs et tous s’y sont mis rapidement. PTC Mathcad est un outil qui se prend facilement en main et ne pose aucun problème pour les débutants ni pour le personnel présent dans le service depuis longtemps ». 

 

Le logiciel PTC Mathcad permet de documenter les calculs d’ingénierie de manière fiable grâce à l’accès à la totalité du contenu mathématique de la manière la plus lisible qui soit. Le système possède également une capacité de résolution efficace d’un point de vue analytique et numérique, le tout en gérant automatiquement toutes les unités et en donnant la possibilité d’annoter et d’ajouter des commentaires et des courbes. Pour Sylvain RouteauPTC Mathcad représente un package idéal.

 

Pour plus d’informations sur le logiciel de calculs techniques PTC Mathcad :

http://www.ptc.com/product/mathcad/

Vous avez également la possibilité de télécharger directement PTC Mathcad Express, la version gratuite et illimitée du logiciel PTC Mathcad.

Rechargez votre véhicule électrique partout en Europe !

« On a fait la voiture électrique, mais on n’a pas encore les bornes pour aller les charger », s’insurge Marc Teyssier d’Orfeuil, Président du club des voitures écologiques. « C’est un peu comme si l’on vendait des voitures dans des pays où il n’y a pas de routes », ironise-t-il. Cela inquiète les consommateurs qui ne sont pas prêts à investir en l’absence d’infrastructure. 

Vers une recharge possible dans toute l’Europe

Il y a peu de bornes, c’est un fait. Mais pour démotiver encore un peu plus les acheteurs potentiels, l’accès aux bornes existantes est souvent réglementé ! Rien qu’à Paris, si Autolib’ propose plus de 4000 bornes de charge, il faut acheter un pack pour avoir le droit de se brancher uniquement 2h15 par jour ! Le plus souvent, pour avoir le droit de se brancher à une borne, il faut être inscrit et posséder une carte RFID. Aujourd’hui, les acteurs qui proposent des contrats d’accès aux bornes aux utilisateurs sont multiples: opérateurs de chargement, gouvernements, collectivités locale, parking, etc. 

Une société essaye de remédier à cette complexité. Son nom ? Hubject. Elle propose une plateforme de marché qui souhaite résoudre ce frein au développement en faisant en sorte que les véhicules soient rechargeables partout en Europe. 

Découvrez notre base documentaire

Voiture propre 


Son fonctionnement est en réalité assez simple. Hubject propose un contrat itinérant ou « e-roaming » pour faire le lien entre la borne, le fournisseur d’électricité et les consommateurs. Elle simplifie ainsi l’accès aux bornes membres de son réseau « Intercharge ». Pour qu’une borne soit intégrée dans le réseau, elle doit être connectée au programme eRoaming d’Hubject, un protocole OICP (Open InterCharge Protocol) gratuit et accessible à tous.

Un seul contrat à signer

Pour l’automobiliste, les formalités administratives sont réduites au strict minimum puisqu’il n’a qu’un seul contrat à signer avec Hubject qui se charge de rétribuer chaque opérateur. Il peut ensuite recharger son véhicule sur toutes les bornes du réseau Intercharge sans autorisation supplémentaire, dans n’importe quelle ville et n’importe quel pays. Il reçoit ensuite une seule facture mensuelle. Pour reconnaître une borne membre et utilisable, la société développe le symbole « e ». En scannant un code QR sur la borne, l’utilisateur peut l’activer grâce à son Smartphone.

Au-delà de l’Allemagne, des opérateurs finlandais, belges et autrichiens ont déjà adhéré au protocole d’Hubject. C’est une sacré concurrence au projet français Groupement pour l’Itinérance des Recharges Électriques de Véhicules (GIREVE), mené par la Caisse des Dépôts, ERDF, PSA Peugeot Citroën et Renault. Ce projet vise la création d’une plateforme similaire, mais uniquement à l’échelle nationale…

Symbole permettant de reconnaître une borne du réseau Intercharge :

Par Matthieu Combe

Et Volvo déploya ses ailes…

Non, vous ne rêvez pas. Les images, d’abord surprenantes, sèment le doute puis finissent par troubler : Volvo vient de dévoiler un panneau solaire totalement expérimental, qui déploie ses imposantes rondeurs (fruit d’un mariage contre nature entre la structure d’une gigantesque tente Quechua et d’un panneau solaire) à partir du coffre de son nouveau modèle hybride, la V60 Hybrid Plug-in.

Volvo, qui n’est pas particulièrement connu pour son audace stylistique, a par contre la réputation tenace d’être un innovateur patenté – c’est le premier constructeur ayant introduit un pare-brise en verre feuilleté en série, la ceinture de sécurité à trois points… Le constructeur suédois ne déroge ici pas à cette règle avec une jolie surprise qui prend ses aises à partir du coffre de la V60, voiture à la fois diesel, électrique, rechargeable, automatique et à transmission intégrale.

Créé par une jeune société de design et d’architecture basée à Los Angeles, ce gigantesque panneau solaire conceptuel, tout de même d’une envergure de sept mètres et baptisé « Pure Tension », devrait permettre de recharger les batteries de la voiture hybride de Volvo, une fois déployé hors du coffre.

Si la météo est clémente, les batteries de la V60 pourraient mettre douze heures pour se recharger lorsqu’elles sont connectées à la base « Pure Tension ». L’ensemble de l’imposante structure est maintenu par un tube en fibre de carbone, ce qui lui permet également de pouvoir tenir dans le coffre. Présenté en septembre prochain à Rome, le pavillon conceptuel « Pure Tension » ne servira pour le moment qu’à mettre en valeur la voiture hybride du constructeur automobile suédois.

Par Rahman Moonzur

La Norvège admet que son saumon présente des risques pour la santé

Il aura fallu quelques années et une enquête du magazine norvégien VG pour que les autorités sanitaires avouent enfin la dangerosité de leur saumon.

Une contrainte médiatique qui a finalement fait ployer l’attitude de déni dans laquelle elles se protégeaient. Il s’agit d’un aveu retentissant de la part du gouvernement norvégien lorsqu’on sait que 60 % de la production   mondiale de saumon proviennent de leur pays; et un véritable coup dur, car la vente génère 20 milliards d’euros de bénéfice chaque année.

Selon Anne-Lise Bjorke Monsen, docteur au laboratoire de biochimie de Bergen, les polluants agissent directement sur notre métabolisme. Ils affaiblissent, voire pervertissent nos défenses immunitaires. Et le plus ennuyeux est qu’ils se transmettent, notamment par allaitement.

Résultat, ils agissent négativement sur le développement de notre cerveau. « Autisme, hyperactivité et baisse du QI » en sont les principaux symptômes. Les réactions ne se sont pas fait attendre. Quelques jours après la publication de l’enquête, le gouvernement s’est senti obligé de conseiller de réduire voire d’interdire la consommation de saumon à ses habitants, tout du moins aux personnes sensibles.

Sans doute pour enrayer la polémique grandissante et aussi parce que les enjeux sont énormes. Pourtant, le problème est entendu depuis bien longtemps. Depuis que l’on sait que la farine utilisée pour nourrir les poissons d’élevage est à base de poissons sauvages, eux-mêmes contaminés par les PCB (polychlorobiphényles) autrefois employés comme isolant électrique.

Et surtout parce que le saumon norvégien contient un insecticide : le diflubenzuron. Une substance considérée par l’Autorité européenne de sécurité alimentaire comme « hautement toxique pour les organismes aquatiques ». Des mesures strictes ont d’ailleurs été prises dès le courant des années 80. Mesures qui ne cessent d’évoluer au fur et à mesure des études portant sur la nocivité de certains produits.

Mais elles ne semblent pas toujours avoir l’impact escompté. Alors quelle sera l’incidence sur le marché du saumon désormais ? Les importations vont-elles cesser ? La France consomme à l’heure actuelle du saumon provenant à 80 % de Norvège. La Russie quant à elle a déjà cessé d’importer.

Par Sébastien Tribot

Sources :

Revue du Web #48 : les vidéos de la semaine

Cette semaine dans la revue du Web :

  • Réaliser un quadruple salto arrière pour le meilleur robot gymnaste au monde ? Facile !

  • Supraconductivité : « lévitation quantique » sur un ruban de Möbius ;

  • « Never Wet », le spray super-hydrophobe pour les professionnels ou les petits souillons ;

  • Deux expériences en une seule : combiner la combustion du dichromate d’ammonium et celle du thiocyanate de mercure ;

  • Le gadget (inutile?) de la semaine : « Outback B-Day Chair », la chaise qui vous câline lorsque vous recevez un message d’anniversaire sur Facebook ;

  • Enfin en bonus : filmer l’équilibre délicat d’une bulle de savon, à 18 000 images par seconde.

Réaliser un quadruple salto arrière pour le meilleur robot gymnaste au monde ? Facile !

On ne sait pas grand chose du robot qui vient débuter en fanfare cette quarante-septième Revue du Web, mais force est de constater qu’il a de la ressource et un certain sens de l’équilibre, bien qu’il ne paie franchement pas de mine.

Baptisé Hinamitetu, notre champion de gymnastique, est un petit robot humanoïde qui gère avec panache l’un des six agrès de la gymnastique artistique masculine, la barre fixe. Évoluant dans ce qui semble être la chambre / atelier / cave de son concepteur, Hinamitetu ne tremble pas un instant. Bras tendus, il fixe ses petites mains à la barre puis donne de nombreuses impulsions pour avoir l’élan nécessaire à la bonne exécution des figures. Après avoir effectué une petite dizaine de rotations autour de la barre fixe, il entame pied au plancher une figure difficile : un quadruple salto arrière qu’il déroule avec une facilité pour le moins déconcertante. La réception est parfaite, le robot peut alors se redresser dans un mouvement de fierté digne.

Dans la vidéo suivante, notre champion exécute avec brio  un certain nombre de figures imposées, alternant réceptions au sol parfaites ou se rattrapant à la barre après quelques acrobaties.

Hinamitetu a dû s’entraîner d’arrache-pied pour parvenir à un tel niveau. On ne doute pas un instant que le timing, la coordination, l’équilibre ont nécessité des réglages d’une grande précision. Cette dernière vidéo, telle une casserole datant de fin 2009, nous permet d’apprécier l’évolution du petit robot gymnaste, avec ses ratés.

Supraconductivité : « lévitation quantique » sur un ruban de Möbius

La supraconductivité peut, elle-aussi, tenir le haut du pavé. Andy, membre éminent de la Royal Institution of Great Britain – l’une des plus anciennes sociétés savantes britanniques, située à Londres – n’a pas hésité un seul instant à mettre la main à la pâte pour nous le démontrer, dans cette vidéo présentant son expérience favorite – expérience ayant déjà eu lieu en fin d’année dernière dans l’enceinte de ce même établissement.

Le pitch est plutôt alléchant : faire entrer en « lévitation quantique » un petit palet en oxyde mixte de baryum de cuivre et d’yttrium sur un circuit de type « modèle réduit », construit à l’aide de près de 2000 aimants permanents en alliage de néodyme fer bore (Nd2Fe14B, aimant très puissant et moins fragile que le néodyme seul). L’oxyde mixte de baryum de cuivre et d’yttrium (YbaCuO) n’a lui non plus pas été choisi au hasard : ce composé chimique cristallin est connu pour avoir été le premier matériau supraconducteur à une température supérieure à celle de l’azote liquide. Pour couronner le tout, l’équipe de la Royal Institution of Great Britain a eu l’idée d’un circuit dont le tracé épouserait celui d’un ruban de Möbius, ce célèbre ruban n’ayant « qu’une seule face ».

Le palet de céramique n’a pas de propriété supraconductrice à température ambiante, mais une fois la température de -185 degrés Celsius atteinte (immersion dans de l’azote liquide), toute sa supraconductivité peut alors librement s’exprimer. Le disque conduit l’électricité sans résistance ni déperdition d’énergie. Contrairement à l’effet Meissner (exclusion totale de tout flux magnétique à l’intérieur d’un supraconducteur), le champ magnétique pénètre le supraconducteur en raison de sa grande finesse, sous forme de tubes de flux magnétique. À l’intérieur de chaque tube de flux magnétique, la supraconductivité est détruite localement, raison pour laquelle les tubes sont circonscrits au niveau des points faibles du disque. Chaque mouvement du disque fait bouger les tubes, ce que le supraconducteur essaie d’éviter en restant bloqué, piégé en l’air, donnant cette impression de lévitation.

Pour que le palet puisse rester à la bonne température suffisamment longtemps et éviter que les effets s’estompent, il s’est vu agrémenté d’un petit réservoir d’azote liquide, le transformant en véritable petit bolide supraconducteur en « lévitation quantique », aussi bien au dessus qu’en dessous du ruban de Möbius.

« Never Wet », le spray super-hydrophobe pour les professionnels ou les petits souillons

Nous vous parlions déjà dans une précédente Revue du Web de « Never Wet », le spray super-hydrophobe conçu par les Américains de Rust-Oleum. Ils sont désormais de retour avec une petite vidéo promotionnelle devenue virale en très peu de temps, où l’on voit notamment que « Never Wet » serait capable de ruiner, en un clin d’œil, le moindre concours de tee-shirt mouillé.

L’hydrophobie se définit assez simplement : l’angle de contact d’une goutte d’eau, lorsqu’elle est sur une surface plane (localement), doit dépasser les 90 degrés. Au-delà de 150°, la surface est alors considérée comme étant super-hydrophobe. Un angle de contact égal à 180° signifie que la goutte d’eau est complètement sphérique, repoussant la zone de contact jusqu’à un simple point. A titre d’exemple, le Téflon d’une poêle n’est qu’hydrophobe, l’angle de contact moyen étant de 95°. Les surfaces traitées par « NeverWet » offrent un angle de contact généralement supérieur à 160°, d’après les chiffres fournis par les concepteurs.

Près de cinq ans auparavant, cette société américaine avait pour mission de réduire la corrosion sur des produits en acier, initiant alors l’aventure de la création de ce spray. Le concept, plus vraiment nouveau, a le mérite d’être particulièrement bien illustré par la vidéo de présentation, où moutardes, sirops et sauces en tout genre viennent se casser les dents sur un tee-shirt traité avec le spray super-hydrophobe.

La super-hydrophobie présente de nombreux intérêts : outre ses évidentes qualités imperméabilisantes, elle permet de lutter assez efficacement contre le gel, souvent fatal pour les isolants électriques, les lignes à haute-tension, ou le revêtement des ailes d’un avion. Elle est également efficace pour lutter contre la corrosion : « NeverWet » serait jusqu’à quatre à six fois plus efficace qu’un revêtement en polyuréthane classique, généralement utilisé sur de nombreuses infrastructures. Elle permet de préserver plus facilement une surface ou un milieu des moisissures et des bactéries, l’eau accélérant la prolifération de celles-ci. Elle transforme enfin n’importe quelle surface en surface auto-nettoyante. Le fonctionnement de la grande majorité des matériaux est évidemment optimisé lorsqu’ils sont propres.

Deux expériences en une seule : combiner la combustion du dichromate d’ammonium et celle du thiocyanate de mercure

Pour faire plaisir à un enfant, pourquoi ne pas combiner deux expériences emblématiques pour les chimistes en herbe ? Que se passe-t-il lorsqu’un petit tas de dichromate d’ammonium dissimulant quelques morceaux de thiocyanate de mercure prend feu ?

La réaction de décomposition du dichromate d’ammonium, que l’on trouve sous forme de cristaux de couleur orangée, est relativement simple :

(NH4)2Cr2O7 (s) → Cr2O3 (s) + 4 H20 (g) + N2 (g)

Lorsqu’il est confronté à une source de chaleur élevée, le dichromate d’ammonium se décompose en oxyde de chrome – un oxyde vert foncé (couramment utilisé dans les encres et les peintures) – , en vapeur d’eau et en azote. L’oxyde de chrome résultant de la réaction forme assez rapidement un cône qui grandit et s’élargit peu à peu, et dont le dichromate d’ammonium au centre continue de réagir, laissant apparaître ce qui ressemble à s’y méprendre à un petit volcan en éruption.

Connue des amateurs de pyrotechnie sous le nom de « serpent du pharaon » ou encore « serpent noir », la combustion du thiocyanate de mercure a, elle-aussi, de quoi surprendre les non-initiés. Le thiocyanate de Mercure (II) est un composé chimique de formule Hg(SCN)2, généralement obtenu par réaction entre un sel de mercure (II) et un sel thiocyanate. Une faible quantité de ce composé – sous forme d’une poudre blanchâtre – se trouve dissimulée à l’intérieur du cône, expliquant la combustion tardive. Il suffit d’un rien pour que le composé produise habituellement des flammes bleutées et une cendre spectaculaire qui s’allonge, ressemblant à de nombreux tentacules qui n’en finissent pas de grandir, chacun étant assimilé au fameux « serpent ».

Rappelons que cette dernière partie de l’expérience, bien qu’amusante et grand classique chez les chimistes, est pourtant dangereuse : en effet, les vapeurs de mercure émises sont fortement toxiques. Cette toxicité a conduit les apprentis sorciers à utiliser des composés moins dangereux pour continuer à réaliser ce « tour de magie ». Deux variantes existeraient notamment : la première de ces variantes fait entrer en réaction la 4-nitroacétanilide (un composé nitro de l’acétanilide) et de l’acide sulfurique, moins toxiques mais très nocifs et corrosifs. La seconde variante est par contre sans danger, et nécessite de l’hydrogénocarbonate de sodium, du sucre glace et de l’éthanol.

Le gadget (inutile?) de la semaine : « Outback B-Day Chair », la chaise qui vous câline lorsque vous recevez un message d’anniversaire sur Facebook

Lorsque la vacuité et le narcissisme entrent en collision, on peut s’attendre à un résultat proche de la catastrophe industrielle. Le gadget (inutile?) de la semaine est un monument d’inutilité, sanctifiant le paradoxe de la solitude de l’utilisateur des réseaux sociaux – ici, le plus grand de tous, facebook. La chaîne de restaurants Outback Steakhouse et l’agence de publicité brésilienne Lew’Lara TBWA ont mis leurs efforts en commun pour créer la « Outback B-Day Chair » (« birthday chair » ou chaise d’anniversaire), dans le but de matérialiser sous forme de câlin (un « hug ») les petites marques d’affection que peuvent nous laisser nos amis virtuels le jour de notre anniversaire.

« Internet vous a donné des milliers d’amis, mais a mis fin au câlin d’anniversaire, remplaçant la chaleur de ces accolades par de froids messages », nous explique au début de la vidéo une voix empreinte de la gravité de l’homme résigné. Regrettant le côté désincarné des réseaux sociaux même lorsqu’on y reçoit quelques marques d’attention, l’agence de publicité et la chaîne de restaurants ont installé cette chaise câline dans neuf des franchises de la chaîne au Brésil, afin de répandre la bonne parole de l’amour.

Le fonctionnement est rudimentaire : une personne dont c’est l’anniversaire prend place sur le trône, puis se connecte à son compte facebook via une tablette reliée à la « B-Day Chair ». Chaque fois qu’un ami laisse un message d’anniversaire sur le mur facebook de l’heureux cobaye, deux petites mains cartoonesques sortent de part et d’autre du dossier et vous étreignent dans une manifestation des plus fraternelles. Pour donner encore un peu plus d’épaisseur à l’ensemble, une photo est prise au moment où le cobaye reçoit l’accolade, photo immédiatement postée sur… facebook. Un accessoire pour passer l’une de vos plus belles soirées ? Jugez plutôt :

Bonus : filmer l’équilibre délicat d’une bulle de savon, à 18 000 images par seconde

Terminons notre Revue du Web de cette semaine avec les « Slow-Mo Guys », un peu de douceur… et quelques bulles de savon. Derrière les « Slow-mo Guys » se cachent le réalisateur anglais Gavin Free et son ami Daniel Gruchy, deux compères rigolards prêts à se lancer dans toutes sortes d’expériences (impliquant souvent des destructions en tout genre) qu’ils ont pris la – bonne – habitude de filmer, juste pour le plaisir de décomposer la scène au ralenti.

Pour ce faire, rien de tel qu’une « Phantom Flex », l’incontournable caméra numérique très haute définition capable de filmer jusqu’à 18 000 images par seconde. La jouissance primaire de la destruction couplée à la beauté des images rendent souvent ces scènes… hypnotiques.

Les « Slow-Mo Guys » filment ici quelques bulles de savon qui éclatent, pour le bonheur de vos mirettes. Rappelons qu’une bulle de savon est un ensemble à la stabilité relative, composé d’une paroi d’eau à laquelle se sont fixées les phospholipides du savon. C’est un ensemble extrêmement fragile puisqu’elle elle n’est composée que d’une seule molécule de savon d’épaisseur (on dit alors qu’elle est monomoléculaire).

On peut aussi les laisser se défaire d’un ballon d’eau géant, dont la résistance aux assauts répétés de Gavin ne peut que forcer le respect.

Par Moonzur Rahman

Oui, le plastique peut protéger les astronautes

D’après de nouvelles mesures réalisées par le Lunar Reconnaissance Orbiter (LRO), le plastique serait un bon candidat pour protéger les hommes des radiations cosmiques. Petit rappel. Le rayonnement cosmique est constitué de particules avec plusieurs niveaux d’énergie. Sur Terre, nous sommes protégés par le champ magnétique terrestre de sorte que la pluie de particules qui nous arrive est sans danger. « Le rayonnement cosmique de très basse énergie est dévié par le champs magnétique terrestre. Sauf lors des éruptions solaires qui créent des trous par lesquels s’engouffre le rayonnement cosmique.

On peut alors assister à des aurores boréales. » décrit Thierry Stolarczyk, chercheur au CEA Saclay et auteur du livre « D’où vient le rayonnement cosmique ? », paru aux éditions Le Pommier. Mais une fois dans l’espace,  les particules nous traversent et le dépôt d’énergie se fait dans notre corps. Heureusement, le rayonnement cosmique est constitué  principalement de protons, des particules qui ont la bonne idée de s’arrêter très vite dans la matière.

Alors que les astronautes peuvent évoluer sereinement dans l’ISS grâce à la protection du champ magnétique terrestre, si l’homme décide de s’aventurer au-delà, sur Mars par exemple, il va lui falloir des équipements capables de le protéger des rayonnements cosmiques s’il ne veut pas se faire irradier. 

D’après les travaux menés par des chercheurs de l’University of New Hampshire et du Southwest Research Institute, le plastique pourrait même être plus efficace que l’aluminium. Ces mesures, les premières effectuées en orbite, viennent confirmer d’autres mesures réalisées sur Terre concernant le bénéfice qu’il pourrait y avoir à se servir d’un matériau plastique dans l’espace. 

La NASA avait d’ailleurs mis au point le RXF1, un matériau à base de polyéthylène, comme bouclier recouvrant les zones sensibles des vaisseaux spatiaux.

Par Audrey Loubens, journaliste scientifique

Du bois dans une batterie ?

Assez loin de l’idée même de la batterie du futur, plus petite, plus performante et se rechargeant plus vite, une équipe universitaire américaine a fait une découverte tout à fait étonnante : du sodium et une très fine épaisseur de bois enrobée d’étain pourrait bien constituer une batterie de taille réduite, durable, efficace et surtout écologique. Pourtant, inutile de vous précipiter dans votre jardin ou dans un parc près de chez vous, le bois et l’étain composant cette batterie sont près d’un millier de fois plus fins qu’une feuille de papier.

Les scientifiques de l’université du Maryland souhaitent plutôt mettre en avant que l’utilisation du sodium en lieu et place de l’habituel lithium pourrait rendre leur batterie intéressante d’un strict point de vue écologique, bien que le sodium soit loin d’être aussi performant que ce dernier en termes de stockage. Les fibres de bois confèrent également de la souplesse à cette batterie, contrairement aux bases rigides et souvent cassantes que l’on peut souvent rencontrer, lui permettant de supporter plus de 400 cycles de charge, un fait d’arme intéressant pour une nanobatterie.

Liangbing Hu et son équipe ont eu le déclic, une fois de plus, en observant la nature : « les fibres de bois […] retenaient à l’origine de l’eau riche en minéraux, et sont donc idéales pour stocker les électrolytes liquides, ce qui fait d’elles non seulement la base de la batterie, mais également une part active de celle-ci. », raconte-t-il. Ils ont pu remarquer qu’après une centaine de cycles, le bois se lardait de petites rides qui permettraient de libérer une partie de la tension observée lorsqu’une batterie charge ou se décharge.

Les ions sodium ont pour mauvaise habitude d’affaiblir la connexion entre l’étain et la base, « mais les fibres du bois sont suffisamment souples pour faire office de tampon mécanique, […] et c’est là la clé de la durabilité de notre batterie. » explique-t-il encore.

Par Moonzur Rahman

La maquette numérique révolutionne l’architecture

Si en Angleterre, les marchés publics intégreront obligatoirement du BIM à partir de 2015, « moins de 1 % des cabinets d’architecture français font du BIM et moins de 30 % des agences travaillent à un moment ou à un autre en 3D », estime Thierry Parinaud, architecte et Vice-Président de MediaConstruct.

Jusqu’à aujourd’hui, les bureaux d’études récupéraient les plans 2D et ressaisissaient les données dans leur propre logiciel. Avec le BIM, ils auront juste à « injecter » la maquette dans leur logiciel et lancer les simulations. La maquette numérique est donc un outil collaboratif, commun aux cabinets d’architectes et aux bureaux d’études, qui dialogue entre tous les logiciels.

Chaque cœur de métier possède ses propres logiciels pour faire ses propres simulations de conception, de structures, d’acoustique, de thermique, de consommation énergétique et d’économie de la construction. Au fur et à mesure que les simulations donnent leurs résultats, la maquette est modifiée et est donc alimentée par l’ensemble des acteurs. Comme la maquette est utilisable tout au long du cycle de vie du bâtiment, des logiciels de gestion de patrimoine sont également applicables.

« La maquette numérique permet aux bureaux d’études techniques de travailler uniquement sur leur cœur de métier, sans perdre de temps pour ressaisir les données », insiste Valentin Besnas, chargé de développement chez A&S, prestataire de services auprès des architectes et urbanistes. 

Une maquette qui fournit toutes les données nécessaires

La maquette contient une bibliothèque qui donne toutes les caractéristiques de chaque élément qui la compose : dimensions, compositions, etc. Avec la maquette, les métriques sont précises, ce qui permet de diminuer les déchets lors du chantier. « Pourquoi donc commander 200 m2 de carrelage quand vous n’avez besoin que de 185 m2 ? » s’interroge, par exemple, l’architecte Lionel Blancard de Lery.

Quand la maquette est finie, il est possible d’extraire une visionneuse graphique qui sera lue sans logiciel spécifique. Cette visionneuse permet de visualiser et d’extraire l’intégralité des données du bâtiment en 2D et en 3D. « À la fin, on donne juste une maquette numérique au client ; celle-ci contient toutes les informations nécessaires sur l’ouvrage, la gestion, l’exploitation et la maintenance », précise Lionel Blancard de Lery.

Certes, la conception de la maquette prend un peu plus de temps qu’avec les plans traditionnels, mais elle simplifie considérablement tout le travail ultérieur. Utilisable sur l’ensemble du cycle de vie du bâtiment, elle constitue une base de données intelligente, dont il est très facile d’extraire des données ou faire des coupes dynamiques. Elle fournit tous les détails par zone, ainsi que les calculs et les tableaux de synthèse nécessaires. 

Comme une innovation ne vient généralement pas sans adaptation des tarifs, les honoraires des cabinets d’architecture qui utilisent le BIM sont en cours de révision. Ils estiment en effet que la surcharge de travail liée à la phase de conception et la simplification que cela apportera au gestionnaire du bâtiment doivent être rémunérées !

Par Matthieu Combe, journaliste scientifique

 

Découvrez notre offre de formation Construction :


Google prête ses lunettes aux médecins

Les veinards. Des chirurgiens américains et espagnols ont pu tester en avant-première les très attendues Google Glasses. Ces lunettes à réalité augmentée consistent en une caméra couplée à une paire de lunettes sans verre mais muni d’un petit écran juste au dessus de l’œil droit. L’emplacement a été choisi exprès pour ne pas limiter la vue du porteur. Les branches sont tactiles et un micro permet de commander les Google Glasses à la voix. Sur cet écran, une multitude d’informations peuvent être affichées, comme des contacts, des mails, un itinéraire…

Malgré un panel très large d’application, c’est uniquement le côté pratique de filmer tout en gardant ses mains libres qui a été mis en avant. Des chirurgiens équipés des lunettes du géant américain ont ainsi pu filmer des actes chirurgicaux et diffuser les images sur internet en direct. Une utilisation à visée strictement pédagogique, de quoi rendre le cours attractif !

Une première utilisation un peu frustrante quand on sait le potentiel d’un tel outil. Les chirurgiens notamment pourront visualiser en temps réel certaines constantes du patient, les militaires auront une carte affichée en permanence, ou encore des espions visualiseront leur cible.

Mais en plein scandale Prism, tout gadget connoté espionnage suscite la polémique, alors n’en dévoilons pas trop…

Par Audrey Loubens, jouranliste scientifique

La Terre pourrait avoir eu deux Lunes

En levant les yeux vers le ciel, nous pourrions voir deux astres lunaires au lieu d’un seul, si l’un des deux n’avait disparu. C’est du moins ce qu’affirme Erik Asphaug, un scientifique américain. Une théorie audacieuse car à l’encontre de la théorie standard qui veut que la Lune soit issue de la collision entre la Terre et Théia, un objet céleste de la taille de la planète Mars.

Pourtant, d’après le professeur de l’Université de Californie à Santa Cruz, deux lunes se seraient formées au même moment entre 30 et 130 millions d’années après le système solaire. Mais la plus petite, de taille équivalente à un tiers de l’autre, aurait percuté la plus grosse pour finalement former la lune que nous connaissons.

Il précise que les lunes « auraient orbité autour de la Terre à la même vitesse et à la même distance et auraient été lentement aspirés jusqu’à qu’elles se cognent et s’unissent ».

Notre lune serait en fait le résultat de la collision de deux lunes ? Erik Asphaug a avancé sa théorie lors d’une interview au Sunday Times, une façon pour lui de tâter le terrain peut-être…  Il aura l’occasion de défendre sa version de la genèse de notre satellite lors d’une conférence de la Royal Society consacrée la Lune à la rentrée prochaine.

Par Audrey Loubens, journaliste scientifique

Un français primé à NIweek 2013 !

Expert technique en analyse de défaillance électrique chez STMicroelectronics, Luc Saury (ci-dessous) développe des techniques avancées pour l’analyse des circuits intégrés de STM / ST-Ericsson. La solution qu’il a développée a reçu hier le prix des « Graphical Design System Achievement Awards » das la catégorie « Test automatisé ».

Editions Techniqes de l’Ingénieur : Expliquez le projet sur lequel vous travaillez et qui vous a amené à être nominé pour les Graphical Design System Achievement Awards de NIWEEK 2013 ?

Luc Saury : Je travaille sur un projet concernant l’analyse de défaillances. L’objectif est de localiser un défaut physique à l’origine d’un dysfonctionnement électrique sur un circuit intégré. Pour cela, nous utilisons une technique assez classique, la stimulation thermique laser.

Le principe consiste à balayer le circuit avec un faisceau laser, et à mesurer en chaque point du circuit la une variation de comportement électrique du circuit induite par l’échauffement local dû au laser.

Ce que nous avons apporté dans ce cadre là est la possibilité de mesurer un dysfonctionnement électrique complexe basé sur des défauts de type paramétrique. Au lieu d’avoir simplement des défauts de surconsommation ou de tension, on peut localiser des défauts beaucoup plus complexes comme par exemple des erreurs de linéarité sur un convertisseur numérique analogique, où un fort niveau de distorsion sur n’importe quel type de sortie analogique.

C’est dans ce cadre là que vous avez utilisé les outils National Instruments.

Luc Saury : Oui. On utilise une instrumentation NI, et le but est de faire un test électrique complet du circuit et d’exporter le résultat de test vers un équipement de localisation dans un temps très court, de l’ordre de 100 microsecondes. Aujourd’hui, seul le FPGA nous permet de réaliser cet objectif.

Nous avons besoin d’avoir ce temps court car le test est répété en chaque point du circuit. Au total, le test est donc exécuté un million de fois, ce qui permet d’obtenir une image de 1024×1024 pixels. Cela implique des contraintes de temps évidentes. Ainsi, si nous tenons ce temps de 100 microsecondes, on arrive à construire une image d’un mégapixel en deux minutes, là où les systèmes existant précédemment mettaient plusieurs heures à construire ces images.

Expliquez-nous à quel point le temps d’acquisition est vital pour la solution que vous développez.

Luc Saury : On veut mettre en évidence un défaut sur un transistor, dans un circuit intégré qui en comprend jusqu’à 40 millions, il faut donc être précis.

Il faut généralement faire un dizaine voire une vingtaine d’images dans différentes conditions pour obtenir une localisation précise du défaut. En partant de là, la vitesse d’acquisition de l’image  devient un facteur clé pour nous : disponibilité de l’équipement, stabilité du test : les risques de crash augmentent d’autant plus avec la durée du test.

Aujourd’hui, on parvient à faire une localisation complète sur un circuit en moins d’une heure.

Cela a également une influence sur les coûts induits, n’est-ce pas ?

Luc Saury : Oui. Les machines de type laser sont onéreuses, donc forcément un gain de temps sur la durée du test nous fait mécaniquement économiser de l’argent.

En analyse de défaillance, un des objectifs clé est le temps de cycle. Nous devons mener à bien une analyse complète en quelques jours, il est donc important d’aller vite dans toutes les étapes qui constituent l’analyse globale. La localisation n’est qu’une de ces étapes.

Il y a derrière la localisation tous les processus d’analyse physique qui vont être mis en œuvre. Nous avons également des contraintes de temps de cycle, particulièrement agressives, dans le cadre de demandes client, qui peuvent exiger des résultats sous 48 heures.

Que représente l’Achievement Award reçu hier des mains de Docteur T ?

Luc Saury : Il est important à titre personnel dans le cadre de mon nouveau statut d’expert au sein de la compagnie. Cela va me permettre d’envisager d’autres déplacements au niveau international sur des événements de type NIWEEK.

Aussi, ce prix compte puisqu’il montre que la méthode que nous avons mise en place a été validée par des experts reconnus du domaine de l’instrumentation. Nous avons des assurances sur sa fiabilité et sa robustesse. Le processus qui va s’engager maintenant est le déploiement de cette nouvelle solution au sein des laboratoires de la compagnie.

Vous avez visité l’exposition et pu voir les démonstrations proposées lors de cette édition de NIWEEK. Est-ce que cela a été profitable pour vous ?

Luc Saury : Oui tout à fait. Une des problématiques que l’on se pose aujourd’hui avec notre solution actuelle est de savoir comment traiter un signal radiofréquence très rapide. Je n’étais pas sûr avant de venir ici d’être capable de le faire avec l’instrumentation que j’avais choisie.

J’ai vu en parcourant l’exposition une démonstration qui montre que c’est faisable. En insérant un module RF en entrée du dispositif, on peut ensuite faire communiquer le dispositif RF et le FPAG pour faire le traitement dans le FPGA et l’acquisition dans la partie RF.

J’ai donc été rassuré, au niveau de la possibilité d’analyse de signaux rapides dans le cas où le délai de défaillance électrique concerne un signal radiofréquence.

Propos recueillis par Pierre Thouverez