USA: la voile solaire de Planetary Society s’est déployée avec succès

Ce succès, selon les organisateurs, ouvre la voie à une nouvelle expérience plus ambitieuse en 2016: le vol d’un engin propulsé uniquement par les vents solaires.

L’objectif de cette mission est de créer des voiles pouvant être poussées à travers l’espace par les rayonnements solaires, une façon économique mais lente de voyager dans l’espace.

« L’image de la caméra confirme que la voile s’est déployée, ce qui était la dernière étape de cette mission destinée à préparer le vol d’un engin propulsé par une voile solaire en 2016 », précise Jason Davis sur le site de la Planetary Society, co-fondée par le célèbre astronome Carl Sagan en 1980.

Financé par des membres de cette association, ce projet d’un coût de 4,3 millions de dollars a permis de tester des logiciels, des systèmes mécaniques et des équipements de communications ainsi qu’un matériau pour la voile, qui seront utilisés pour la propulsion de l’engin spatial.

La voile objet de ce test est formée de quatre panneaux dont la superficie totale est de 32 mètres. Epaisse de seulement 4,5 microns, elle est formée de plusieurs couches de Mylar, un polymère fin et très léger, qui réfléchit la lumière.

Des engins spatiaux propulsés par des voiles solaires pourraient être utilisés pour suivre des astéroïdes et des comètes ou faire des observations des tempêtes solaires, selon les astronomes.

Lightsail a été lancée le 20 mai à bord d’une fusée Atlas 5 depuis Cap Canaveral en Floride, qui transportait aussi l’avion spatial de l’US Air Force, un programme ultra secret.

Un dysfonctionnement du logiciel avait entraîné une perte de contact avec le satellite mais les communications ont pu être rétablies le 31 mai avant de retomber en panne pendant plusieurs jours. Une fois un problème de batterie réparé, la Planetary Society a pu transmettre la commande de déploiement de la voile, qui a été confirmée mercredi par les images d’une caméra.

LighSail, dont l’orbite se réduit graduellement, devrait retomber dans l’atmosphère ce week-end où elle sera détruite.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Les abeilles tombent en masse, mais pourquoi ?

Aux États-Unis, un rapport rédigé par l’organisme Bee Informed Partnership a fait état d’une situation accablante : entre avril 2014 et avril 2015, 42% des colonies présentes là-bas sont mortes, laissant bon nombre de ruches vides. La chose est d’autant plus grave qu’elle n’est pas nouvelle et que, comme chaque année depuis 2006, ces pertes sans précédent sont jugées trop importantes pour être récupérées. 

 

En cause, le syndrome d’effondrement des colonies d’abeilles, ce « phénomène inexpliqué de mortalité anormale et récurrente des colonies d’abeilles domestiques » un peu partout dans le monde. On ne l’explique pas tout à fait, mais il pourrait être l’effet combiné de maladies, de la pollution (de la terre et de l’air), des pesticides (particulièrement les néonicotinoïdes qui auraient pour effet de désorienter les abeilles), des parasites (comme l’acarien Varroa Destructor), des variations climatiques, des mites tueuses se nourrissant des foetus d’abeille… La mite asiatique serait particulièrement meurtrière. Ce qui commence à faire beaucoup d’ennemis pour ces pollinisateurs fragiles.

 

La disparition subite et somme toute brutale des abeilles sauvages – il n’en reste plus que 20 000 dans le monde et 1 000 en France si les chiffres sont encore justes – a de quoi inquiéter. Différents états ont décidé de mettre en place des actions pour endiguer ce phénomène mais tous n’optent pas pour les mêmes réglementations. Ainsi, les États-Unis utilisent encore trois grandes classes de pesticides néonicotinoïdes alors que l’Europe les a interdits. En France, la ministre de l’écologie Ségolène Royal a présenté récemment en conseil des ministres un plan national nommé « France, terre de pollinisateurs » qui prévoit entre autres mesures l’installation de 5 000 « gîtes » à insectes, sur les bords de routes notamment, de promouvoir les bonnes pratiques, de faucher tardivement les 12 000 kilomètres du réseau routier appartenant encore à l’état, de retrouver une biodiversité suffisante pour permettre aux abeilles de se nourrir convenablement et garder de bonnes défenses immunitaires…

 

Qu’arriverait-il si l’abeille venait à disparaître complètement ? « L’homme n’aurait-il plus que quatre années à vivre ? ». À cette fameuse question que l’on attribue semble-t-il injustement à Einstein, point de réponse sûre, mais il est admis que le danger encouru est grand tant les abeilles jouent un rôle capital. Entre 70 et 80 % des plantes à fleurs seraient pollinisées par cet insecte. La quantité et la qualité des fruits produits en découlent également. La fin du monde évoquée ici et là paraît donc bien exagérée. En revanche, leur disparition induirait clairement de gros changements dans notre consommation et donc notre mode de vie ainsi que sur le coût de certains produits alimentaires. Enfin, si les intérêts sont avant tout écologiques, il ne faut pourtant pas oublier la dimension économique qui rentre indéniablement en jeu. L’INRA a estimé la valeur économique de la pollinisation des abeilles, dans le monde, à 153 milliards d’euros. De fait, leur disparition vertigineuse implique un manque a gagner non négligeable.

 

Par Sébastien Tribot

Objets connectés : à quoi ressemblera le futur ?

Un bracelet, un frigo, une télévision, une voiture, des interrupteurs, une balance, des lampadaires, des poubelles, des feux rouges connectés… tous ces objets, autrefois creux, inertes, et désormais « intelligents » gardent encore un petit côté “gadget”.

Mais selon France Stratégie, ces appareils “communicants”, qui constituent ensemble “l’Internet des objets” (IdO ou IoT), et qui rendent votre maison ou votre ville intelligente, pourraient être au nombre de 80 milliards, dans le monde, en 2020, contre 15 milliards actuellement.

Rien qu’en France, selon Cisco, le nombre des objets connectés devrait passer de 3,1 millions en 2014, à 16,7 millions en 2019. “Il y a un écosystème très actif ici, avec des objets conçus dans le cadre de la “French Tech”, qu’il s’agisse de drones ou de balances connectées, voire de voitures intelligentes”, indique Lionel Janin, expert de l’IdO chez France Stratégie. Ainsi, des entreprises comme Netatmo, Parrot, Withings, ou Sigfox, ont déjà acquis une réputation internationale.

Selon l’expert de cette institution (aussi appelée Commissariat général à la stratégie et à la prospective) rattachée au Premier ministre, les voitures, “auront en interne de plus en plus de capteurs, pour renseigner sur l’état de la voiture, pour détecter l’environnement du véhicule, ou pour interagir avec le réseau”, les rendant “autonomes”, à l’instar des Google Cars (voitures sans conducteurs).

Ainsi, nos véhicules sont-ils de plus en plus connectés, et selon ABI Research, 60% des véhicules à travers le monde seront connectés à Internet en 2017, ce nombre devant augmenter de 11 % chaque année.

Villes intelligentes et objets de mesure

France Stratégie liste dans sa dernière étude, les applications de l’IdO. D’abord, dans l’espace public, avec des villes intelligentes (smart cities). Ainsi, “Plusieurs villes (Songdo en Corée du Sud ; I-City en Malaisie) déploient des technologies de l’Internet des objets pour répondre aux défis énergétiques et d’aménagement urbain.

Dans ces villes, l’éclairage, le trafic, la collecte des déchets, la qualité de l’air, la distribution des fluides sont analysés et optimisés en permanence”, écrit l’organisme. Et d’ajouter que “la gestion des services publics se conçoit de manière plus prédictive et automatisée”, et qu’ainsi, “les transports deviennent plus fluides, l’éclairage urbain optimisé et l’exposition à la pollution moindre.”

Mehdi Chouiten, data scientist chez Parkeon, une société qui conçoit des horodateurs connectés permettant de prédire l’emplacement de stationnement le plus proche qui “sera bientôt libre”, grâce à l’apprentissage automatique et à l’analyse de données, indique : “au delà, l’IdO devrait chambouler nos vies, dans d’autres secteurs comme celui de la santé, avec les bracelets, les podomètres ou les montres connectées, qui intéressent déjà les compagnies d’assurance, car elles permettront de mieux connaître nos habitudes et notre état de santé”.

Pour Lionel Janin, “il y a un effet de mode autour de ces objets, mais à terme, ils devraient faire comme le smartphone, en devenant indispensables”. En croisant les données, ces appareils de mesure finiront par en dire long sur nous. “Enormément de données sont captées au plus près de l’individu via l’IdO, et ces données devraient chambouler nos vies, de nos déplacements à notre santé”, remarque Lionel Janin.

“Donner à l’utilisateur un contrôle sur ses données”

Nombre de plateformes de services, comme Google Fit et Apple HealthKit, sont intéressées par la possibilité de monétiser ces données de santé et de bien-être, d’une grande valeur, et tentent à l’heure actuelle de les agréger pour les revendre à des publicitaires, à des chercheurs, voire à des laboratoires pharmaceutiques. “Ces services sont capables d’avoir une connaissance très fine des utilisateurs : en ayant accès à la courbe de pas, de poids, et aux activités sportives de l’individu sur plusieurs mois ou années, cela permet de connaître son mode de vie et son état de santé potentiel, actuel ou futur”, note Olivier Desbiey, chargé d’études prospectives à la CNIL.

Ainsi, l’Internet des Objets pose-t-il la question des risques liées à la circulation et à l’échange des données brassées. “Accumulées, ces nombreuses données anonymes permettent de vous identifier. C’est une question qui doit être prise en compte, pour que ce secteur se développe, car si les gens n’ont pas suffisamment confiance ds le contrôle qu’ils ont sur ces objets, peut être ne les adopteront-ils pas”, note Lionel Janin.

L’expert ajoute que “ce qui va jouer dans les années à venir, c’est la capacité des fabricants à donner aux utilisateurs un droit de regard et un contrôle sur leurs données.” Pour “accompagner la confiance du citoyen, des adaptations sont nécessaires”, conclut-il, incitant notamment les collectivités territoriales à “prendre des initiatives, notamment autour des données ouvertes”.

“Dépasser le développement en silo”

Ainsi, les pouvoirs publics ont-ils tout intérêt à développer dans l’avenir des “plateformes ouvertes”, où seraient “rassemblées et partagées les applications développées, et respectant des standards de protection des données personnelles”, explique l’étude de France Stratégie.

Conclusion de l’organisme : “les moyens financiers mis en oeuvre aux États-Unis ou en Chine sont considérables. De nombreuses actions ont déjà été engagées en France (plan “objets connectés”, pôles de compétitivité, meilleur accès des startups au financement, promotion du label FrenchTech), mais ces différentes actions doivent être amplifiées et coordonnées, pour dépasser les logiques de développement en silo”.

Objectif final : “assurer le développement d’un IdO ouvert, interopérable et répondant aux besoins en matière de protection des données personnelles et de sécurité.” En 2020, selon le cabinet IDC, l’Internet des objets (IdO ou IoT) devrait peser 1700 milliards de dollars. Soit une croissance annuelle moyenne de 16,9 %. En 2014, ce marché devrait représenter 655,8 milliards de dollars.

Par Fabien Soyez

Et aussi dans les ressources documentaires :

Le Prix de l’inventeur européen met à l’honneur des technologies innovantes

Un tandem franco-autrichien, une chercheuse néerlandaise, un chercheur français ainsi qu’une équipe japonaise et un scientifique suisse ont été distingués pour des travaux ayant « contribué au progrès technologique et social, ainsi qu’à la croissance économique ».

Les inventions primées ont fait l’objet d’un dépôt de brevet auprès de l’OEB, qui décerne depuis dix ans ce prix européen de la recherche et de l’innovation.

« Les brevets facilitent l’innovation, et l’innovation est le moteur de la compétitivité, du développement économique et, in fine, de la création d’emplois », a déclaré à l’AFP le président de l’OEB, Benoît Battistelli.

Mais c’est aussi « une source de solutions pour les grands problèmes sociaux auxquels nous sommes confrontés », a-t-il ajouté, en citant la santé, le changement climatique et l’environnement.

Le Prix de l’inventeur européen souhaite apporter de la visibilité à « des hommes et des femmes qui ont eu des idées, qui ont su les transformer en inventions et à partir de ces inventions, créer des activités, des solutions concrètes », a expliqué M. Battistelli

Plus de 400 dossiers ont été reçus cette année par l’OEB qui en avait présélectionné 15 pour les 5 différentes catégories.

Chercheur au CNRS, Ludwik Leibler, s’est imposé dans la catégorie « Recherche » pour l’invention du « vitrimère », un matériau façonnable à volonté, présenté comme révolutionnaire qui combine « la solidité de plastiques thermoformés à la malléabilité du verre chauffé » et qui « a suscité l’intérêt de nombreux secteurs », selon l’OEB.

Dans la catégorie « Industrie », le Français Philippe Maugars et l’Autrichien Franz Amtmann et leur équipe de la société néerlandaise NXP Semiconductors ont été récompensés pour leur contribution au développement de la « communication en champ proche » (Near Field Communication, NFC). Cette technologie permet le transfert de données entre deux unités mobiles.

La Néerlandaise Laura van’t Veer a été distinguée dans la catégorie « PME » pour un test génétique des tissus qui permet aux femmes atteintes d’un cancer du sein en stade précoce, d’obtenir un diagnostic fiable sur le risque de rechute ou les chances de guérison sans chimiothérapie. Plus de 40.000 femmes en ont déjà bénéficié.

Au titre des « Pays non européens », le Prix a été décerné aux Japonais Sumio Ijima, Akira Koshio et Masako Yudasaka pour le développement des nanotubes, une technologie qui rend les ordinateurs plus rapides et les pièces de l’aéronautique plus solides. Les nanotubes en carbone présentent un important potentiel industriel, selon l’OEB.

Le chercheur suisse Andres Manz, qui a inventé de « laboratoire sur puce », un procédé permettant de réaliser des « travaux de laboratoire en miniature avec des résultats en quelques secondes » a été couronné au titre de la catégorie « Oeuvre d’une vie ».

Enfin, l’Australien Ian Frazer et son collègue chinois Jian Zhou, décédé en 1999, ont remporté le Prix « populaire », pour le développement du premier vaccin contre le cancer du col de l’utérus. Ce prix, créé il y a 3 ans, est décerné par les internautes et a réuni cette année 47.000 votants, deux fois plus que l’an dernier.

« Chaque année, nous essayons d’accroître la visibilité » du Prix de l’inventeur européen et « si je force un peu les choses, je dirais que notre objectif ce serait d’être le Nobel de l’innovation », a ajouté Benoît Battistelli.

sbo/fpo/jag

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Pourquoi l’atmosphère du Soleil est beaucoup plus chaude que sa surface

Une couche située sous la surface du Soleil, qui se comporte comme une casserole en ébullition, créerait un champ magnétique à petite échelle comme réserve d’énergie qui, une fois sorti de l’étoile, chaufferait les couches successives de l’atmosphère solaire via des réseaux de racines et de branches magnétiques1, telle une mangrove. Ce chauffage de l’atmosphère, impliqué dans la création du vent solaire qui remplit l’héliosphère, concernerait de nombreuses autres étoiles. Ce résultat parait dans la revue Nature du 11 juin 2015.

La température du Soleil, qui atteint environ 15 millions de degrés en son cœur, décroit progressivement pour chuter à 6000 degrés à sa « surface ». Elle devrait alors logiquement continuer à décroitre dans l’atmosphère. Pourtant, elle atteint environ 10 000 degrés dans la chromosphère et plus d’un million de degrés  dans la couronne. Quelle est la source d’énergie capable de fournir et de maintenir l’atmosphère à  de telles températures ? Une question qui représente un des grands problèmes de l’astrophysique depuis environ un siècle, d’autant plus importante qu’elle est associée à la source du vent solaire qui parvient jusqu’à  la Terre. 

S’il paraissait acquis qu’une partie de l’énergie de l’intérieur du Soleil parvenait à atteindre ces couches externes, le mécanisme restait mystérieux. Ces chercheurs se sont concentrés sur  le champ magnétique à  petite échelle, d’aspect  « poivre et sel » en dehors des taches.

Des modèles numériques performants et les calculateurs du Centre de physique théorique (CNRS/École polytechnique) et de l’Idris du CNRS ont permis d’effectuer une simulation pendant quelques heures à partir d’un modèle constitué de plusieurs couches, l’une interne et les autres atmosphériques. Les chercheurs ont  alors constaté que la fine couche sous la surface du Soleil se comporte en fait comme une « casserole » de petite épaisseur contenant un plasma2 en ébullition, chauffée par le bas et formant des « bulles » associées à  des granules. Ce potage de plasma en ébullition est alors responsable d’un phénomène  dynamo qui amplifie et maintient le champ magnétique : ce dernier, en sortant vers la surface, prend une apparence poivre et sel et forme des concentrations moins nombreuses, de plus grosse taille, de durée de vie plus longue et baptisées « méso-taches » solaires, le tout concordant avec les observations.

Les scientifiques ont également découvert qu’une organisation semblable à une mangrove apparait autour des méso-taches solaires : des « racines chromosphériques » enchevêtrées plongent entre les granules, entourant des « troncs d’arbres magnétiques » qui s’élèvent dans la couronne  et sont associés au champ magnétique à plus grande échelle.

Leurs calculs ont montré que, dans la chromosphère, le chauffage de l’atmosphère est assuré par de multiples micro-éruptions survenant dans les racines de la mangrove porteuses de courant électriques très importants,  au rythme des « bulles » issues du plasma en ébullition. Ils ont également découvert que des évènements éruptifs plus importants et moins nombreux existent au voisinage des méso-taches mais ne permettent pas de chauffer la couronne plus haute et à  plus grande échelle.

Cette dynamique éruptive engendre alors des ondes « magnétiques » le long des troncs  un peu comme un son sur une corde pincée, en se propageant le long de celle-ci. Ces ondes transportent alors l’énergie vers la couronne plus haute et leur dissipation progressive chauffe celle-ci. Leurs calculs montrent aussi qu’en retombant vers la surface, la matière éjectée  forme des tornades, elles-mêmes observées. Des  jets de plasma fins, proches de ces arbres, sont également produits et représentent les spicules3 découverts récemment. Autant de phénomènes, observés jusqu’ici individuellement et non expliqués, qui sont divers canaux d’énergie issus du plasma bouillonnant, et non la source unique invoquée.

Les chercheurs ont constaté que le flux d’énergie de leurs mécanismes correspond  à celui requis  par  toutes les études pour maintenir le plasma de l’atmosphère solaire à sa température : 4 500 W/m2 dans la chromosphère et 300 W/m2 dans la couronne.

 

© Tahar Amari / Centre de physique théorique et S. Habbal / M. Druckmüller.
La surface solaire et son champ magnétique majoritairement « poivre et sel », en dehors des régions des grandes taches solaires, à partir des données du satellite SDO de la NASA

© Tahar Amari / Centre de physique théorique.
Modèle complet illustrant la fine casserole de plasma en ébullition, proche de la surface solaire, responsable de la génération du champ magnétique poivre et sel en surface (bleu-rouge), qui en émergeant crée toute une « végétation » rappelant une mangrove, et permettant le chauffage des divers couches de l’atmosphère solaire.
 
 
© Tahar Amari / Centre de physique théorique
Zoom sur une petite portion de la surface du Soleil modélisée et illustrant la température des cellules de granulation obtenue à la surface de la fine casserole de plasma en ébullition (chaud/clair au centre des cellules et froid/sombre au bord) située sous la surface du soleil et responsable de la création du champ magnétique de petite échelle en surface.
 
Source : CNRS

 

Et aussi dans les
ressources documentaires :

Forte présence de substances chimiques dans l’air des logements

Ces substances chimiques, appelées composés organiques semi-volatils, sont suspectées d’avoir des effets sur les systèmes nerveux, immunitaire et hormonal, mais les travaux pour établir les niveaux de concentration qui seraient toxiques sont toujours en cours.

La campagne de mesures menée « apporte des premiers éléments utiles pour évaluer les risques sanitaires potentiels liés à ces substances », selon l’OQAI, qui indique que ces composés sont « omniprésents » avec « des concentrations très variables selon les substances ».

Les composés organiques semi-volatils sont issus d’objets contenant des plastiques (revêtements de sol, ordinateurs, câbles, meubles, textiles, etc.), de produits d’entretien (lessive, détergents) et cosmétiques (parfums, hygiène corporelle), d’insecticides (traitement des plantes, anti-parasitaires pour les animaux) ou encore de résidus de combustion (tabac, encens, chauffage au bois).

Dans les poussières au sol, 32 composés sur 48 substances recherchées ont été détectés dans plus d’un logement sur deux (67%).

Dans l’air, 35 des 66 substances recherchées étaient présentes dans plus d’un logement sur deux (53%).

« Certains de ces composés organiques semi-volatils, notamment les phtalates (plastiques souples) et les hydrocarbures aromatiques polycycliques (résidus de combustion), sont détectés dans quasiment tous les logements, à la fois dans l’air et dans les poussières », précise l’OQAI.

Si l’ensemble de la population est confrontée à ces substances chimiques, également présentes dans les bureaux et les lieux publics, « les jeunes enfants, qui portent fréquemment leurs mains à la bouche, y sont particulièrement exposés », souligne l’OQAI.

D’ailleurs l’Observatoire conduit actuellement une campagne de mesures similaires dans les écoles.

L’Agence nationale de sécurité sanitaire (Anses) travaille de son côté à l’établissement d’une liste des composés les plus nocifs.

Face à ces concentrations potentiellement dangereuses de substances chimiques dans les logements, les professionnels de santé rappellent qu’il est essentiel d’aérer quotidiennement pour renouveler l’air.

L’aération des logements, mais aussi des bureaux ou de tout lieu fermé, est d’autant plus essentielle qu’une majorité de la population passe l’essentiel de son temps à l’intérieur.

Selon l’OQAI, des travaux spécifiques sont en cours sur les relations entre les concentrations de substances chimiques dans les logements et le taux de renouvellement de l’air, ainsi que les caractéristiques des constructions, les habitudes des occupants ou les niveaux socio-économiques des ménages.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Futur en Seine 2015 : la foire à l’innovation

Pour son sixième anniversaire, le festival du numérique Futur en Seine s’apprête à réinvestir le quartier parisien des Arts et Métiers (un symbole qui ne doit rien au hasard), pour y implanter son désormais célèbre et très couru « Village des Innovations », un salon où seront exposés près de 150 innovations numériques françaises et internationales, ainsi que de nombreux projets et prototypes, alliant le plus souvent technologies, services et design. Le festival, dont l’ambition avouée est de « montrer qu’il existe véritablement une économie innovante active et ancrée dans la réalité avec des applications au service de chacun », a su s’imposer d’année en année comme un événement absolument incontournable pour les professionnels du numérique, comme pour le grand public.

Quittant pour la seconde fois la nef douillette du CENTQUATRE, c’est le CNAM (Conservatoire National des Arts et Métiers, seul établissement d’enseignement supérieur français entièrement dédié à la formation des adultes), le musée des Arts et Métiers et la très hype Gaîté-Lyrique qui reprennent cette année encore le flambeau en accueillant du 11 au 14 juin, ce fameux Village des Innovations. Les projets exposés seront répartis selon neuf thématiques : villes ingénieuses, santé connectée, maison autonome, savoirs partagés, nouveau tourisme, commerce augmenté, expériences immersives, outils créatifs et quotidien responsable.

Les jeux vidéos seront également à l’honneur, avec la présentation à la Gaîté-Lyrique du Cnam-Enjmin, première école du jeu vidéo dans l’hexagone.

Petit tour d’horizon – non exhaustif – des forces en présence dans ce véritable « village ».

Mother, la domotique ludique (CNAM)

Nouveau joujou du père de Nabaztag (le fameux lapin connecté), la « Sen.se Mother » permet de vivre la vie connectée que l’on désire, aidée dans sa mission par la ribambelle de « Motion cookies », un jeu de quatre petits capteurs polyvalents et paramétrables. Que l’on désire se concentrer sur la santé, le confort ou encore la sécurité du foyer, la « Sen.se Mother » peut constituer un appui non négligeable, et un premier pas ludique dans l’univers de la domotique, pour 290 euros.

Petits bémols néanmoins : le protocole propriétaire, le prix des quatre cookies supplémentaires (155 euros) ainsi que l’échec de Nabaztag, pourront en refroidir quelques uns.

Deepki, moteur d’audits énergétiques virtuels (CNAM)

Deepki est un moteur d’audits énergétiques virtuels permettant de valoriser les informations déjà à disposition (données patrimoniales, énergétiques et d’activité existantes des parcs de bâtiments) afin de piloter une transition énergétique en douceur sur les grands parcs immobiliers. Les gestionnaires de ces grands parcs doivent en effet faire face à un casse-tête : la difficulté de mener à bien un projet d’efficacité énergétique sur un vaste ensemble de bâtiments existants, avec l’obligation de réaliser un audit énergétique.

Deepki propose une solution à distance et à moindre coût, grâce à ses algorithmes de consolidation des données (« Data-Integration »), ses algorithmes purement statistiques (« Data-Analytics »), son système expert et prédictif (« Predictive Engine ») qui viennent puiser, allègrement, dans le Big Data. Le modèle de ce moteur d’audits n’est pour le moment pertinent qu’au sein de l’Union Européenne.

« Bike assistant », le tableau de bord idéal (CNAM)

Le projet Asphalt Lab se propose de servir d’intermédiaire intelligent entre le cycliste et son smartphone : avoir un accès aisé à ses données de course (vitesse, distance, durée du trajet), conserver Google Maps à portée de main, ainsi que les fonctionnalités primaires d’un téléphone (SMS et appels, si l’on ne désire pas débrancher). Le « Bike Assistant » permet d’utiliser son smartphone à la carte, et pourrait bien s’inscrire dans une tendance lourde chez les trentenaires citadins : profiter de la technologie, sans qu’elle n’en devienne envahissante pour autant.

Simple et intuitive, la navigation au pouce permet de jongler sans douleur entre les informations, mais uniquement en cas de besoin. Les concepteurs (Grégoire Lanaud, Frédéric Martin et Raphaël Chabaud) l’ont voulu facile à clipser grâce à son support magnétique, mais également non intrusive et assez peu énergivore puisqu’il s’appuie sur la technique de transmission « Bluetooth Low Energy », consommant dix fois moins tout en offrant un débit équivalent au Bluetooth standard.

Busit, la plate-forme d’interconnexion domotique (Gaîté-Lyrique)

Faciliter la communication entre nos objets connectés, certains services Internet et des applications Web : telle est la mission de la plate-forme Busit, qui offre la possibilité d’élaborer des scénarios domestiques en utilisant de manière optimale les objets connectés et les services associés existants, afin d’être accompagné de manière idoine tout au long de sa journée, simplifiant ainsi notre quotidien. Les informations circulant sur cette plate-forme d’interconnexion sont protégées – elles sont chiffrées, mais également signées par une clé spécifique à chaque utilisation.

Biobots : imprimer en 3D avec des cellules vivantes

Présentée comme étant le futur de la médecine régénérative, Biobots est une « bio-imprimante » 3D capable de réaliser des tissus vivants fonctionnels et à l’envi. L’encre utilisée par Biobots peut contenir n’importe quel type de bio-matériaux, avec en tête des cellules vivantes, et permettrait de créer de toute pièce des échantillons tissulaires. Ces échantillons pourraient servir, dans un premier temps, de matière première idéale destinée aux tests cliniques habituellement réalisés sur des animaux. A partir des cellules appartenant à un individu particulier, des tests spécifiques de tolérance pourront également être conduits, afin de mettre en place un traitement personnalisé sans faire courir le moindre risque au patient.

Bionic bird, le drone marseillais plébiscité (CNAM)

Dernier de cette petite liste, la superstar des drones biomimétiques tricolores, le Bionic Bird. Digne héritier d’une famille à qui l’on doit déjà le fameux Tim Bird (succès des années 60… à nos jours, où il continue à bien se vendre en Chine), l’ingénieur marseillais Edwin Van Ruymbeke a conçu ce drone ultra-léger capable de voler à près de 20 kilomètres heure. Pilotable à l’aide d’un smartphone (après avoir téléchargé l’application dédiée) de manière très intuitive, il suffit d’incliner le téléphone à droite ou à gauche pour voir le petit bolide de 9,3 grammes emprunter cette même direction, avec une portée d’une centaine de mètres. Silencieux, il dispose d’une autonomie relativement faible (à peine 8 minutes…), mais peut se recharger en seulement 12 minutes, une fois posé sur son chargeur nomade en forme… d’œuf, évidemment.

  • Petit clin d’œil : le vol du Bionic Bird semble suffisamment réaliste pour aller jusqu’à leurrer un oiseau de proie, qui décide de le prendre en chasse.

Le Village des Innovations, du 11 au 14 juin au CNAM, au Musée des Arts et Métiers et à la Gaîté-Lyrique, dans le cadre du festival Futur en Seine.

Par Moonzur Rahman

Et aussi dans les
ressources documentaires :

Curiosity : réparations à (très grande) distance des instruments ChemCam et SAM

L’instrument ChemCam récupère sa fonction de mise au point rapide. Il y a six mois, les équipes en charge des opérations impliquant le JPL et le LANL  mais aussi les équipes françaises du CNES, du CNRS et des universités UPMC et Paris-Sud (3), s’étaient retrouvées confrontées à la défaillance d’un composant. Elles avaient alors dû se résoudre à basculer temporairement d’un mode de mise au point automatique à un mode manuel beaucoup plus lent, afin de poursuivre les analyses avec ChemCam. Mais en parallèle, elles s’employaient à développer une solution plus satisfaisante qui vient d’être installée à bord avec succès. Il s’agissait de réécrire intégralement le système d’exploitation de l’instrument afin d’utiliser les images prises par ChemCam pour déterminer automatiquement la mise au point pour la focalisation du laser. Le 5 mai dernier, le nouveau code a été chargé à 350 millions de kilomètres de la Terre. Le 11 mai, l’analyse des premières données a révélé que la réparation était un remarquable succès ; l’instrument ChemCam est redevenu pleinement opérationnel, comme au premier jour. Il totalise déjà près de 250 000 tirs laser sur la planète rouge. 

L’instrument SAM a lui aussi connu quelques mésaventures en ce début d’année, en raison de la répétition des analyses et du vieillissement naturel de ses composants. La colonne de chromatographie numéro 5, la plus utilisée à la surface de Mars (27 analyses), a vu son débit de gaz anormalement changer, menant à la perte partielle de données d’une analyse de sol de Mars. Les scientifiques et ingénieurs de l’équipe française de SAM, en collaboration avec le centre GSFC de la NASA, ont déployé leur savoir-faire pour préparer des séquences de diagnostic et de résolution d’anomalie, et les mettre en œuvre sur Mars avec succès. Les données reçues de Curiosity le 11 mai dernier montrent que l’expérience SAM est à nouveau pleinement opérationnelle. 

Pendant ce temps, l’exploration scientifique du site d’atterrissage de Curiosity a continué. Le rover a passé huit mois dans la région de Parhump Hills qui marque la transition entre les plaines du cratère dans lequel il s’est posé et les contreforts du Mont Sharp, sa destination finale. Cette région révèle également des preuves d’activités aqueuses passées, mais dans des conditions environnementales différentes que ce que le rover avait vues jusque-là. La composition des roches suggère en effet une chimie plus acide: ainsi ChemCam et SAM, avec les autres instruments de Curiosity, continuent d’établir le catalogue de la diversité des sédiments qui forment ces roches. Curiosity vient de reprendre sa route vers les strates du Mont Sharp à travers une série de canyons qui exposent des affleurements intéressants. Il a maintenant parcouru plus de 10 km à la surface de Mars. Une pause forcée de trois semaines a débuté le 7 juin car Mars se situe de l’autre côté du Soleil, empêchant toute communication avec la Terre. 

Source : CNRS

Et aussi dans les
ressources documentaires :

Areva demande une négociation « équitable » avec EDF

Le dirigeant a fixé « trois conditions au succès » de la reprise par EDF de la majorité de la division réacteurs d’Areva, baptisée Areva NP, lors de son audition devant la commission des Affaires économiques de l’Assemblée nationale.

« Une négociation équitable avec EDF sur la valorisation d’Areva NP, une négociation équitable sur les contrats concernant les activités de retraitement et de conversion (et) des solutions à trouver sur le partage du risque du chantier finlandais, épée de Damoclès qui pèse depuis 2003 sur le groupe et qui compromet tout scénario d’avenir », a-t-il détaillé.

Sur ce dernier point, il fait référence aux déboires subis par le chantier d’Olkiluoto 3, dont Areva et son client finlandais TVO se rejettent la responsabilité. Cet EPR devrait entrer en service en 2018, avec neuf ans de retard sur le calendrier initial. L’ardoise totale provisionnée pour pertes liées au chantier par Areva s’élève à 3,9 milliards d’euros, soit plus que le prix du réacteur, vendu 3 milliards en décembre 2003, et explique en partie la perte nette record de près de 5 milliards d’euros enregistrée l’an dernier par le spécialiste du nucléaire.

« Il est normal qu’il y ait des points de vue différents », a-t-il répondu au député écologiste Denis Baupin, qui l’interrogeait sur l’écart entre la valorisation d’Areva NP (la division réacteurs du groupe) estimée par EDF et par Areva (environ 2 milliards et environ 3,5 milliards respectivement), selon des informations de presse.

Un comité ad hoc a été formé chez Areva « pour apprécier ce qu’est la valeur acceptable pour Areva », a ajouté M. Varin.

Le gouvernement a tranché il y a une semaine en faveur d’une reprise par EDF de la majorité du capital d’Areva NP, donnant un mois aux deux groupes pour négocier les détails de la transaction et conclure un partenariat stratégique.

Compte tenu de la complexité de l’intégration à venir et du fait que le dossier sera examiné par la Commission européenne, « il faut anticiper un +closing+ (une finalisation, ndlr) de l’opération plutôt dans la seconde moitié de 2016 », a souligné le dirigeant.

Il a indiqué qu’il aurait préféré limiter le rôle d’EDF à une prise de participation minoritaire dans Areva NP.

M. Varin a par ailleurs confirmé que les besoins de financement d’Areva pour les prochaines années atteignaient 6 milliards à 7 milliards d’euros.

« Les montants évoqués dans la presse ne sont pas très éloignés de la réalité », a-t-il déclaré.

Il a également laissé entendre que le « nouvel Areva » devrait céder ses actifs dans les énergies renouvelables, après son plan d’économies d’un milliard d’euros d’ici à 2017 qui devrait se traduire par la suppression de 6.000 postes, dont 3.000 à 4.000 en France.

« Restera dans le périmètre l’ensemble des activité du cycle (du combustible) et une participation minoritaire dans Areva NP », a-t-il déclaré, rappelant que le groupe confirmerait fin juillet, lors de la présentation de ses résultats semestriels, « les quelques actifs périphériques qui vont être cédés ».

Il a aussi défendu le réacteur nucléaire de troisième génération EPR, affirmant n’avoir « pas de doute » sur les besoins dans le monde pour un tel modèle et estimant que « la sûreté de l’équipement n’est pas mise en doute », malgré les problèmes rencontrés dans la construction à Flamanville (Manche) et en Finlande.

M. Varin a en revanche averti que se posaient des « questions sur sa compétitivité ». « Il ne faut pas sous-estimer l’enjeu. La réduction des coûts doit être très significative, il en va de l’avenir du nucléaire », a-t-il ajouté.

abb/fka/gf

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Le ministre de l’Agriculture ne va pas interdire le glyphosate

« Non! si je l’interdisais, mais que je n’ai pas d’alternative, que me diraient les agriculteurs ? On viendra me dire vous êtes en train de détruire la production agricole », a-t-il déclaré, en réponse à la question : « Allez-vous interdire le glyphosate ? ».

« Le glyphosate est dangereux. Les précautions qui doivent être prises sont impératives. Il faut que tout le monde fasse très attention », a-t-il toutefois indiqué.

Au « jardinier du dimanche qui a la main lourde », le ministre a également recommandé « d’arrêter, un peu d’herbe ça n’a jamais fait de mal à personne ».

« On s’aperçoit, et j’ai les premiers éléments de retour des Américains, qu’aujourd’hui le glyphosate connaît des résistances. Ils sont donc obligés de revenir à des organochlorés, ce qui est encore pire. Moi je dis stop, on a une autre stratégie à mettre en place », a ajouté le ministre.

L’association de consommateurs CLCV a interpellé lundi les agences sanitaires françaises et européennes et le ministre de l’Agriculture concernant le glyphosate, demandant notamment qu’il ne soit plus vendu en libre service aux jardiniers amateurs.

Le glyphosate, présent notamment dans le Roundup (Monsanto), et les insecticides malathion et diazinon ont été classés en mars cancérogènes « probables chez l’homme », même si les « preuves sont limitées », selon le Centre international de recherche sur le cancer (CIRC).

« L’avis du CIRC est un rapport préliminaire et non définitif. Les différentes autorités sanitaires européennes dont l’Anses (Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail) sont dans l’attente de la publication des monographies correspondantes, attendues dans les prochains mois », souligne la Plateforme glyphosate France, qui réunit la plupart des entreprises commercialisant des produits phytosanitaires à base de glyphosate.

etr/fka/sd

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

L’ingénieur geek #7 : Le casque à énergie solaire arrive le 21 juin

Grâce à sa connexion bluetooth 4.0, le casque sans fil à énergie solaire Helios dispose d’une portée de 9 à 10 mètres et permet de regarder des films sur votre tablette, ordinateur ou téléviseur, écouter de la musique sur votre smartphone, ou encore passer des appels grâce à un micro intégré

Equipé de panneaux solairse souples disposés sur son arceau, le casque Hélios récolte l’énergie qui alimente sa batterie lithium-polymère de 430 mAH. Chargée à bloc, la batterie dispose d’une autonomie de 16 heures en écoute et 17 heures en conversation.

Du soleil en continu pour une recharge continue

En cas de batterie à plat, pas de panique. L’appareil est livré avec une prise micro USB pour se recharger sur secteur en 3 heures. Mais selon la société, cette prise ne servirait que pour charger la batterie lors de la première utilisation. La lumière du soleil et la lumière artificielle pourraient ensuite suffire à recharger la batterie en continu, que son propriétaire l’utilise ou pas, et éviter de réitérer cette expérience. 

« 30 minutes d’exposition vous permettront d’obtenir environ 30 minutes d’autonomie supplémentaire à la batterie en écoute à pleine puissance », explique la société Exod. Pour arriver à un tel degré d’autonomie, Exod a néanmoins dû renoncer à l’ANC, système de réduction des bruits extérieurs, mais qui se révèle assez énergivore.

Helios est proposé en précommande pour 249,90 euros et sera disponible le 21 juin prochain pour fêter dignement la fête de la musique et le solstice d’été. Le casque est pliable et est vendu avec sa housse de transport, un câble jack doté d’une télécommande intégrée, un câble micro-USB et la prise pour être chargé sur secteur. 

Par Matthieu Combe, journaliste scientifique

Et aussi dans l’actualité :

Et aussi dans les
ressources documentaires :

Performance énergétique des logements: des propriétaires encore peu concernés (sondage)

81% des propriétaires pensent que les performances énergétiques de leur logement « ont une incidence sur le montant du loyer ou le prix de vente » de celui-ci, indique une enquête Harris Interactive en association avec Thomas Marko pour le réseau d’agences immobilières Orpi.

A l’inverse, 19% seulement pensent qu’elles n’ont pas d’impact.

Et pourtant, il n’est que 53% des propriétaires, soit à peine plus d’un sur deux, à se déclarer « concernés par des problèmes liés à une mauvaise performance énergétique » de leur logement, tandis que 47% ne le sont pas.

Ceux qui se disent concernés sont « le plus sensibles » à une éventuelle mauvaise isolation des murs (36%) ou des fenêtres (34%). Les « problèmes de toitures » (19%), eux, sont moins cités.

En revanche, les propriétaires ayant déjà réalisé un diagnostic de performance énergétique sont un peu plus préoccupés par la toiture (28%) que les fenêtres (26%). Quant à la « mauvaise fermeture des portes » (5%), c’est une préoccupation très marginale.

Parmi les propriétaires interrogés, seuls 38% ont déjà réalisé un diagnostic de performance énergétique de leur logement et la quasi totalité (93%) de ceux qui ne l’ont pas fait, ne le prévoient pas.

Enfin, une nette majorité (63%) d’entre eux ne voient pas l’intérêt d’être conseillés dans leurs démarches concernant les diagnostics énergétiques lors d’un achat/une vente de logement.

En revanche, pour les trois quarts des locataires (75%), la performance énergétique est un « critère déterminant » dans le choix d’un logement à louer. Et pour 88% d’entre eux, ce sera aussi le cas au moment de l’achat de leur logement.

Près des deux tiers des locataires (63%) se disent même « prêts à payer un loyer supérieur pour un logement dont la performance énergétique est excellente ».

Ce sondage a été réalisé sur internet, du 27 mai au 3 juin, auprès d’un échantillon représentatif de la population française, de 947 personnes.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

EDF au secours d’Areva

Areva est en déroute. Ce qui devait être le fleuron de l’activité nucléaire française est un échec retentissant. 4.8 milliards de pertes, 9 années de retards pour la construction de l’EPR d’Olkiluoto en Finlande, 5 à 6000 suppressions de postes annoncées dont 3 à 4000 en France, les chiffres du fiasco Areva donnent le vertige. A tel point qu’on se demande comment sauver l’équipementier nucléaire. L’Etat, actionnaire à hauteur de 87% est bien à la peine.

Tout d’abord, l’Etat s’appuie sur EDF qui va reprendre les réacteurs nucléaires. C’en est donc fini du mastodonte français censé gérer l’intégralité de la filière nucléaire, de l’équipement à la gestion de projet. Ce démantèlement partiel n’est toutefois pas encore bien défini. EDF et Areva disposent d’un mois pour négocier ce rachat. La filiale réacteur, baptisée Areva NP concerne 15 000 salariés dans le monde. Pour l’instant, EDF est prêt à mettre 2 milliards sur la table quand Areva en veut minimum 2.7 milliards. De plus, EDF tient à se dissocier des frais liés au retard de l’EPR finlandais. Le journal du dimanche a aussi indiqué qu’une hausse des tarifs d’électricité était en discussion, ce que le ministre Emmanuel Macron vient de démentir via twitter : « Il n’y a pas de lien entre cette opération et les tarifs de l’électricité ».

Deuxième partie du plan, une recapitalisation par l’Etat. A quelle hauteur ? Mystère, l’Elysée précise juste dans un communiqué qu’il agira en « investisseur avisé », pas très rassurant…Reste donc à savoir qui paiera le plus d’EDF ou de l’Etat, sachant que l’Etat en détient 84.5% et que l’Elysée claironne qu’ « […] EDF a vocation à devenir actionnaire majoritaire de la filiale commune Areva NP qui rassemble les activités industrielles de construction de réacteurs, d’assemblage de combustible et de services à la base installée »

Reste à savoir si la France peut assumer à elle seule de sauver le soldat Areva. Certains estiment qu’il faut injecter près de 7 milliards d’ici fin 2017. Des groupes chinois pourraient s’associer, notamment China National Nuclear Corporation (CNNC) et China General Nuclear Corporation (CGN) déjà en contact avec EDF.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

COP21 : résultats du débat citoyen planétaire

29 pays en Afrique, 15 pays en Amérique, 18 pays en Asie-Océanie et 13 pays en Europe, dont 13 îles, ont pris part aux 96 débats organisés lors de la journée du 6 juin. « Il est remarquable de constater que le nombre de pays le plus important est en Afrique, et que des débats ont pu être organisés en Afghanistan, en Iran, au Malin, mais aussi au Burundi ou au Népal, malgré les évènements récents », insistent les organisateurs dans un communiqué.

Les organiseurs concluent de la remontée des débat que « les citoyens sont très concernés, critiques et volontaristes ». 79 % des citoyens du monde se disent être « très concernés par le changement climatique » (contre 81 % en France), 19 % être « moyennement concernés » (18 % en France) et attendent beaucoup de la COP21. 73 % des citoyens du monde et des Français estiment que l’accord devra comporter des objectifs nationaux juridiquement contraignants pour tous les pays.

Malgré ces attentes, les citoyens jugent sévèrement les résultats des négocations des Nations Unies depuis 1992. Ils sont 71 % au niveau mondial à avoir un avis « très négatif » et même 88 % en France. Mais le dernier espoir porté par la conférence de Paris semble porter ses fruits en France où 76 % des citoyens pensent que « tout doit être fait à Paris pour limiter le réchauffement de la température à 2°C ». Au niveau mondial, un accord au rabais à tout prix ne semblerait néanmoins pas être une solution acceptable, ils ne sont que 64 % à considérer que « tout doit être fait » pour y parvenir.

Comment lutter efficacement contre le réchauffement climatique ?

Si 69 % des citoyens du monde estiment que la lutte contre le changement climatique est « avant tout » une responsabilité mondiale (72 % en France), ils sont quand même 48 % à estimer que c’est « essentiellement » une responsabilité des citoyens (56 % en France). Les citoyens pensent majoritairement que les solutions les plus effices pour lutter contre le réchauffement climatique restent les solutions appliquées au niveau mondial (60 % en France et 59 % dans le monde). Ils pensent que les outils les plus adaptés à la réduction des émissions sont les programmes éducatifs destinés au grand public (76 % en France et 78 % dans le monde), et la protection des forêts tropicales (50 % en France et 42 % dans le monde). Les résultats sont identiques concernant les efforts mondiaux qui devraient se concentrer de manière égale sur l’adaptation et l’atténuation (64 %). Plus de 80 % des citoyens du monde et 85% des Français pensent que leur pays doit réduire les émissions de gaz à effet de serre, même si les autres n’agissent pas Ils pensent même majoritairement que tous les pays devraient publier leurs émissions et les progrès réalisés (95 % en France et 91 % au niveau mondial).

Pour les citoyens, quelle serait la meilleure façon de fixer l’ambition des contributions nationales dans la luttre contre le réchauffement ? Cette question divise grandement les politiques, mais un peu moins les citoyens. Selon eux, les contributions devraient donc se baser sur les émissions actuelles ou anticipées (39 % dans le monde, 41 % en France) et les capacités économiques actuelles ou futures (38 % en France, 33 % dans le monde). Après 2020, 79 % des citoyens du monde considèrent que les pays à haut revenu devraient payer plus que les 100 milliards de dollars annuels, prévus par le fonds vert. En France, un pays directement concerné, les citoyens partagent évidemment un peu moins cet avis (62 %). Trois quarts des citoyens du monde estiment que les efforts des pays en développement devront dépendre du soutien financier des pays développés.

Des différences culturelles qui ressortent

Le débat fait remonter des différences culturelles plus importantes. Seulement 25 % des Français estiment que le changement climatique est une priorité nationale, contre 44 % à l’échelle mondiale. 65 % des Français pensent que cette lutte devrait le devenir, contre 46 % des citoyens du monde. Car 81 % des Français estiment que le changement climatique est une opportunité, alors qu’au niveau mondial, seulement 66 % des citoyens sont aussi optimistes. Importance du nucléaire oblige, seulement 47 % des Français estiment que les subventions aux énergies renouvelables doivent être priorisées pour diminuer les émissions de gaz à effet de serre ; les citoyens sont 57 % à considérer cette option dans le monde. Egalement 61 % des Français estiment que chaque pays devrait avoir le droit d’inspecter les autres sur leurs efforts, alors qu’ils ne sont que 50 % au niveau mondial.

La dernière grande différence porte certainement sur l’utilité du débat citoyen planétaire dans le processus de décision de la COP21. 84 % des citoyens du monde estiment que ce processus est « utile ou tout à fait utile », lorsque les Français, désabusés, ne sont que 65 % à avoir cette opinion.

Les citoyens ont débattu et voté selon la méthode établie par le Danish Board of Technology. L’objectif d’un tel débat était de faire remonter la vision du réchauffement climatique par les citoyens à l’échelle mondiale, ainsi que leurs préoccupations et attentes dans la perspective de la COP21. Ce débat a été co-initié par le Secrétariat de la Convention Cadre des Nations Unies sur les Changement Climatique (CCNUCC), la Commission nationale du débat public (CNDP), la Danish Board of Technology Foundation (DBT) et Missions Publiques. 60 pays en développement ont reçu une aide financière du Ministère de l’Ecologie, du Développement Durable et de l’Energie (MEDDE) pour l’organisation des débats.

Par Matthieu Combe

Et aussi dans les
ressources documentaires :

Facebook choisit Paris pour implanter son centre européen dédié à l’Intelligence artificielle

Après Menlo Park en Californie et New York, c’est dans la capitale française que Facebook ouvre un laboratoire. C’est donc avenue de Wagram que se sont installés les experts en intelligence artificielle recrutés par Facebook, dont Hervé Jégou et Florent Perronni le directeur. 

Mais que veut faire le leader des réseaux sociaux du vivier de spécialistes européens en intelligence artificielle ? Parmi les axes de recherche connus on retrouve le deep learning, que sont les méthodes permettant à un ordinateur d’apprendre de façon automatique, non supervisée, un peu comme fonctionne notre cerveau avec son réseau de neurones. L’année dernière, Facebook a présenté Deep face, un programme de reconnaissance faciale capable de dire si oui ou non deux visages sont les mêmes. Avec une précision de 97.25%, ce programme fait jeu égal avec les humains dont la précision est de 97.53%. Deep face est un exemple de ce que l’apprentissage profond peut faire car il ne fonctionne pas par comparaison de paramètres du visage mais utilise un réseau neuronal. Deep face n’est qu’une étape dans les projets de Mark Zuckerberg.

Le patron de Facebook espère rapidement être capable d’analyser les textes ainsi que les commentaires échangés sur sa plateforme, avec derrière la tête l’idée d’en savoir toujours plus sur l’utilisateur pour optimiser le ciblage des publicités, clé de voute du business modèle de Facebook. Yann LeCun prévoit qu’une intelligence artificielle sera capable de comprendre le langage naturel d’ici 2 à 3 ans, avec une seule réserve, la compréhension de l’humour.

Dans les prochains mois, le FAIR français accueillera une douzaine de personnes pour atteindre un effectif définitif d’une trentaine de personnes. Le patron de Facebook ne tarit pas d‘éloges sur l’expertise française et plus largement européenne dans le domaine de l’intelligence artificielle, un savoir-faire qui aurait été décisif dans le choix du site d’implantation de ce nouveau laboratoire. Dans cette logique de profiter des talents nationaux, un partenariat est en cours de discussion avec l’Institut national de recherche en informatique et en automatique (Inria) afin que leurs doctorants y soient accueillis.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Climat: les émissions de la Chine à leur maximum d’ici 2025 (étude)

Selon les courbes actuelles, la Chine, premier émetteur mondial, devrait dégager 12,5 à 14 milliards de tonnes équivalent CO2 (GTCO2e) en 2025, un record pour ce pays, avant que les émissions commencent à diminuer, prévoit cette étude, réalisée par l’économiste du climat Nicholas Stern et l’analyste Fergus Green.

« Ce résultat suggère qu’il est de plus en plus probable que le monde évite un réchauffement mondial de plus de 2°C par rapport aux niveaux pré-industriels, » soulignent dans un communiqué les auteurs de ce rapport produit par deux instituts de recherche de la London School of Economics (LSE).

Les Etats, réunis jusqu’à jeudi à Bonn, négocient pour tenter de parvenir à un accord universel à Paris en décembre, destiné à prendre le relais du protocole de Kyoto à partir de 2020. Il s’agit de limiter le réchauffement mondial à 2°, seuil au-delà duquel la science annonce des impacts dévastateurs sur les écosystèmes comme sur les économies.

« En analysant les tendances dans les secteurs émetteurs clés en Chine, nous concluons que les émissions de gaz à effet de serre ont peu de probabilité d’atteindre leur sommet en 2030, la limite haute qu’avait fixée le président Xi Jinping en novembre 2014, et devraient plus probablement connaître leur pic d’ici 2025 », souligne l’étude. Et cela pourrait même se produire avant.

La consommation de charbon par les Chinois a chuté en 2014 et au premier trimestre de 2015, soulignent les chercheurs, qui ont calculé qu’elle avait atteint son « maximum structurel » et devrait se stabiliser au cours des cinq ans, tandis que le recours au gaz naturel se développe. Un basculement permis par des changements structurels de l’économie chinoise, mais aussi par les politiques publiques mises en oeuvre pour favoriser un développement plus durable et réduire les impacts environnementaux.

Dans le cadre des négociations onusiennes, les pays doivent publier avant le 31 octobre leurs engagements nationaux en matière de réduction à moyen terme de leurs émissions de gaz à effet de serre, source du réchauffement mondial.

Trente-neuf parties ont déjà fait connaître leurs intentions. Pékin n’a en revanche pas encore publié sa contribution.

« La question de savoir si le monde pourra tenir cette trajectoire (de +2°) dans la décennie ou au-delà, à partir de 2020, dépend de manière significative de la capacité de la Chine à réduire ses émissions à un rythme soutenu après son pic » plutôt que de simplement stagner, souligne ainsi l’étude britannique. Elle dépend aussi « des actions des autres pays dans les 20 ans à venir, et des actions mondiales menées au cours des décennies suivantes ».

Aujourd’hui, les émissions mondiales s’élèvent à environ 50 GTCO2e, dont environ un quart produite par la Chine seule, selon les auteurs.

mlr-cho/fmi/fpp

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Gouvernements et entreprises doivent faire leurs preuves dans la protection des ressources (étude)

Cet « observatoire mondial du défi des ressources » a été réalisé par Harris interactive pour Suez Environnement, un des leaders mondiaux de la gestion de l’eau et des déchets.

L’enquête a été réalisée dans sept pays européens, la France, l’Allemagne, le Royaume-Uni, l’Espagne, l’Italie, la Suède, les Pays-Bas, ainsi qu’aux Etats-Unis et en Chine.

Pour la très grande majorité des personnes interrogées (93% des Européens, 78% des Américains et 96% des Chinois) le modèle actuel de gestion des ressources doit évoluer de manière urgente.

Elles sont en effet globalement perçues comme soumises à une exploitation trop intensive, et même déjà à l’origine de conflits d’usage entre agriculture, industries, entreprises et populations.

Et tous les acteurs (gouvernement, entreprises, particuliers, ONG etc.) ont « un rôle important à jouer dans la bonne gestion des ressources ».

Mais pour les Américains, les grandes et moyennes entreprises (91%) arrivent légèrement en tête devant les particuliers (90%) et les collectivités locales (89%). Les Chinois et les Européens mettent en avant et à égalité le rôle important des gouvernements et des entreprises.

Toutefois, les Américains sont une majorité à ne pas faire confiance aux grandes et moyennes entreprises (51%) ni aux gouvernements (62%) « pour oeuvrer en faveur de la bonne gestion des ressources » et placent en tête les start-up et les particuliers.

Les Chinois font surtout confiance aux gouvernements (85%) et aux organismes internationaux comme l’ONU ou la Banque mondiales (85%).

Les Européens mettent en tête de leur confiance les start-up (64%) et les ONG (60%) et au pied du podium les gouvernements – 67% ne leur font pas confiance – et les grandes et moyennes entreprises – 63% ne leur font pas confiance.

Par ailleurs, les Américains (66%) et les Chinois (61%) sont plus optimistes que les Européens (46%) sur la possibilité de trouver des solutions pour mieux gérer les ressources.

Parmi les propositions pour mieux gérer les ressources, les personnes interrogées mettent particulièrement en avant le recyclage, l’innovation pour produire des ressources alternatives ou encore développer des produits moins consommateurs de ressources.

Cette enquête a été réalisée sur internet à partir d’un échantillon représentatif de 1.000 personnes dans chaque pays, selon la méthode des quotas.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Varroa destructor : le parasite capable de mimer chimiquement deux espèces d’abeilles

L’acarien Varroa destructor est un ectoparasite de l’abeille domestique posant de nombreux problèmes sanitaires à leurs colonies. Il s’introduit dans les alvéoles des ruches contenant les larves d’abeille et se nourrit de leur hémolymphe. Il parasite également les nymphes et les abeilles adultes, participant au déclin observé actuellement chez cette espèce et provoquant des pertes économiques importantes en apiculture. L’hôte d’origine de cet acarien est Apis cerana, l’abeille asiatique, mais il est devenu une grave menace pour l’abeille européenne (Apis mellifera) qu’il a commencé à parasiter dans les années 40-50 et qui résiste moins bien à ses attaques. Les abeilles asiatiques présentent en effet des comportements (toilettage des adultes et vérification des larves par les ouvrières) qui leur permettent de détecter et d’éliminer le parasite. Ces comportements se retrouvent moins chez les abeilles mellifères et, sans traitement chimique, leurs colonies meurent en deux à trois ans.

La cuticule des abeilles est constituée d’un mélange d’une cinquantaine de composés lipidiques – des hydrocarbures – qui servent entre autre à la communication chimique. Les abeilles sont capables de reconnaître la composition d’une cuticule et d’identifier ainsi l’espèce ou l’âge d’un individu. Cela leur sert également à détecter la présence des parasites dont la cuticule est différente. Des études précédentes ont montré que l’acarienVarroa destructor peut mimer les hydrocarbures cuticulaires de leur hôte et ainsi échapper au comportement hygiénique des abeilles. Dans ces nouveaux travaux, les chercheurs se sont intéressés à la capacité des acariens, selon leur origine, à mimer la composition de la cuticule d’un nouvel hôte, d’une espèce différente, en transférant des acariens vivant dans une colonie d’abeilles asiatiques sur des larves d’abeilles européennes et inversement.

Leurs résultats montrent que les parasites sont capables d’imiter les deux hôtes, même lorsqu’ils sont transférés artificiellement. En effet, les proportions des hydrocarbures cuticulaires des acariens changent après le transfert afin de mimer la cuticule de leur nouvel hôte. Le mimétisme chimique est donc maintenu et cette faculté d’adaptation remarquable pourrait expliquer comment ce parasite de l’abeille asiatique a pu coloniser l’abeille domestique.

L’analyse des cuticules a aussi mis en lumière que les acariens issus de colonies d’abeilles asiatiques sont de meilleurs imitateurs que ceux provenant d’abeilles européennes. Ainsi la longue co-évolution entre Varroa destructor et Apis cerana a semble-t-il permis aux acariens d’être plus efficaces dans leur mimétisme chimique et aux abeilles asiatiques de développer des comportements plus adaptés à la lutte contre le parasite. A l’inverse le passage relativement récent de l’acarien chez Apis mellifera explique pourquoi l’abeille européenne a du mal à détecter le parasite. Ce système hôte parasite offre donc une belle illustration de la « course aux armements » à laquelle se livrent deux organismes au cours de leur évolution commune.

Source : CNRS

Et aussi dans les
ressources documentaires :

Des robots qui s’adaptent aux dommages en quelques minutes

Contrairement aux robots actuels, les êtres vivants ont une impressionnante capacité d’adaptation aux blessures. Ainsi, la plupart des chiens amputés d’une patte sont capables de jouer, sauter, et courir ; et un enfant avec une cheville foulée n’a besoin que de quelques minutes pour trouver une manière de boiter. Les chercheurs se sont inspirés de ces exemples. « Quand les animaux sont blessés, ils ne partent pas de zéro pour s’en sortir », explique Jean-Baptiste Mouret. « Au contraire, ils ont de bonnes intuitions sur les différentes manières de réagir. Ces intuitions leur permettent de choisir intelligemment quelques comportements à essayer et, après quelques tests, ils arrivent à en trouver un qui fonctionne malgré la blessure. Nos robots font la même chose. »

Avant d’être envoyé en mission, le robot utilise une simulation de son corps pour créer une « carte » détaillée des milliers de manières différentes de réaliser sa tâche : cette carte représente les intuitions du robot concernant les comportements intéressants et leur potentiel. Si le robot est endommagé, il utilise ses intuitions pour guider un algorithme d’apprentissage qui réalise des expériences afin de découvrir rapidement un comportement de compensation. Le nouvel algorithme a été baptisé « Intelligent Trial and Error » (essai-erreur intelligent).

« S’il est endommagé, notre robot se comporte comme un scientifique », explique Antoine Cully. « Il a des a priori à propos des différentes actions qui pourraient fonctionner et il commence par les tester. Cependant, ces à priori viennent de la simulation du robot intact. Il doit donc trouver celles qui fonctionnent non seulement en réalité mais aussi avec le/les dommages. Chaque action qu’il essaie est comme une expérience qui confirme ou infirme ses hypothèses. Si une action ne fonctionne pas, l’algorithme élimine de manière intelligente des catégories entières d’action pour essayer des choses complètement différentes.

Par exemple, si marcher en s’appuyant essentiellement sur les pattes arrières ne fonctionne pas correctement, le robot essaiera alors de marcher en mettant son poids sur les pattes avant.  Ce qui est surprenant, c’est la rapidité avec laquelle le robot découvre une nouvelle manière de marcher : malgré une patte coupée en deux, il ne faut que deux minutes au robot pour trouver une manière efficace de boiter ! »

Jeff Clune explique que « techniquement, l’algorithme est divisé en deux étapes :

  • créer la carte de l’espace comportement performance, et
  • l’adaptation à la nouvelle situation ».

La carte de la première étape est créée avec un nouveau type d’algorithme évolutionniste appelé MAP-Elites. Ce type d’algorithme s’inspire de l’évolution darwinienne et de la « survie du plus apte » pour chercher des solutions performantes. L’adaptation dans la seconde partie s’appuie sur un algorithme d’optimisation « bayesienne », qui exploite les connaissances a priori fournies par la carte pour trouver rapidement un nouveau comportement. « Nous avons effectué des expériences qui montrent que le point clé est dans la création et l’exploitation des a priori », continue Jeff Clune. Cette nouvelle technique pourra contribuer à développer des robots autonomes plus robustes et plus efficaces. Danesh Tarapore donne quelques exemples. « Cela pourrait permettre la création de robots qui peuvent aider des secouristes sans nécessiter leur attention en permanence », dit-il. « Cela pourrait aussi faciliter la création d’assistants robotiques personnels qui peuvent continuer à être utiles même quand une pièce est cassée ».

Ce travail a reçu l’aide de l’Agence Nationale pour la Recherche (Creadapt, ANR-12-JS03-0009), de l’European Research Commission (ResiBots, grant agreement No 637972), et de la Direction Générale de l’Armement ( thèse de A. Cully).

Pour en savoir plus, une vidéo illustrant ce travail :  
Un robot à 6 pattes réapprend à marcher avec une patte abimée et une patte manquante. L’expérience est répétée avec un bras robot apprenant à correctement placer un objet malgré plusieurs moteurs coincés.

Source : CNRS

Et aussi dans les
ressources documentaires :

Les mathématiques pèsent pour 15% du PIB de la France

Les mathématiciens peuvent se réjouir, leur discipline est indispensable à de nombreux secteurs.

C’est ce qui ressort du rapport commandité par l’Agence pour les Mathématiques en Interaction avec l’Entreprise et la Société (AMIES), en partenariat avec la Fondation Sciences Mathématiques de Paris (FSMP), la Fondation Mathématique Jacques Hadamard (FMJH), et les Labex de mathématiques.

Menée par le cabinet conseil en stratégie CMI, ce rapport intitulé « Quel est l’impact socio-économique des mathématiques en France » confirme le rôle clé de cette discipline tant du point de vue économique que scientifique. Pour mesurer cette influence, le CMI s’est intéressé aux 99 000 personnes en activités possédant au minimum un Master en mathématiques, ainsi qu’aux 2 millions d’individus ayant suivi une formation proposant au moins 4 heures hebdomadaires, comme les ingénieurs ou les BTS.

Voici les résultats :

  • 3,8 millions

C’est le nombre de postes utilisant les mathématiques, ce qui représente 9% de l’emploi.

  • 26%

Les étudiants de niveau Bac +2 à Bac +8 sont 26% à être formés aux mathématiques. Leur formation achevée, ils sont 2.2 millions en activités en 2015, soit 8.5% de la population active.

  • 4000

C’est le nombre d’enseignant-chercheurs en mathématiques. Chaque année, 500 docteurs sont diplômés.

  • 37

C’est le nombre de technologies clés (sur un total de 85) impactées par les mathématiques. Parmi elles, les plus dépendantes sont la simulation moléculaire, l’énergie nucléaire, les réseaux électriques intelligents, les technologies d’exploration et de production d’hydrocarbure, le manufacturing, l’ingénierie génomique ou encore celle de systèmes complexes.

  • 285 milliards d’€

C’est la valeur ajoutée apportée à l’économie française, soit 15% du PIB.

  • Ile-de-France, Rhône-Alpes, PACA 

A elles seules, ces 3 régions concentrent 56% de l’emploi impacté par les mathématiques.

Lire le rapport ici

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Un papier-peint en kevlar

Ce nouveau papier-peint balistique a été présenté au Pentagone lors du Departement of Defense Lab Day.

Il s’agit d’un papier adhésif à base de polymère souple renforcé avec des fibres de kevlar. Ces dernières sont disposées en quinconce et assurent la solidité du papier-peint. Sous la forme de rouleaux de papier adhésif, ce papier-peint de guerre est léger et donc facilement portable. Les soldats peuvent le déployer rapidement et recouvrir les murs d’une pièce dans laquelle ils se sont repliés par exemple. Même si une bombe explose à proximité, même si les murs se fissurent, le papier-peint empêchent qu’ils ne s’effondrent et ne viennent recouvrir les hommes.

Pour l’instant, ce papier-peint est toujours en phase de développement mais son efficacité est impressionnante (voir la vidéo). Dans le cas d’une boule qui vient frapper un mur, sans papier-peint le mur s’effondre. Une fois recouvert du papier peint au kevlar, le mur bien que brisé par l’impact reste debout. 

Nick Boone, ingénieur de recherche mécanique du Centre R&D d’ingénierie de l’US Army Corps of Engineer à Vicksburg (Mississippi), s’est déclaré optimiste au Huffington Post : « Le papier-peint balistique est toujours en phase de R&D et n’a pas de nom officiel, mais il pourrait est produit un jour et je l’espère, sauver des vies ».

Vidéo du test :

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

L’Oréal choisit d’utiliser de la peau humaine imprimée en 3D

Depuis 2013, L’Oréal a pris l’engagement de ne plus effectuer aucun test sur les animaux.

Pourtant, les produits et ingrédients doivent toujours être testés avant d’arriver sur le marché afin de garantir leur sécurité. Le géant américain a donc développé des techniques alternatives, mixant modélisation moléculaire et reconstruction de peau humaine. Ainsi,  L’Oréal peut tester des milliers de formules. Le centre de Gerland, à Lyon, produit 130 000 unités de tissus reconstruit chaque année à partir de morceaux de peau récupérés suite à des interventions de chirurgie plastique. Il s’agit de modèles de peau tels que la cornée, des muqueuses gingivales ou encore des muqueuses pulmonaires. Mais tout cela ne suffit pas. L’Oréal a besoin de plus d’échantillons de peau pour tester ses produits, et d’une production plus efficace. A Gerland, il faut compter une semaine pour obtenir un échantillon de 0.5 cm² d’1 mm d’épaisseur. Pas assez rapide.

L’impression 3D pourrait bien être la solution. C’est en tout cas ce que pensent les dirigeants du groupe qui ont décidé de nouer un partenariat avec Organovo, une société californienne qui produit des tissus humains en utilisant la technique de l’impression 3D. Tout se passera sur la plate-forme NovoGen Bioprinting. Les ingénieurs modélisent l’architecture des tissus humains voulus, puis créent une encre biologique adaptée à base d’un mélange de cellules vivantes. Celles-ci sont ensuite projetées couche par couche afin de créer le tissu.

 L’Oréal se donne 5 ans pour accélérer sa production de peau humaine grâce à ce processus.

Découvrez le processus développé par Organovo :

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Un laser pour détruire les débris spatiaux

35 213 000. C’est le nombre de débris estimé errant actuellement en orbite autour de la Terre. Si la très grande majorité est de taille inférieure au cm, 200 000 ont une taille comprise entre 1 et 10 cm et 13 000 objets font plus de 10 cm. Avec une vitesse de l’ordre de 10 km/s, l’impact entre ces objets et du matériel spatial est particulièrement brutal. Si les plus petits ne feront qu’éroder la surface d’un satellite, les plus gros peuvent causer sa destruction. 

Pour parer à cette menace, une équipe de chercheurs menée par Toshikazu Ebisuzaki du Riken à Tokyo prévoit de pulvériser les débris spatiaux à l’aide d’un canon laser. Basé sur la Station spatiale internationale (ISS), ce laser baptisé CAN pourra la protéger en détruisant les objets avant qu’ils ne percutent l’ISS. Plus précisément, le CAN chauffe la surface du débris ce qui a pour effet de vaporiser de la matière. Ceci propulse le débris en direction de la Terre qui finira consumé dans l’atmosphère. Un télescope, l’EUSO, dont l’installation sur l’ISS est prévue pour 2017 permettrait de repérer et de sélectionner les objets à détruire. Les scientifiques ont estimé que ce laser devra posséder une puissance de 100 kW et être capable d’atteindre une cible de taille centimétrique à une distance de 100 km. Des propriétés ambitieuses pour un projet qui n’est à ce jour que théorique. 

Actuellement, aucune solution n’existe pour lutter contre la pollution spatiale, malgré un accroissement des déchets continu. En cas de risque de collision, l’ISS est contrainte d’effectuer des manœuvres d’évitement.

Si l’équipe japonaise obtient les financements nécessaires, peut-être que le CAN prendra place sur l’ISS et pourquoi pas à terme, équiper une mission spécifique dédiée à la pulvérisation des débris. 

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

La Nasa reporte le test de son parachute supersonique à cause de la météo

« Les responsables de la mission ont reporté la seconde tentative de lancement du parachute (…) en raison de conditions défavorables dans l’océan », a publié la Nasa tard mardi sur son site officiel.

Le prochain lancement, depuis l’archipel de Hawaï dans le Pacifique, est prévu jeudi à 7H30 locales (17H30 GMT).

« La hauteur des vagues dans l’océan constitue toujours un problème pour l’équipe qui voudrait retrouver la capsule (à laquelle le parachute est attaché) et ses données après sa retombée » dans l’eau, a précisé la Nasa pour justifier ce report.

L’agence spatiale américaine doit tester lors de ce lancement des parachutes de nouvelle génération, à la technologie plus avancée que les précédents, qui permettront à de plus gros appareils de se poser en douceur, avec l’objectif d’envoyer des hommes sur la Planète Rouge à l’horizon 2030.

Le parachute (« Low-Density Supersonic Decelerator », ou LDSD), décrit par l’Agence comme « le plus grand parachute jamais déployé », fait 30 mètres de diamètre. Son but sera de « réduire la vitesse d’entrée du véhicule de Mach 2 à une vitesse subsonique ».

Pour cet essai, la Nasa doit envoyer sa « soucoupe volante » (nom donné à sa capsule) et son parachute jusqu’à une altitude de 37 kilomètres au-dessus de l’océan Pacifique, à l’aide d’un ballon géant. Celui-ci lâchera alors la soucoupe, qui sera propulsée encore plus haut, jusqu’à 55 kilomètres d’altitude, grâce à des fusées d’appoint: le véhicule atteindra alors des vitesses supersoniques.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Evaluation de la technologie de séquestration du carbone en milieu marin

Le projet, débuté en 2011, a inclut plusieurs expéditions en mer : sur des possibles sites de stockage à Sleipner et Snohvit au large de la Norvège, ainsi que sur des sources naturelles de dioxyde de carbone dans la mer du Nord, la mer de Barents et la mer Tyrrhénienne. Ces études ont permis de mieux comprendre le mode de diffusion du CO2 dans ces environnements et d’étudier la perméabilité du plancher sous-marin. Les chercheurs ont ainsi développé un indicateur, le « Propensity to Leak Factor » (littéralement, le « facteur de propension à fuir »), fournissant une première évaluation de la sécurité d’un site de stockage. Son calcul contient des facteurs de nature géologique, mais aussi des méthodes heuristiques prenant en compte des grandeurs difficilement quantifiables et potentiellement aléatoires.

Certaines caractéristiques de sites non propices ont été établies : des pentes, des sous-sols contenant des éléments toxiques, des zones de faible courant… Par ailleurs les espaces disposant d’écosystèmes particulièrement riches, ou fragilisées, doivent être évités, la libération de CO2 pouvant induire des dégâts considérables.

Une fois les sites de stockage mis en service, les chercheurs recommandent la mise en place de dispositifs de surveillance en 3D haute résolution pour observer les couches de sédiments, le plancher sous-marin et les colonnes d’eau. L’hydroacoustique pourrait aussi permettre de repérer des concentrations anormales de gaz et des fuites de CO2. La plupart de ces techniques existent déjà ou sont en cours de développement et ne nécessiteraient que quelques ajustements.

Le consortium du projet ECO2, dans son rapport à la commission européenne, ne voit pas de raison d’entraver le développement du CCS en milieu marin. Néanmoins pour que celui-ci soit respectueux de l’environnement, une réglementation précise et des guides de bonnes pratiques doivent être établis afin de protéger les écosystèmes sensibles et de garantir la sécurité des sites de stockage.

Source : bulletins électroniques

Le rêve Californien est-il en train de s’évaporer ?

Le désert aux portes de Palm Spring, des barrages devenus inutiles, des lacs asséchés, pas de doute, le manque d’eau qui frappe la Californie est historique. Les 38 millions d’habitants doivent se préparer à des mesures sévères de rationnement tant la situation est catastrophique. Le gouverneur Jerry Brown ne s’y trompe pas et a signé dès le 1er avril un décret ordonnant une réduction de la consommation d’eau de 25% d’ici la fin de l’année. Preuve de l’ampleur de ce phénomène climatique, le sol sur lequel se tenait Jerry Brown pour l’annonce de cette mesure était sec, alors qu’en 2010 il y  avait plus de 3 mètres de neige, une première à cette altitude de 2070m depuis 75 ans. 

Pourtant, des mesures pour une meilleure gestion de l’eau ont déjà été mises en place dans les années 70 à la suite d’une précédente sécheresse : diminution du volume des réservoirs des toilettes, arrosage extérieur limité à 2 jours/semaine… Mais il faut aller plus loin car la sécheresse qu’affronte la Californie aujourd’hui est exceptionnelle : le deuxième plus gros réservoir de l’Etat, le lac Oroville, a perdu 68% de son volume, n’ayant reçu que 1143 mm de pluie en 3 ans ce qui est 30% moins que la normal.

Reste à savoir qui va devoir fermer le plus le robinet. Si le gouverneur indique que l’effort sera partagé, les agriculteurs se sentent particulièrement menacés puisqu’ils sont les plus gros consommateurs d’eau, pesant pour 80% de la consommation. L’entretien des golfs pose lui aussi problème. Loin d’être prioritaires, les golfeurs vont finir par putter sur des terres arides…  Du côté des particuliers, l’arrosage des gazons représente la moitié de leur consommation en eau et devra être là aussi être diminué. Certains anticipent déjà en peignant leur pelouse en vert ou en la remplaçant par un jardin à base de plantes du désert telles que des cactus ou des agaves, très peu consommatrices d’eau. Si les 4.6 millions de m² de pelouses étaient transformées ainsi, cela économiserait plus de 7 milliards de litres d’eau.

Malgré certains efforts, le manque d’eau persiste. C’est pourquoi pour la première fois dans l’histoire de la Californie, son gouverneur Jerry Brown impose un rationnement doublé de méthodes punitives, autorisant les autorités locales à distribuer des amendes et/ou à augmenter le prix de l’eau des gros consommateurs en cas d’abus.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Ransomware : ne payez pas la rançon, mais protégez vos données

Un nouveau site internet de piratage en ligne vient d’être lancé. “Tox” permet aux pirates informatiques débutants de se lancer dans le ransomware (“rançongiciel”). Il s’agit d’un nouveau type d’attaque cybercriminelle, qui consiste, comme le rappellent les créateurs de Tox, à utiliser un virus qui, “une fois ouvert dans un système d’exploitation Windows, chiffrera tous les fichiers. Une fois que le processus sera terminé, il affichera un message demandant de payer une rançon pour déverrouiller les fichiers”.

Dans le cas de Tox, qui permet donc aux utilisateurs de générer à la demande un malware de type ransomware, la rançon est payable en Bitcoins – et le site garde une commission (30% de la somme versée).

Une attaque à la portée du premier “Script kiddie”

La force du ransomware est sa simplicité d’utilisation, qui permet à n’importe quel hacker débutant (ou “script kiddie”), sans la moindre connaissance en matière de gestion de la sécurité informatique, de sévir facilement. Pour devenir un véritable escroc du net, les hackers en herbe devrons simplement utiliser un outil de spam, et envoyer à un grand nombre d’adresses e-mail, un courriel contenant un document infecté (au format .zip) en pièce jointe. Ils devront ensuite compter sur la crédulité des internautes. A noter qu’un ransomware peut aussi infecter votre ordinateur depuis un site web “piégé”.

Quand le ransomware est lancé, il s’installe dans le répertoire utilisateur, ajoute des clés dans la base de registre afin de se lancer à chaque démarrage de l’ordinateur, puis génère deux clés de chiffrement – une sur un serveur maître, l’autre sur la machine infectée. Les fichiers, souvent personnels, situés sur le disque dur, parfois même sur les disques réseau partagés, sont alors chiffrés.

Des outils de déchiffrage

Les ransomwares les plus connus jusqu’ici, comme CoinVault et PCLock, ont été vaincus par les spécialistes en sécurité informatique. Pour Coinvault, Kaspersky fournit un outil de déchiffrage et de récupération des documents chiffrés. Pour PCLock, il existe des outils pour supprimer le virus, comme Malwarebytes Anti Malware ou AdwCleaner, et d’autres pour récupérer les fichiers, comme Photorec.

Pour l’heure, il n’existe pas encore de parade à Tox, une fois installé – mais pour le contrer, mieux vaut, tout simplement, éviter de cliquer trop vite sur une pièce jointe, ou visiter des sites douteux. Pour se prémunir des rançongiciels, mieux vaut également installer (et mettre à jour) des logiciels anti-virus et anti-malwares sur votre PC.

Sauvegarder ses fichiers, condition sine qua non

Afin d’éviter toute mauvaise surprise, pensez avant tout, à sauvegarder vos données un peu partout. Ainsi, au lieu de payer une “rançon” pour récupérer vos données chiffrées, vous pourrez les récupérer ailleurs.

Vous pouvez copier vos données, régulièrement, sur un disque externe – via un logiciel de “backup automatisé” (synchronisation), comme  Cobian Backup ou SmartSync Pro. Autre solution : copier vos données sur un serveur distant, en montant votre propre serveur FTP sur une seconde machine, ou en utilisant un NAS (Network Attached Storage).

Enfin, plus simple, mais nécessitant de faire confiance à un service tiers : le stockage de vos données dans le Cloud – sur Box, DropBox, OneDrive, Google Drive, iCloud, ou Unikube. Si vous craignez les ç solutions de Cloud soumises au Patriot Act, il en existe d’autres, souvent open source, et très efficaces, comme SparkleShare, Hubic, Wuala et SpiderOak.

Par Fabien Soyez

Et aussi dans les
ressources documentaires :

Qualité de l’air: dès janvier un certificat pour les véhicules moins polluants

Mme Royal, qui doit présenter son « plan d’action pour lutter contre la pollution de l’air », doit aussi annoncer le lancement d’un appel à projets pour « faire émerger des villes laboratoires » dans la lutte pour la qualité de l’air.

Elaboré avec le ministère de l’Intérieur, le dispositif des « certificats qualité de l’air », annoncé en février dans la « feuille de route écologique » du gouvernement pour 2015, « vise à donner la possibilité aux utilisateurs des véhicules les moins polluants de bénéficier d’avantages de circulation », indique le ministère.

Il sera mis en place à partir du 1er janvier, sur la base du volontariat, « pour les usagers qui le souhaitent » et en feront la demande via le système d’immatriculation des véhicules (gratuit durant les 6 premiers mois de mise en place du service puis facturé environ 5 euros).

Basé sur une classification en fonction des émissions polluantes (oxydes d’azote, particules), ce certificat permettra, en fonction de sa couleur et des règles prises par les maires, de circuler dans les zones de circulation restreinte, de bénéficier de modalités de stationnement favorables, d’obtenir des conditions de circulation privilégiée.

Les véhicules seront ainsi classés de un à six, des moins au plus polluants. Les vignettes seront de couleurs différentes selon leur statut, par exemple vert en catégorie 1 (normes Euro 5 et 6 pour les véhicules à essence à partir du 1er janvier 2011) ou gris en catégorie 6 (véhicules diesel ou essence avant décembre 1996).

Ce principe de certificat a déjà été retenu par plusieurs pays: Allemagne, Danemark, Suède, Italie, Autriche, République Tchèque, souligne le ministère qui rappelle qu’en ville la pollution atmosphérique, et notamment celle liée aux particules fines, provient largement du trafic routier et entraîne chaque année une augmentation des maladies respiratoires et cardio-vasculaires.

Pour l’appel à projets, l’idée est de soutenir des villes volontaires mettant en oeuvre des mesures « exemplaires », « afin de garantir, dans un délai de 5 ans, un air sain aux populations », précise-t-on.

Les collectivités devront envoyer leur candidature avant le 5 septembre. La liste des lauréats sera annoncée fin septembre.

Ils devront s’engager « à mettre en oeuvre des mesures radicales dans le domaine de la mobilité » mais également résidentiel, industriel et agricole.

Ils devront notamment créer ou préfigurer une zone à circulation restreinte, et « faciliter le développement de la mobilité électrique », le programme visant aussi à « éliminer en 5 ans le diesel ».

Pendant cinq ans, les collectivités sélectionnées bénéficieront d’un appui financier et méthodologique des services de l’Etat et de l’Agence de la maîtrise de l’énergie (Ademe).

Alors que la pollution atmosphérique est la première préoccupation environnementale des Français, la Commission européenne a engagé une procédure de contentieux à l’encontre de la France pour non-respect des valeurs limites sur les particules et insuffisance des plans d’action.

La loi sur la transition énergétique contient un certain nombre de dispositions, notamment une prime à la conversion pour l’achat d’un véhicule électrique remplaçant un véhicule diesel.

A Paris, la maire Anne Hidalgo (PS) avait dévoilé en janvier un plan prévoyant notamment une zone interdite en journée, dès le 1er juillet, aux cars et aux poids lourds de plus de 14 ans.

Une polémique l’avait opposée en mars à Mme Royal, réticente à instaurer la circulation alternée.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Un robot marcheur capable d’adapter son déplacement comme un animal

Ce robot ressemble à une araignée, mais ne possède que 6 pattes. En parfait état de marche, il se déplace normalement, avançant ses pattes sans difficulté. Mais comment va-t-il réagir si une de ses pattes se met à dysfonctionner, voir à tomber en panne ?

L’animal de métal ne s’affole pas. Il cherche dans sa banque de données une technique de déplacement compatible avec ses 5 pattes restantes. Il la teste mais ça ne marche pas,  car le voilà qui tourne en rond. Le robot, analysant son échec, teste une deuxième technique. Et ainsi de suite, jusqu’à la cinquième tentative qui sera la bonne, lui permettant de reprendre son trajet. Cela lui aura pris moins de 2 mn pour pallier à la panne et reprendre sa mission.

L’originalité du mode de fonctionnement de ce robot marcheur repose sur le fait qu’il ne fait pas de diagnostic du problème technique auquel il est confronté. Peu importe la cause de la panne et si elle est réparable ou pas, le robot ne cherche pas à guérir. Au contraire, il prend pour acquis la panne et cherche la meilleure façon de s’y adapter via un protocole d’essai/erreur. En effet, Antoine Cully, à l’origine de cette approche, a appris au robot comment se servir de ses pattes. En intégrant toutes les combinaisons possibles de ses 18 articulations, 13 000 techniques de déplacements émergent et sont assimilées par le robot. Dès lors qu’une ou plusieurs articulations sont touchées, le robot va piocher dans cette liste pour trouver comment marcher autrement. Il teste d’abord la plus efficace.

En cas d’échec, il en teste une autre radicalement différente. Pour guider ses essais, le robot dispose d’une carte des possibilités qui lui permet de trouver la meilleure approche par itérations. Surtout, l’utilisation de cette carte garantie une adaptation du robot en moins de 2 minutes, un record de rapidité. Pour décider si la technique est satisfaisante, le robot dispose d’une caméra grâce à laquelle il calcule sa vitesse. Ainsi, d’après les travaux parus dans Nature, le robot est capable de s’adapter à différents types de pannes, allant de l’endommagement à la perte complète d’une patte, même sur sol glissant ou pentu. De quoi le rendre autonome et surtout, digne de confiance dans l’accomplissement de missions d’exploration par exemple.

Par Audrey Loubens

Et aussi dans les
ressources documentaires :

Nouvel étiquetage des produits chimiques : l’INRS aide les entreprises

Un nouvel étiquetage des produits chimiques est entré en vigueur lundi, l’occasion pour l’Institut national de recherche et de sécurité (INRS) de lancer un outil en ligne pour aider les entreprises à évaluer les risques.

Tous les produits chimiques doivent désormais présenter une étiquette conforme au règlement européen dit « CLP » de 2008 qui définit leur classement, étiquetage et emballage en fonction de leurs dangers.

Neuf pictogrammes noirs sur fond blanc dans des losanges entourés d’un liseré rouge ont remplacé les anciens symboles noirs sur fond orange dans un carré. Par exemple, un « ! » qui signifie « j’altère la santé ou la couche d’ozone » ou une tête de mort qui signifie « je tue ». Ce changement s’est d’abord appliqué aux substances chimiques depuis le 1er décembre 2010 et concerne aussi depuis lundi les mélanges, même si les anciennes étiquettes peuvent encore circuler sur le marché jusqu’au 1er juin 2017.

L’INRS a décidé de lancer un outil en ligne pour aider les chefs d’entreprise à évaluer leurs risques chimiques en tenant compte du nouvel étiquetage. Il s’agit d’une application gratuite baptisée « Seirich » (Système d’évaluation et d’information sur les risques chimiques), accessible sur www.seirich.fr.

« Les entreprises vont trouver un outil qui va leur permettre à la fois de faire l’inventaire des produits qu’elles utilisent chez elles, de classer cet inventaire en leur donnant des priorités et des indications sur ce qu’elles ont à faire pour essayer de réduire les risques », a expliqué à l’AFP Raymond Vincent, qui a piloté le projet à l’INRS, réalisé en partenariat notamment avec le ministère du Travail et l’Assurance maladie.

Les produits chimiques posent de potentiels problèmes de santé dans tous les types d’emploi, des salons de coiffure (méthacrylate de méthyle) aux chantiers (amiante, diluants et autres vapeurs de soudage) en passant par les bureaux (particules de toner).

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »