81% des propriétaires pensent que les performances énergétiques de leur logement « ont une incidence sur le montant du loyer ou le prix de vente » de celui-ci, indique une enquête Harris Interactive en association avec Thomas Marko pour le réseau d’agences immobilières Orpi.
A l’inverse, 19% seulement pensent qu’elles n’ont pas d’impact.
Et pourtant, il n’est que 53% des propriétaires, soit à peine plus d’un sur deux, à se déclarer « concernés par des problèmes liés à une mauvaise performance énergétique » de leur logement, tandis que 47% ne le sont pas.
Ceux qui se disent concernés sont « le plus sensibles » à une éventuelle mauvaise isolation des murs (36%) ou des fenêtres (34%). Les « problèmes de toitures » (19%), eux, sont moins cités.
En revanche, les propriétaires ayant déjà réalisé un diagnostic de performance énergétique sont un peu plus préoccupés par la toiture (28%) que les fenêtres (26%). Quant à la « mauvaise fermeture des portes » (5%), c’est une préoccupation très marginale.
Parmi les propriétaires interrogés, seuls 38% ont déjà réalisé un diagnostic de performance énergétique de leur logement et la quasi totalité (93%) de ceux qui ne l’ont pas fait, ne le prévoient pas.
Enfin, une nette majorité (63%) d’entre eux ne voient pas l’intérêt d’être conseillés dans leurs démarches concernant les diagnostics énergétiques lors d’un achat/une vente de logement.
En revanche, pour les trois quarts des locataires (75%), la performance énergétique est un « critère déterminant » dans le choix d’un logement à louer. Et pour 88% d’entre eux, ce sera aussi le cas au moment de l’achat de leur logement.
Près des deux tiers des locataires (63%) se disent même « prêts à payer un loyer supérieur pour un logement dont la performance énergétique est excellente ».
Ce sondage a été réalisé sur internet, du 27 mai au 3 juin, auprès d’un échantillon représentatif de la population française, de 947 personnes.
Areva est en déroute. Ce qui devait être le fleuron de l’activité nucléaire française est un échec retentissant. 4.8 milliards de pertes, 9 années de retards pour la construction de l’EPR d’Olkiluoto en Finlande, 5 à 6000 suppressions de postes annoncées dont 3 à 4000 en France, les chiffres du fiasco Areva donnent le vertige. A tel point qu’on se demande comment sauver l’équipementier nucléaire. L’Etat, actionnaire à hauteur de 87% est bien à la peine.
Tout d’abord, l’Etat s’appuie sur EDF qui va reprendre les réacteurs nucléaires. C’en est donc fini du mastodonte français censé gérer l’intégralité de la filière nucléaire, de l’équipement à la gestion de projet. Ce démantèlement partiel n’est toutefois pas encore bien défini. EDF et Areva disposent d’un mois pour négocier ce rachat. La filiale réacteur, baptisée Areva NP concerne 15 000 salariés dans le monde. Pour l’instant, EDF est prêt à mettre 2 milliards sur la table quand Areva en veut minimum 2.7 milliards. De plus, EDF tient à se dissocier des frais liés au retard de l’EPR finlandais. Le journal du dimanche a aussi indiqué qu’une hausse des tarifs d’électricité était en discussion, ce que le ministre Emmanuel Macron vient de démentir via twitter : « Il n’y a pas de lien entre cette opération et les tarifs de l’électricité ».
Deuxième partie du plan, une recapitalisation par l’Etat. A quelle hauteur ? Mystère, l’Elysée précise juste dans un communiqué qu’il agira en « investisseur avisé », pas très rassurant…Reste donc à savoir qui paiera le plus d’EDF ou de l’Etat, sachant que l’Etat en détient 84.5% et que l’Elysée claironne qu’ « […] EDF a vocation à devenir actionnaire majoritaire de la filiale commune Areva NP qui rassemble les activités industrielles de construction de réacteurs, d’assemblage de combustible et de services à la base installée »
Reste à savoir si la France peut assumer à elle seule de sauver le soldat Areva. Certains estiment qu’il faut injecter près de 7 milliards d’ici fin 2017. Des groupes chinois pourraient s’associer, notamment China National Nuclear Corporation (CNNC) et China General Nuclear Corporation (CGN) déjà en contact avec EDF.
29 pays en Afrique, 15 pays en Amérique, 18 pays en Asie-Océanie et 13 pays en Europe, dont 13 îles, ont pris part aux 96 débats organisés lors de la journée du 6 juin. « Il est remarquable de constater que le nombre de pays le plus important est en Afrique, et que des débats ont pu être organisés en Afghanistan, en Iran, au Malin, mais aussi au Burundi ou au Népal, malgré les évènements récents », insistent les organisateurs dans un communiqué.
Les organiseurs concluent de la remontée des débat que « les citoyens sont très concernés, critiques et volontaristes ». 79 % des citoyens du monde se disent être « très concernés par le changement climatique » (contre 81 % en France), 19 % être « moyennement concernés » (18 % en France) et attendent beaucoup de la COP21. 73 % des citoyens du monde et des Français estiment que l’accord devra comporter des objectifs nationaux juridiquement contraignants pour tous les pays.
Malgré ces attentes, les citoyens jugent sévèrement les résultats des négocations des Nations Unies depuis 1992. Ils sont 71 % au niveau mondial à avoir un avis « très négatif » et même 88 % en France. Mais le dernier espoir porté par la conférence de Paris semble porter ses fruits en France où 76 % des citoyens pensent que « tout doit être fait à Paris pour limiter le réchauffement de la température à 2°C ». Au niveau mondial, un accord au rabais à tout prix ne semblerait néanmoins pas être une solution acceptable, ils ne sont que 64 % à considérer que « tout doit être fait » pour y parvenir.
Comment lutter efficacement contre le réchauffement climatique ?
Si 69 % des citoyens du monde estiment que la lutte contre le changement climatique est « avant tout » une responsabilité mondiale (72 % en France), ils sont quand même 48 % à estimer que c’est « essentiellement » une responsabilité des citoyens (56 % en France). Les citoyens pensent majoritairement que les solutions les plus effices pour lutter contre le réchauffement climatique restent les solutions appliquées au niveau mondial (60 % en France et 59 % dans le monde). Ils pensent que les outils les plus adaptés à la réduction des émissions sont les programmes éducatifs destinés au grand public (76 % en France et 78 % dans le monde), et la protection des forêts tropicales (50 % en France et 42 % dans le monde). Les résultats sont identiques concernant les efforts mondiaux qui devraient se concentrer de manière égale sur l’adaptation et l’atténuation (64 %). Plus de 80 % des citoyens du monde et 85% des Français pensent que leur pays doit réduire les émissions de gaz à effet de serre, même si les autres n’agissent pas Ils pensent même majoritairement que tous les pays devraient publier leurs émissions et les progrès réalisés (95 % en France et 91 % au niveau mondial).
Pour les citoyens, quelle serait la meilleure façon de fixer l’ambition des contributions nationales dans la luttre contre le réchauffement ? Cette question divise grandement les politiques, mais un peu moins les citoyens. Selon eux, les contributions devraient donc se baser sur les émissions actuelles ou anticipées (39 % dans le monde, 41 % en France) et les capacités économiques actuelles ou futures (38 % en France, 33 % dans le monde). Après 2020, 79 % des citoyens du monde considèrent que les pays à haut revenu devraient payer plus que les 100 milliards de dollars annuels, prévus par le fonds vert. En France, un pays directement concerné, les citoyens partagent évidemment un peu moins cet avis (62 %). Trois quarts des citoyens du monde estiment que les efforts des pays en développement devront dépendre du soutien financier des pays développés.
Des différences culturelles qui ressortent
Le débat fait remonter des différences culturelles plus importantes. Seulement 25 % des Français estiment que le changement climatique est une priorité nationale, contre 44 % à l’échelle mondiale. 65 % des Français pensent que cette lutte devrait le devenir, contre 46 % des citoyens du monde. Car 81 % des Français estiment que le changement climatique est une opportunité, alors qu’au niveau mondial, seulement 66 % des citoyens sont aussi optimistes. Importance du nucléaire oblige, seulement 47 % des Français estiment que les subventions aux énergies renouvelables doivent être priorisées pour diminuer les émissions de gaz à effet de serre ; les citoyens sont 57 % à considérer cette option dans le monde. Egalement 61 % des Français estiment que chaque pays devrait avoir le droit d’inspecter les autres sur leurs efforts, alors qu’ils ne sont que 50 % au niveau mondial.
La dernière grande différence porte certainement sur l’utilité du débat citoyen planétaire dans le processus de décision de la COP21. 84 % des citoyens du monde estiment que ce processus est « utile ou tout à fait utile », lorsque les Français, désabusés, ne sont que 65 % à avoir cette opinion.
Les citoyens ont débattu et voté selon la méthode établie par le Danish Board of Technology. L’objectif d’un tel débat était de faire remonter la vision du réchauffement climatique par les citoyens à l’échelle mondiale, ainsi que leurs préoccupations et attentes dans la perspective de la COP21. Ce débat a été co-initié par le Secrétariat de la Convention Cadre des Nations Unies sur les Changement Climatique (CCNUCC), la Commission nationale du débat public (CNDP), la Danish Board of Technology Foundation (DBT) et Missions Publiques. 60 pays en développement ont reçu une aide financière du Ministère de l’Ecologie, du Développement Durable et de l’Energie (MEDDE) pour l’organisation des débats.
Après Menlo Park en Californie et New York, c’est dans la capitale française que Facebook ouvre un laboratoire. C’est donc avenue de Wagram que se sont installés les experts en intelligence artificielle recrutés par Facebook, dont Hervé Jégou et Florent Perronni le directeur.
Mais que veut faire le leader des réseaux sociaux du vivier de spécialistes européens en intelligence artificielle ? Parmi les axes de recherche connus on retrouve le deep learning, que sont les méthodes permettant à un ordinateur d’apprendre de façon automatique, non supervisée, un peu comme fonctionne notre cerveau avec son réseau de neurones. L’année dernière, Facebook a présenté Deep face, un programme de reconnaissance faciale capable de dire si oui ou non deux visages sont les mêmes. Avec une précision de 97.25%, ce programme fait jeu égal avec les humains dont la précision est de 97.53%. Deep face est un exemple de ce que l’apprentissage profond peut faire car il ne fonctionne pas par comparaison de paramètres du visage mais utilise un réseau neuronal. Deep face n’est qu’une étape dans les projets de Mark Zuckerberg.
Le patron de Facebook espère rapidement être capable d’analyser les textes ainsi que les commentaires échangés sur sa plateforme, avec derrière la tête l’idée d’en savoir toujours plus sur l’utilisateur pour optimiser le ciblage des publicités, clé de voute du business modèle de Facebook. Yann LeCun prévoit qu’une intelligence artificielle sera capable de comprendre le langage naturel d’ici 2 à 3 ans, avec une seule réserve, la compréhension de l’humour.
Dans les prochains mois, le FAIR français accueillera une douzaine de personnes pour atteindre un effectif définitif d’une trentaine de personnes. Le patron de Facebook ne tarit pas d‘éloges sur l’expertise française et plus largement européenne dans le domaine de l’intelligence artificielle, un savoir-faire qui aurait été décisif dans le choix du site d’implantation de ce nouveau laboratoire. Dans cette logique de profiter des talents nationaux, un partenariat est en cours de discussion avec l’Institut national de recherche en informatique et en automatique (Inria) afin que leurs doctorants y soient accueillis.
Selon les courbes actuelles, la Chine, premier émetteur mondial, devrait dégager 12,5 à 14 milliards de tonnes équivalent CO2 (GTCO2e) en 2025, un record pour ce pays, avant que les émissions commencent à diminuer, prévoit cette étude, réalisée par l’économiste du climat Nicholas Stern et l’analyste Fergus Green.
« Ce résultat suggère qu’il est de plus en plus probable que le monde évite un réchauffement mondial de plus de 2°C par rapport aux niveaux pré-industriels, » soulignent dans un communiqué les auteurs de ce rapport produit par deux instituts de recherche de la London School of Economics (LSE).
Les Etats, réunis jusqu’à jeudi à Bonn, négocient pour tenter de parvenir à un accord universel à Paris en décembre, destiné à prendre le relais du protocole de Kyoto à partir de 2020. Il s’agit de limiter le réchauffement mondial à 2°, seuil au-delà duquel la science annonce des impacts dévastateurs sur les écosystèmes comme sur les économies.
« En analysant les tendances dans les secteurs émetteurs clés en Chine, nous concluons que les émissions de gaz à effet de serre ont peu de probabilité d’atteindre leur sommet en 2030, la limite haute qu’avait fixée le président Xi Jinping en novembre 2014, et devraient plus probablement connaître leur pic d’ici 2025 », souligne l’étude. Et cela pourrait même se produire avant.
La consommation de charbon par les Chinois a chuté en 2014 et au premier trimestre de 2015, soulignent les chercheurs, qui ont calculé qu’elle avait atteint son « maximum structurel » et devrait se stabiliser au cours des cinq ans, tandis que le recours au gaz naturel se développe. Un basculement permis par des changements structurels de l’économie chinoise, mais aussi par les politiques publiques mises en oeuvre pour favoriser un développement plus durable et réduire les impacts environnementaux.
Dans le cadre des négociations onusiennes, les pays doivent publier avant le 31 octobre leurs engagements nationaux en matière de réduction à moyen terme de leurs émissions de gaz à effet de serre, source du réchauffement mondial.
Trente-neuf parties ont déjà fait connaître leurs intentions. Pékin n’a en revanche pas encore publié sa contribution.
« La question de savoir si le monde pourra tenir cette trajectoire (de +2°) dans la décennie ou au-delà, à partir de 2020, dépend de manière significative de la capacité de la Chine à réduire ses émissions à un rythme soutenu après son pic » plutôt que de simplement stagner, souligne ainsi l’étude britannique. Elle dépend aussi « des actions des autres pays dans les 20 ans à venir, et des actions mondiales menées au cours des décennies suivantes ».
Aujourd’hui, les émissions mondiales s’élèvent à environ 50 GTCO2e, dont environ un quart produite par la Chine seule, selon les auteurs.
Cet « observatoire mondial du défi des ressources » a été réalisé par Harris interactive pour Suez Environnement, un des leaders mondiaux de la gestion de l’eau et des déchets.
L’enquête a été réalisée dans sept pays européens, la France, l’Allemagne, le Royaume-Uni, l’Espagne, l’Italie, la Suède, les Pays-Bas, ainsi qu’aux Etats-Unis et en Chine.
Pour la très grande majorité des personnes interrogées (93% des Européens, 78% des Américains et 96% des Chinois) le modèle actuel de gestion des ressources doit évoluer de manière urgente.
Elles sont en effet globalement perçues comme soumises à une exploitation trop intensive, et même déjà à l’origine de conflits d’usage entre agriculture, industries, entreprises et populations.
Et tous les acteurs (gouvernement, entreprises, particuliers, ONG etc.) ont « un rôle important à jouer dans la bonne gestion des ressources ».
Mais pour les Américains, les grandes et moyennes entreprises (91%) arrivent légèrement en tête devant les particuliers (90%) et les collectivités locales (89%). Les Chinois et les Européens mettent en avant et à égalité le rôle important des gouvernements et des entreprises.
Toutefois, les Américains sont une majorité à ne pas faire confiance aux grandes et moyennes entreprises (51%) ni aux gouvernements (62%) « pour oeuvrer en faveur de la bonne gestion des ressources » et placent en tête les start-up et les particuliers.
Les Chinois font surtout confiance aux gouvernements (85%) et aux organismes internationaux comme l’ONU ou la Banque mondiales (85%).
Les Européens mettent en tête de leur confiance les start-up (64%) et les ONG (60%) et au pied du podium les gouvernements – 67% ne leur font pas confiance – et les grandes et moyennes entreprises – 63% ne leur font pas confiance.
Par ailleurs, les Américains (66%) et les Chinois (61%) sont plus optimistes que les Européens (46%) sur la possibilité de trouver des solutions pour mieux gérer les ressources.
Parmi les propositions pour mieux gérer les ressources, les personnes interrogées mettent particulièrement en avant le recyclage, l’innovation pour produire des ressources alternatives ou encore développer des produits moins consommateurs de ressources.
Cette enquête a été réalisée sur internet à partir d’un échantillon représentatif de 1.000 personnes dans chaque pays, selon la méthode des quotas.
L’acarien Varroa destructor est un ectoparasite de l’abeille domestique posant de nombreux problèmes sanitaires à leurs colonies. Il s’introduit dans les alvéoles des ruches contenant les larves d’abeille et se nourrit de leur hémolymphe. Il parasite également les nymphes et les abeilles adultes, participant au déclin observé actuellement chez cette espèce et provoquant des pertes économiques importantes en apiculture. L’hôte d’origine de cet acarien est Apis cerana, l’abeille asiatique, mais il est devenu une grave menace pour l’abeille européenne (Apis mellifera) qu’il a commencé à parasiter dans les années 40-50 et qui résiste moins bien à ses attaques. Les abeilles asiatiques présentent en effet des comportements (toilettage des adultes et vérification des larves par les ouvrières) qui leur permettent de détecter et d’éliminer le parasite. Ces comportements se retrouvent moins chez les abeilles mellifères et, sans traitement chimique, leurs colonies meurent en deux à trois ans.
La cuticule des abeilles est constituée d’un mélange d’une cinquantaine de composés lipidiques – des hydrocarbures – qui servent entre autre à la communication chimique. Les abeilles sont capables de reconnaître la composition d’une cuticule et d’identifier ainsi l’espèce ou l’âge d’un individu. Cela leur sert également à détecter la présence des parasites dont la cuticule est différente. Des études précédentes ont montré que l’acarienVarroa destructor peut mimer les hydrocarbures cuticulaires de leur hôte et ainsi échapper au comportement hygiénique des abeilles. Dans ces nouveaux travaux, les chercheurs se sont intéressés à la capacité des acariens, selon leur origine, à mimer la composition de la cuticule d’un nouvel hôte, d’une espèce différente, en transférant des acariens vivant dans une colonie d’abeilles asiatiques sur des larves d’abeilles européennes et inversement.
Leurs résultats montrent que les parasites sont capables d’imiter les deux hôtes, même lorsqu’ils sont transférés artificiellement. En effet, les proportions des hydrocarbures cuticulaires des acariens changent après le transfert afin de mimer la cuticule de leur nouvel hôte. Le mimétisme chimique est donc maintenu et cette faculté d’adaptation remarquable pourrait expliquer comment ce parasite de l’abeille asiatique a pu coloniser l’abeille domestique.
L’analyse des cuticules a aussi mis en lumière que les acariens issus de colonies d’abeilles asiatiques sont de meilleurs imitateurs que ceux provenant d’abeilles européennes. Ainsi la longue co-évolution entre Varroa destructor et Apis cerana a semble-t-il permis aux acariens d’être plus efficaces dans leur mimétisme chimique et aux abeilles asiatiques de développer des comportements plus adaptés à la lutte contre le parasite. A l’inverse le passage relativement récent de l’acarien chez Apis mellifera explique pourquoi l’abeille européenne a du mal à détecter le parasite. Ce système hôte parasite offre donc une belle illustration de la « course aux armements » à laquelle se livrent deux organismes au cours de leur évolution commune.
Contrairement aux robots actuels, les êtres vivants ont une impressionnante capacité d’adaptation aux blessures. Ainsi, la plupart des chiens amputés d’une patte sont capables de jouer, sauter, et courir ; et un enfant avec une cheville foulée n’a besoin que de quelques minutes pour trouver une manière de boiter. Les chercheurs se sont inspirés de ces exemples. « Quand les animaux sont blessés, ils ne partent pas de zéro pour s’en sortir », explique Jean-Baptiste Mouret. « Au contraire, ils ont de bonnes intuitions sur les différentes manières de réagir. Ces intuitions leur permettent de choisir intelligemment quelques comportements à essayer et, après quelques tests, ils arrivent à en trouver un qui fonctionne malgré la blessure. Nos robots font la même chose. »
Avant d’être envoyé en mission, le robot utilise une simulation de son corps pour créer une « carte » détaillée des milliers de manières différentes de réaliser sa tâche : cette carte représente les intuitions du robot concernant les comportements intéressants et leur potentiel. Si le robot est endommagé, il utilise ses intuitions pour guider un algorithme d’apprentissage qui réalise des expériences afin de découvrir rapidement un comportement de compensation. Le nouvel algorithme a été baptisé « Intelligent Trial and Error » (essai-erreur intelligent).
« S’il est endommagé, notre robot se comporte comme un scientifique », explique Antoine Cully. « Il a des a priori à propos des différentes actions qui pourraient fonctionner et il commence par les tester. Cependant, ces à priori viennent de la simulation du robot intact. Il doit donc trouver celles qui fonctionnent non seulement en réalité mais aussi avec le/les dommages. Chaque action qu’il essaie est comme une expérience qui confirme ou infirme ses hypothèses. Si une action ne fonctionne pas, l’algorithme élimine de manière intelligente des catégories entières d’action pour essayer des choses complètement différentes.
Par exemple, si marcher en s’appuyant essentiellement sur les pattes arrières ne fonctionne pas correctement, le robot essaiera alors de marcher en mettant son poids sur les pattes avant. Ce qui est surprenant, c’est la rapidité avec laquelle le robot découvre une nouvelle manière de marcher : malgré une patte coupée en deux, il ne faut que deux minutes au robot pour trouver une manière efficace de boiter ! »
Jeff Clune explique que « techniquement, l’algorithme est divisé en deux étapes :
créer la carte de l’espace comportement performance, et
l’adaptation à la nouvelle situation ».
La carte de la première étape est créée avec un nouveau type d’algorithme évolutionniste appelé MAP-Elites. Ce type d’algorithme s’inspire de l’évolution darwinienne et de la « survie du plus apte » pour chercher des solutions performantes. L’adaptation dans la seconde partie s’appuie sur un algorithme d’optimisation « bayesienne », qui exploite les connaissances a priori fournies par la carte pour trouver rapidement un nouveau comportement. « Nous avons effectué des expériences qui montrent que le point clé est dans la création et l’exploitation des a priori », continue Jeff Clune. Cette nouvelle technique pourra contribuer à développer des robots autonomes plus robustes et plus efficaces. Danesh Tarapore donne quelques exemples. « Cela pourrait permettre la création de robots qui peuvent aider des secouristes sans nécessiter leur attention en permanence », dit-il. « Cela pourrait aussi faciliter la création d’assistants robotiques personnels qui peuvent continuer à être utiles même quand une pièce est cassée ».
Ce travail a reçu l’aide de l’Agence Nationale pour la Recherche (Creadapt, ANR-12-JS03-0009), de l’European Research Commission (ResiBots, grant agreement No 637972), et de la Direction Générale de l’Armement ( thèse de A. Cully).
Pour en savoir plus, une vidéo illustrant ce travail : Un robot à 6 pattes réapprend à marcher avec une patte abimée et une patte manquante. L’expérience est répétée avec un bras robot apprenant à correctement placer un objet malgré plusieurs moteurs coincés.
Les mathématiciens peuvent se réjouir, leur discipline est indispensable à de nombreux secteurs.
C’est ce qui ressort du rapport commandité par l’Agence pour les Mathématiques en Interaction avec l’Entreprise et la Société (AMIES), en partenariat avec la Fondation Sciences Mathématiques de Paris (FSMP), la Fondation Mathématique Jacques Hadamard (FMJH), et les Labex de mathématiques.
Menée par le cabinet conseil en stratégie CMI, ce rapport intitulé « Quel est l’impact socio-économique des mathématiques en France » confirme le rôle clé de cette discipline tant du point de vue économique que scientifique. Pour mesurer cette influence, le CMI s’est intéressé aux 99 000 personnes en activités possédant au minimum un Master en mathématiques, ainsi qu’aux 2 millions d’individus ayant suivi une formation proposant au moins 4 heures hebdomadaires, comme les ingénieurs ou les BTS.
Voici les résultats :
3,8 millions
C’est le nombre de postes utilisant les mathématiques, ce qui représente 9% de l’emploi.
26%
Les étudiants de niveau Bac +2 à Bac +8 sont 26% à être formés aux mathématiques. Leur formation achevée, ils sont 2.2 millions en activités en 2015, soit 8.5% de la population active.
4000
C’est le nombre d’enseignant-chercheurs en mathématiques. Chaque année, 500 docteurs sont diplômés.
37
C’est le nombre de technologies clés (sur un total de 85) impactées par les mathématiques. Parmi elles, les plus dépendantes sont la simulation moléculaire, l’énergie nucléaire, les réseaux électriques intelligents, les technologies d’exploration et de production d’hydrocarbure, le manufacturing, l’ingénierie génomique ou encore celle de systèmes complexes.
285 milliards d’€
C’est la valeur ajoutée apportée à l’économie française, soit 15% du PIB.
Ile-de-France, Rhône-Alpes, PACA
A elles seules, ces 3 régions concentrent 56% de l’emploi impacté par les mathématiques.
Ce nouveau papier-peint balistique a été présenté au Pentagone lors du Departement of Defense Lab Day.
Il s’agit d’un papier adhésif à base de polymère souple renforcé avec des fibres de kevlar. Ces dernières sont disposées en quinconce et assurent la solidité du papier-peint. Sous la forme de rouleaux de papier adhésif, ce papier-peint de guerre est léger et donc facilement portable. Les soldats peuvent le déployer rapidement et recouvrir les murs d’une pièce dans laquelle ils se sont repliés par exemple. Même si une bombe explose à proximité, même si les murs se fissurent, le papier-peint empêchent qu’ils ne s’effondrent et ne viennent recouvrir les hommes.
Pour l’instant, ce papier-peint est toujours en phase de développement mais son efficacité est impressionnante (voir la vidéo). Dans le cas d’une boule qui vient frapper un mur, sans papier-peint le mur s’effondre. Une fois recouvert du papier peint au kevlar, le mur bien que brisé par l’impact reste debout.
Nick Boone, ingénieur de recherche mécanique du Centre R&D d’ingénierie de l’US Army Corps of Engineer à Vicksburg (Mississippi), s’est déclaré optimiste au Huffington Post : « Le papier-peint balistique est toujours en phase de R&D et n’a pas de nom officiel, mais il pourrait est produit un jour et je l’espère, sauver des vies ».
Depuis 2013, L’Oréal a pris l’engagement de ne plus effectuer aucun test sur les animaux.
Pourtant, les produits et ingrédients doivent toujours être testés avant d’arriver sur le marché afin de garantir leur sécurité. Le géant américain a donc développé des techniques alternatives, mixant modélisation moléculaire et reconstruction de peau humaine. Ainsi, L’Oréal peut tester des milliers de formules. Le centre de Gerland, à Lyon, produit 130 000 unités de tissus reconstruit chaque année à partir de morceaux de peau récupérés suite à des interventions de chirurgie plastique. Il s’agit de modèles de peau tels que la cornée, des muqueuses gingivales ou encore des muqueuses pulmonaires. Mais tout cela ne suffit pas. L’Oréal a besoin de plus d’échantillons de peau pour tester ses produits, et d’une production plus efficace. A Gerland, il faut compter une semaine pour obtenir un échantillon de 0.5 cm² d’1 mm d’épaisseur. Pas assez rapide.
L’impression 3D pourrait bien être la solution. C’est en tout cas ce que pensent les dirigeants du groupe qui ont décidé de nouer un partenariat avec Organovo, une société californienne qui produit des tissus humains en utilisant la technique de l’impression 3D. Tout se passera sur la plate-forme NovoGen Bioprinting. Les ingénieurs modélisent l’architecture des tissus humains voulus, puis créent une encre biologique adaptée à base d’un mélange de cellules vivantes. Celles-ci sont ensuite projetées couche par couche afin de créer le tissu.
L’Oréal se donne 5 ans pour accélérer sa production de peau humaine grâce à ce processus.
35 213 000. C’est le nombre de débris estimé errant actuellement en orbite autour de la Terre. Si la très grande majorité est de taille inférieure au cm, 200 000 ont une taille comprise entre 1 et 10 cm et 13 000 objets font plus de 10 cm. Avec une vitesse de l’ordre de 10 km/s, l’impact entre ces objets et du matériel spatial est particulièrement brutal. Si les plus petits ne feront qu’éroder la surface d’un satellite, les plus gros peuvent causer sa destruction.
Pour parer à cette menace, une équipe de chercheurs menée par Toshikazu Ebisuzaki du Riken à Tokyo prévoit de pulvériser les débris spatiaux à l’aide d’un canon laser. Basé sur la Station spatiale internationale (ISS), ce laser baptisé CAN pourra la protéger en détruisant les objets avant qu’ils ne percutent l’ISS. Plus précisément, le CAN chauffe la surface du débris ce qui a pour effet de vaporiser de la matière. Ceci propulse le débris en direction de la Terre qui finira consumé dans l’atmosphère. Un télescope, l’EUSO, dont l’installation sur l’ISS est prévue pour 2017 permettrait de repérer et de sélectionner les objets à détruire. Les scientifiques ont estimé que ce laser devra posséder une puissance de 100 kW et être capable d’atteindre une cible de taille centimétrique à une distance de 100 km. Des propriétés ambitieuses pour un projet qui n’est à ce jour que théorique.
Actuellement, aucune solution n’existe pour lutter contre la pollution spatiale, malgré un accroissement des déchets continu. En cas de risque de collision, l’ISS est contrainte d’effectuer des manœuvres d’évitement.
Si l’équipe japonaise obtient les financements nécessaires, peut-être que le CAN prendra place sur l’ISS et pourquoi pas à terme, équiper une mission spécifique dédiée à la pulvérisation des débris.
« Les responsables de la mission ont reporté la seconde tentative de lancement du parachute (…) en raison de conditions défavorables dans l’océan », a publié la Nasa tard mardi sur son site officiel.
Le prochain lancement, depuis l’archipel de Hawaï dans le Pacifique, est prévu jeudi à 7H30 locales (17H30 GMT).
« La hauteur des vagues dans l’océan constitue toujours un problème pour l’équipe qui voudrait retrouver la capsule (à laquelle le parachute est attaché) et ses données après sa retombée » dans l’eau, a précisé la Nasa pour justifier ce report.
L’agence spatiale américaine doit tester lors de ce lancement des parachutes de nouvelle génération, à la technologie plus avancée que les précédents, qui permettront à de plus gros appareils de se poser en douceur, avec l’objectif d’envoyer des hommes sur la Planète Rouge à l’horizon 2030.
Le parachute (« Low-Density Supersonic Decelerator », ou LDSD), décrit par l’Agence comme « le plus grand parachute jamais déployé », fait 30 mètres de diamètre. Son but sera de « réduire la vitesse d’entrée du véhicule de Mach 2 à une vitesse subsonique ».
Pour cet essai, la Nasa doit envoyer sa « soucoupe volante » (nom donné à sa capsule) et son parachute jusqu’à une altitude de 37 kilomètres au-dessus de l’océan Pacifique, à l’aide d’un ballon géant. Celui-ci lâchera alors la soucoupe, qui sera propulsée encore plus haut, jusqu’à 55 kilomètres d’altitude, grâce à des fusées d’appoint: le véhicule atteindra alors des vitesses supersoniques.
Le projet, débuté en 2011, a inclut plusieurs expéditions en mer : sur des possibles sites de stockage à Sleipner et Snohvit au large de la Norvège, ainsi que sur des sources naturelles de dioxyde de carbone dans la mer du Nord, la mer de Barents et la mer Tyrrhénienne. Ces études ont permis de mieux comprendre le mode de diffusion du CO2 dans ces environnements et d’étudier la perméabilité du plancher sous-marin. Les chercheurs ont ainsi développé un indicateur, le « Propensity to Leak Factor » (littéralement, le « facteur de propension à fuir »), fournissant une première évaluation de la sécurité d’un site de stockage. Son calcul contient des facteurs de nature géologique, mais aussi des méthodes heuristiques prenant en compte des grandeurs difficilement quantifiables et potentiellement aléatoires.
Certaines caractéristiques de sites non propices ont été établies : des pentes, des sous-sols contenant des éléments toxiques, des zones de faible courant… Par ailleurs les espaces disposant d’écosystèmes particulièrement riches, ou fragilisées, doivent être évités, la libération de CO2 pouvant induire des dégâts considérables.
Une fois les sites de stockage mis en service, les chercheurs recommandent la mise en place de dispositifs de surveillance en 3D haute résolution pour observer les couches de sédiments, le plancher sous-marin et les colonnes d’eau. L’hydroacoustique pourrait aussi permettre de repérer des concentrations anormales de gaz et des fuites de CO2. La plupart de ces techniques existent déjà ou sont en cours de développement et ne nécessiteraient que quelques ajustements.
Le consortium du projet ECO2, dans son rapport à la commission européenne, ne voit pas de raison d’entraver le développement du CCS en milieu marin. Néanmoins pour que celui-ci soit respectueux de l’environnement, une réglementation précise et des guides de bonnes pratiques doivent être établis afin de protéger les écosystèmes sensibles et de garantir la sécurité des sites de stockage.
Le désert aux portes de Palm Spring, des barrages devenus inutiles, des lacs asséchés, pas de doute, le manque d’eau qui frappe la Californie est historique. Les 38 millions d’habitants doivent se préparer à des mesures sévères de rationnement tant la situation est catastrophique. Le gouverneur Jerry Brown ne s’y trompe pas et a signé dès le 1er avril un décret ordonnant une réduction de la consommation d’eau de 25% d’ici la fin de l’année. Preuve de l’ampleur de ce phénomène climatique, le sol sur lequel se tenait Jerry Brown pour l’annonce de cette mesure était sec, alors qu’en 2010 il y avait plus de 3 mètres de neige, une première à cette altitude de 2070m depuis 75 ans.
Pourtant, des mesures pour une meilleure gestion de l’eau ont déjà été mises en place dans les années 70 à la suite d’une précédente sécheresse : diminution du volume des réservoirs des toilettes, arrosage extérieur limité à 2 jours/semaine… Mais il faut aller plus loin car la sécheresse qu’affronte la Californie aujourd’hui est exceptionnelle : le deuxième plus gros réservoir de l’Etat, le lac Oroville, a perdu 68% de son volume, n’ayant reçu que 1143 mm de pluie en 3 ans ce qui est 30% moins que la normal.
Reste à savoir qui va devoir fermer le plus le robinet. Si le gouverneur indique que l’effort sera partagé, les agriculteurs se sentent particulièrement menacés puisqu’ils sont les plus gros consommateurs d’eau, pesant pour 80% de la consommation. L’entretien des golfs pose lui aussi problème. Loin d’être prioritaires, les golfeurs vont finir par putter sur des terres arides… Du côté des particuliers, l’arrosage des gazons représente la moitié de leur consommation en eau et devra être là aussi être diminué. Certains anticipent déjà en peignant leur pelouse en vert ou en la remplaçant par un jardin à base de plantes du désert telles que des cactus ou des agaves, très peu consommatrices d’eau. Si les 4.6 millions de m² de pelouses étaient transformées ainsi, cela économiserait plus de 7 milliards de litres d’eau.
Malgré certains efforts, le manque d’eau persiste. C’est pourquoi pour la première fois dans l’histoire de la Californie, son gouverneur Jerry Brown impose un rationnement doublé de méthodes punitives, autorisant les autorités locales à distribuer des amendes et/ou à augmenter le prix de l’eau des gros consommateurs en cas d’abus.
Un nouveau site internet de piratage en ligne vient d’être lancé. “Tox” permet aux pirates informatiques débutants de se lancer dans le ransomware (“rançongiciel”). Il s’agit d’un nouveau type d’attaque cybercriminelle, qui consiste, comme le rappellent les créateurs de Tox, à utiliser un virus qui, “une fois ouvert dans un système d’exploitation Windows, chiffrera tous les fichiers. Une fois que le processus sera terminé, il affichera un message demandant de payer une rançon pour déverrouiller les fichiers”.
Dans le cas de Tox, qui permet donc aux utilisateurs de générer à la demande un malware de type ransomware, la rançon est payable en Bitcoins – et le site garde une commission (30% de la somme versée).
Une attaque à la portée du premier “Script kiddie”
La force du ransomware est sa simplicité d’utilisation, qui permet à n’importe quel hacker débutant (ou “script kiddie”), sans la moindre connaissance en matière de gestion de la sécurité informatique, de sévir facilement. Pour devenir un véritable escroc du net, les hackers en herbe devrons simplement utiliser un outil de spam, et envoyer à un grand nombre d’adresses e-mail, un courriel contenant un document infecté (au format .zip) en pièce jointe. Ils devront ensuite compter sur la crédulité des internautes. A noter qu’un ransomware peut aussi infecter votre ordinateur depuis un site web “piégé”.
Quand le ransomware est lancé, il s’installe dans le répertoire utilisateur, ajoute des clés dans la base de registre afin de se lancer à chaque démarrage de l’ordinateur, puis génère deux clés de chiffrement – une sur un serveur maître, l’autre sur la machine infectée. Les fichiers, souvent personnels, situés sur le disque dur, parfois même sur les disques réseau partagés, sont alors chiffrés.
Pour l’heure, il n’existe pas encore de parade à Tox, une fois installé – mais pour le contrer, mieux vaut, tout simplement, éviter de cliquer trop vite sur une pièce jointe, ou visiter des sites douteux. Pour se prémunir des rançongiciels, mieux vaut également installer (et mettre à jour) des logiciels anti-virus et anti-malwares sur votre PC.
Sauvegarder ses fichiers, condition sine qua non
Afin d’éviter toute mauvaise surprise, pensez avant tout, à sauvegarder vos données un peu partout. Ainsi, au lieu de payer une “rançon” pour récupérer vos données chiffrées, vous pourrez les récupérer ailleurs.
Vous pouvez copier vos données, régulièrement, sur un disque externe – via un logiciel de “backup automatisé” (synchronisation), comme Cobian Backup ou SmartSync Pro. Autre solution : copier vos données sur un serveur distant, en montant votre propre serveur FTP sur une seconde machine, ou en utilisant un NAS (Network Attached Storage).
Enfin, plus simple, mais nécessitant de faire confiance à un service tiers : le stockage de vos données dans le Cloud – sur Box, DropBox, OneDrive, Google Drive, iCloud, ou Unikube. Si vous craignez les ç solutions de Cloud soumises au Patriot Act, il en existe d’autres, souvent open source, et très efficaces, comme SparkleShare, Hubic, Wuala et SpiderOak.
Mme Royal, qui doit présenter son « plan d’action pour lutter contre la pollution de l’air », doit aussi annoncer le lancement d’un appel à projets pour « faire émerger des villes laboratoires » dans la lutte pour la qualité de l’air.
Elaboré avec le ministère de l’Intérieur, le dispositif des « certificats qualité de l’air », annoncé en février dans la « feuille de route écologique » du gouvernement pour 2015, « vise à donner la possibilité aux utilisateurs des véhicules les moins polluants de bénéficier d’avantages de circulation », indique le ministère.
Il sera mis en place à partir du 1er janvier, sur la base du volontariat, « pour les usagers qui le souhaitent » et en feront la demande via le système d’immatriculation des véhicules (gratuit durant les 6 premiers mois de mise en place du service puis facturé environ 5 euros).
Basé sur une classification en fonction des émissions polluantes (oxydes d’azote, particules), ce certificat permettra, en fonction de sa couleur et des règles prises par les maires, de circuler dans les zones de circulation restreinte, de bénéficier de modalités de stationnement favorables, d’obtenir des conditions de circulation privilégiée.
Les véhicules seront ainsi classés de un à six, des moins au plus polluants. Les vignettes seront de couleurs différentes selon leur statut, par exemple vert en catégorie 1 (normes Euro 5 et 6 pour les véhicules à essence à partir du 1er janvier 2011) ou gris en catégorie 6 (véhicules diesel ou essence avant décembre 1996).
Ce principe de certificat a déjà été retenu par plusieurs pays: Allemagne, Danemark, Suède, Italie, Autriche, République Tchèque, souligne le ministère qui rappelle qu’en ville la pollution atmosphérique, et notamment celle liée aux particules fines, provient largement du trafic routier et entraîne chaque année une augmentation des maladies respiratoires et cardio-vasculaires.
Pour l’appel à projets, l’idée est de soutenir des villes volontaires mettant en oeuvre des mesures « exemplaires », « afin de garantir, dans un délai de 5 ans, un air sain aux populations », précise-t-on.
Les collectivités devront envoyer leur candidature avant le 5 septembre. La liste des lauréats sera annoncée fin septembre.
Ils devront s’engager « à mettre en oeuvre des mesures radicales dans le domaine de la mobilité » mais également résidentiel, industriel et agricole.
Ils devront notamment créer ou préfigurer une zone à circulation restreinte, et « faciliter le développement de la mobilité électrique », le programme visant aussi à « éliminer en 5 ans le diesel ».
Pendant cinq ans, les collectivités sélectionnées bénéficieront d’un appui financier et méthodologique des services de l’Etat et de l’Agence de la maîtrise de l’énergie (Ademe).
Alors que la pollution atmosphérique est la première préoccupation environnementale des Français, la Commission européenne a engagé une procédure de contentieux à l’encontre de la France pour non-respect des valeurs limites sur les particules et insuffisance des plans d’action.
La loi sur la transition énergétique contient un certain nombre de dispositions, notamment une prime à la conversion pour l’achat d’un véhicule électrique remplaçant un véhicule diesel.
A Paris, la maire Anne Hidalgo (PS) avait dévoilé en janvier un plan prévoyant notamment une zone interdite en journée, dès le 1er juillet, aux cars et aux poids lourds de plus de 14 ans.
Une polémique l’avait opposée en mars à Mme Royal, réticente à instaurer la circulation alternée.
Ce robot ressemble à une araignée, mais ne possède que 6 pattes. En parfait état de marche, il se déplace normalement, avançant ses pattes sans difficulté. Mais comment va-t-il réagir si une de ses pattes se met à dysfonctionner, voir à tomber en panne ?
L’animal de métal ne s’affole pas. Il cherche dans sa banque de données une technique de déplacement compatible avec ses 5 pattes restantes. Il la teste mais ça ne marche pas, car le voilà qui tourne en rond. Le robot, analysant son échec, teste une deuxième technique. Et ainsi de suite, jusqu’à la cinquième tentative qui sera la bonne, lui permettant de reprendre son trajet. Cela lui aura pris moins de 2 mn pour pallier à la panne et reprendre sa mission.
L’originalité du mode de fonctionnement de ce robot marcheur repose sur le fait qu’il ne fait pas de diagnostic du problème technique auquel il est confronté. Peu importe la cause de la panne et si elle est réparable ou pas, le robot ne cherche pas à guérir. Au contraire, il prend pour acquis la panne et cherche la meilleure façon de s’y adapter via un protocole d’essai/erreur. En effet, Antoine Cully, à l’origine de cette approche, a appris au robot comment se servir de ses pattes. En intégrant toutes les combinaisons possibles de ses 18 articulations, 13 000 techniques de déplacements émergent et sont assimilées par le robot. Dès lors qu’une ou plusieurs articulations sont touchées, le robot va piocher dans cette liste pour trouver comment marcher autrement. Il teste d’abord la plus efficace.
En cas d’échec, il en teste une autre radicalement différente. Pour guider ses essais, le robot dispose d’une carte des possibilités qui lui permet de trouver la meilleure approche par itérations. Surtout, l’utilisation de cette carte garantie une adaptation du robot en moins de 2 minutes, un record de rapidité. Pour décider si la technique est satisfaisante, le robot dispose d’une caméra grâce à laquelle il calcule sa vitesse. Ainsi, d’après les travaux parus dans Nature, le robot est capable de s’adapter à différents types de pannes, allant de l’endommagement à la perte complète d’une patte, même sur sol glissant ou pentu. De quoi le rendre autonome et surtout, digne de confiance dans l’accomplissement de missions d’exploration par exemple.
Un nouvel étiquetage des produits chimiques est entré en vigueur lundi, l’occasion pour l’Institut national de recherche et de sécurité (INRS) de lancer un outil en ligne pour aider les entreprises à évaluer les risques.
Tous les produits chimiques doivent désormais présenter une étiquette conforme au règlement européen dit « CLP » de 2008 qui définit leur classement, étiquetage et emballage en fonction de leurs dangers.
Neuf pictogrammes noirs sur fond blanc dans des losanges entourés d’un liseré rouge ont remplacé les anciens symboles noirs sur fond orange dans un carré. Par exemple, un « ! » qui signifie « j’altère la santé ou la couche d’ozone » ou une tête de mort qui signifie « je tue ». Ce changement s’est d’abord appliqué aux substances chimiques depuis le 1er décembre 2010 et concerne aussi depuis lundi les mélanges, même si les anciennes étiquettes peuvent encore circuler sur le marché jusqu’au 1er juin 2017.
L’INRS a décidé de lancer un outil en ligne pour aider les chefs d’entreprise à évaluer leurs risques chimiques en tenant compte du nouvel étiquetage. Il s’agit d’une application gratuite baptisée « Seirich » (Système d’évaluation et d’information sur les risques chimiques), accessible sur www.seirich.fr.
« Les entreprises vont trouver un outil qui va leur permettre à la fois de faire l’inventaire des produits qu’elles utilisent chez elles, de classer cet inventaire en leur donnant des priorités et des indications sur ce qu’elles ont à faire pour essayer de réduire les risques », a expliqué à l’AFP Raymond Vincent, qui a piloté le projet à l’INRS, réalisé en partenariat notamment avec le ministère du Travail et l’Assurance maladie.
Les produits chimiques posent de potentiels problèmes de santé dans tous les types d’emploi, des salons de coiffure (méthacrylate de méthyle) aux chantiers (amiante, diluants et autres vapeurs de soudage) en passant par les bureaux (particules de toner).
Cette nouvelle structure présente des propriétés particulières. Les nanodiamants émettent de la lumière lorsqu’on leur applique un champ magnétique fort. Les nanotubes de carbone permettent de renforcer le champ magnétique appliqué et donc l’intensité de la lumière émise. Ce nouveau matériau sera utile pour un large éventail de technologies, par exemple d’affichage ou de diagnostic médical.
Pour créer ce nouveau matériau, les chercheurs ont déposé sur des nanotubes de carbone alignés une couche de nanodiamants. Du fait des liaisons carbone des deux structures, il a été difficile de les lier de manière permanente. Cette découverte a fait l’objet d’une publication dans la revue scientifique Nature. Les images ci-dessous y ont été publiées. Sur les images du haut, on peut observer l’alignement des nanotubes de carbone avant d’y déposer une couche de nanodiamants. Ces photos ont été prises grâce à un microscope électronique à balayage. Sur les photos du bas, on peut observer la lumière émise par la structure hybride en fonction du champ électrique appliqué de 0 à 15 V/micro-m.
Avec ses 3,4 milliards de paires de bases, l’ADN humain compile une gigantesque masse d’informations dans un volume infime. Toute l’information qui y est stockée s’exprime grâce à quatre bases azotées : A, T, G et C. Des chercheurs avaient déjà réussi à utiliser l’alternance de ces véritables briques moléculaires pour reproduire un code binaire. Mais face aux limites techniques que pose l’ADN, il fallait encore développer le premier polymère synthétique, plus maniable et moins onéreux, apte à conserver des données binaires. Cette première mondiale vient d’être accomplie par une équipe de scientifiques français du CNRS et d’Aix-Marseille université.
Dans cette étude, plutôt que de se servir des quatre bases azotées de l’ADN, les chercheurs ont utilisé trois monomères. Deux de ces monomères représentent les chiffres 0 et 1 du langage binaire et peuvent être utilisés de manière interchangeable au cours de la synthèse. Un troisième monomère de type nitroxide est intercalé entre les bits afin de faciliter l’écriture et la lecture de la séquence codée.
Un court message binaire est synthétisé à la main, monomère par monomère, sur une chaîne en croissance. L’opération prend environ une journée, mais devrait se réduire une fois robotisée. La lecture fonctionne par séquençage, de la même manière que l’ADN est décodé depuis des dizaines d’années. Un spectromètre de masse met ainsi moins de cinq minutes à déchiffrer les données, une durée elle aussi vouée à diminuer à court terme.
Il est aussi possible d’effacer le code à tout moment en l’exposant à une température supérieure à 60 degrés Celsius ou à un laser alors que le séquençage détruit le polymère. Les chercheurs ont montré qu’à température ambiante, le polymère se conserve plusieurs mois, même s’il pourrait en fait tenir plusieurs années tant la molécule est stable.
L’équipe souhaite stocker des messages de quelques kilooctets, voire mégaoctets, d’ici trois à cinq ans. Cette technique, brevetée par le CNRS, permet aussi le développement à court terme de codes-barres moléculaires. Les séquences fourniraient un étiquetage extrêmement complexe à falsifier, idéal pour des denrées à forte valeur ajoutée comme les produits de luxe et les médicaments. L’utilisation de monomères et de codes secrets, connus seulement par le laboratoire et l’industriel, rendrait les contrefaçons extrêmement difficiles.
Environ 12% de la population entre 65 et 75 ans présente cette pathologie dont la prévalence pourrait augmenter de près de 50% d’ici 2020 du fait du vieillissement de la population. Face à ce fléau qui représente la première cause de déficience visuelle après 50 ans, et pour laquelle il n’existe aucun traitement curatif mais uniquement des dispositifs d’aide à la vision encore peu satisfaisants, la paire de lunettes dite « intelligente » mise au point par Light Vision, une jeune entreprise de l’incubateur de l’Institut de la Vision à Paris, constitue une solution extrêmement intéressante et prometteuse. Une centaine de ces lunettes pourrait être mise à disposition des premiers patients dès la fin de cette année.
« La DMLA, nous y travaillons depuis déjà plusieurs années », a rappelé Daniel Aït-Yahiatène, président de Light Vision, lors du Congrès Vision Innovation, intitulé « Mieux voir ensemble pour mieux voir demain », qui s’est tenu le 10 février dernier à la Maison de l’Unesco à Paris. Dès les années 2000, alors qu’il travaillait dans le domaine des lasers médicaux, celui-ci a eu l’idée en effet de projeter une image directement dans l’oeil d’une personne atteinte de DMLA et s’est rendu compte que l’on pouvait ainsi accroître son acuité visuelle. Quelques années plus tard, les technologies ayant progressé, il a repris cette idée pour la développer en collaboration avec un membre de sa famille, Olivier Aït, qui terminait alors sa formation d’ingénieur en informatique au sein de l’Epitech. « Il s’agissait de voir l’état de l’art et si nous pouvions parvenir à développer un produit efficace commercialisable », résume celui qui occupe aujourd’hui le poste de responsable technique au sein de Light Vision. Et au fil des mois, l’idée de créer une entreprise autour de cette thématique a germé. Lauréat, deux années successives, en « émergence » puis en « création », à l’occasion du Concours national d’aide à la création d’entreprises de technologies innovantes, leur projet les a conduit en novembre 2011 à créer Light Vision, une entreprise localisée à Paris, au sein de l’incubateur de l’Institut de la Vision.
Après avoir validé leur concept sur des personnes atteintes de DMLA courant 2012, Daniel et Olivier ont donc conçu un démonstrateur de ces lunettes, nécessaire à la validation de l’ensemble de ses parties actives, qu’ils ont finalisé à la mi-2013, pour déboucher enfin sur la réalisation d’un premier prototype, de type fil de fer, en 2014. Celui-ci est équipé d’une caméra permettant de filmer le champ extérieur, l’image obtenue étant traitée ensuite par un logiciel informatique développé par cette jeune entreprise. « Ce dernier va notamment augmenter les contrastes, voire inverser les couleurs, l’objectif étant d’adapter automatiquement ces lunettes à la vision de celui qui les porte », précise le président de Light Vision. L’image traitée est alors envoyée sur la partie encore utilisable de la rétine du patient. D’où la nécessaire incorporation dans ces lunettes d’un système dit de « Eye-tracking » qui permet de suivre le mouvement de la pupille. Aujourd’hui, l’équipe de Light Vision est entrée dans une nouvelle étape, celle de la miniaturisation qui devrait se poursuivre tout au long de cette année, avec l’objectif de produire une centaine de lunettes, « celles-ci devant être mises à disposition des premiers patients ». Autant de travaux, menés en particulier avec l’Université de Haute Alsace, qui ont donné lieu au dépôt de deux brevets et dont la réalisation auraient été impossible sans la présence et l’appui de l’Institut de la Vision, « essentiel notamment pour effectuer nos tests, prévoir nos protocoles et, plus généralement, valider l’ensemble du concept », tient à souligner Daniel Aït-Yahiatène.
Ces lunettes dont les premiers exemplaires pourraient être commercialisés en 2016, le président de Light Vision les compare tout simplement aux prothèses auditives qui, de leur côté, ont su progressivement s’imposer auprès d’un public sans cesse grandissant dont la particularité est d’entendre moins bien en vieillissant. « Dans le futur, nous souhaiterions nous intéresser à d’autres pathologies de la vision », indique Olivier Aït qui ajoute en guise de conclusion : « il faut nécessairement innover si nous voulons franchir de nouvelles étapes et réussir à occuper une place significative sur ce marché où sont présents de sérieux concurrents ».
Cet audit énergétique réglementaire permettra aux entreprises de mettre en évidence des gisements d’économies d’énergie et de déterminer les actions et les investissements à réaliser pour diminuer leurs coûts énergétiques. Il les incitera ainsi à mettre en place une stratégie d’efficacité énergétique de leurs activités en France et sera renouvelé par l’entreprise tous les 4 ans. Cet audit concerne notamment les bâtiments, les procédés industriels et les activités de transport et couvre au moins 80 % du montant des factures énergétiques acquittées par l’entreprise. Pour les audits réalisés avant le 5 décembre 2015, ce taux de couverture peut toutefois être ramené à 65 %.
La loi prévoit néanmoins quelques dérogations. Par exemple, si les activités de l’entreprise sont couvertes par un système de management de l’énergie certifié ISO 14001, l’entreprise est exemptée de l’obligation de réalisation de l’audit énergétique. De même si elle est certifiée ISO 50001, car cette norme impose déjà une amélioration continue de la performance énergétique.
D’où vient cette loi ?
Le principe de l’audit énergétique obligatoire est prévu par la directive européenne 2012/27/UE relative à l’efficacité énergétique. Cette directive a été élaborée afin de déployer les efforts nécessaires à l’atteinte de l’objectif de réduction de 20 % de la consommation énergétique de l’Union Européenne à l’horizon 2020. Transposée en droit français par la loi n° 2013-619 du 16 juillet 2013, l’article 40 de la loi insère dans le titre III du livre II du code de l’énergie un nouveau chapitre consacré à la performance énergétique des entreprises. Les 4 articles L233-1 à L233-4 constituent la base législative de l’audit énergétique obligatoire et fixent le régime de sanctions.
A cette base, il faut ajouter le décret n°2013-1121 du 4 décembre 2013 relatif aux seuils au-delà desquels une personne morale réalise un audit énergétique, le décret n°2014-1393 du 24 novembre 2014 relatif aux modalités d’application de l’audit énergétique et son Arrêté d’application du 24 novembre 2014. Ces trois textes définissent les conditions et modalités de réalisation de cet audit et son périmètre. Ils prévoient notamment les modalités d’exemption en cas de système de management de l’énergie, le périmètre et la méthodologie de l’audit, les modalités de transmission des documents, les conditions de reconnaissance de l’indépendance et de la compétence des auditeurs.
Réaliser un audit ou se faire sanctionner
Les actions d’économies d’énergie préconisées dans le rapport d’audit sont classées de façon à prioriser les actions à mettre en place. Il hiérarchise ainsi les actions dont le temps de retour sur investissement est de moins d’un an, entre un et quatre ans ou au-delà. L’Article L233-4 de la loi n° 2013-619 du 16 juillet 2013 prévoit des sanctions en cas de non réalisation de l’audit ; l’autorité administrative peut alors mettre l’intéressé en demeure de se conformer à ces obligations. « Lorsque l’intéressé ne se conforme pas, dans le délai fixé, à cette mise en demeure, l’autorité administrative peut lui infliger une amende dont le montant est proportionné à la gravité du manquement, à sa situation, à l’ampleur du dommage et aux avantages qui en sont tirés, sans pouvoir excéder 2 % du chiffre d’affaires hors taxes du dernier exercice clos, porté à 4 % en cas de nouvelle violation de la même obligation », précise l’article en question.
A l’opposé, si les investissements préconisés par l’audit sont réalisés, le ministère de l’écologie estime que, selon la nature de l’activité, les économies peuvent atteindre jusqu’à 30 %, et dépasser 50 % pour la part de la consommation liée au bâtiment. Se conformer à la réglementation serait donc la meilleure solution pour éviter les sanctions et faire des économies, tout en améliorant la performance de son entreprise.
Qui peut réaliser ces audits?
Les audits énergétiques devront être établis selon la méthode décrite par les normes européennes EN 16247 Parties 1 à 4. La norme NF EN 16247-1, publiée en 2012, instaure la méthodologie générale et les actions à mener tout au long des étapes d’un audit énergétique. Les normes EN 16247-2 bâtiments, EN 16247-3 procédés industriels, EN 16247-4 transports, publiées en juillet 2014, exposent quant à elles les modalités spécifiques au secteur d’activité correspondant. Ces trois normes complètent la norme EN 16247-1, mais ne la remplacent pas. Pour une entreprise qui réalise ses activités de façon similaire dans différents bâtiments, l’arrêté prévoit la possibilité de réaliser l’audit sur un échantillon de ces bâtiments selon une procédure précisée dans son annexe I.
Cet audit peut être mené par un prestataire externe ou par du personnel interne à l’entreprise. Dans le premier cas, le prestataire doit être titulaire d’un signe de qualité dans chacun des domaines dans lequel il réalise l’audit énergétique (bâtiments, procédés industriels ou transport) conforme à un référentiel d’exigences défini par la norme NF X 50-091 et délivré par un organisme accrédité. Ces exigences sont complétées par des critères additionnels définis dans la partie 1 de l’annexe II de l’arrêté. Dans le second cas, le personnel interne ne doit pas participer directement à l’activité soumise à l’audit sur le site concerné et doit respecter les critères définis dans la partie 2 de l’annexe II de l’arrêté.
Sur les 90 entreprises interrogées, 65 % étaient concernées par la nouvelle réglementation sur l’audit énergétique. Parmi elles, 24 % l’avaient terminé, 60 % étaient en projet de réalisation et 16 % étaient en cours de réalisation. Parmi les entreprises concernées par l’audit énergétique, la majorité ne l’ont donc pas encore commencé à quelques mois de l’échéance du 5 décembre. Cela montre la récalcitrance de certaines entreprises à lancer cet audit.
Lancer son audit au plus vite !
« La majorité des entreprises savent qu’elles vont être contraintes de le réaliser avant la fin de l’année mais n’ont pas commencé concrètement le travail », regrette Julien Adam, chargé de Mission Maitrise de l’Energie à l’Association Technique Energie Environnement (ATEE). Et il y a pourtant urgence à se mettre au travail, puisque ces audits requièrent plusieurs visites. Outre les bâtiments, ils intègrent le process industriel et jusqu’aux flottes de véhicules pour les salariés ou le transport des marchandises. « Il faut compter au moins une semaine pour l’instrumentation pour avoir une courbe de charge représentative », assure Julien Adam. Il faut ajouter à cela le temps de mise en contact, la définition du périmètre, la rédaction du rapport…
Au final, si le cabinet ne facture qu’entre 10 et 30 jours de travail effectif d’ingénieur, il s’écoule généralement entre 2 et 8 mois entre la prise de contact et la remise du rapport final, selon le retour d’expérience de la société de conseil Optinergie. Car il faut rappeler qu’un auditeur ne travaille généralement pas à plein temps sur un seul dossier. Cette durée dépend donc bien évidemment de la disponibilité de l’auditeur, mais aussi de nombreux autres critères, tels que la complexité des process et la taille de l’entreprise. Le coût de l’audit est également variable : entre 8 000 € et 35 000 € selon la complexité de l’entreprise et sa taille.
Mais l’audit peut coûter moins cher, car certains bureaux de conseil proposent des audits gratuits, en cherchant à se rémunérer sur des services associés : vente de matériel, ingénierie de projet ou identification de certificats d’économie d’énergie. Mais attention, car « l’entreprise va forcément avoir à faire à un auditeur qui va fortement orienter ses préconisations en fonction du service associé qu’il va y avoir derrière, et donc pas forcément de manière indépendante », prévient Julien Adam.
« Les auditeurs vont certainement être débordés par les demandes des entreprises qui se réveilleront en septembre et il sera très compliqué pour elles de finir l’audit pour le 5 décembre », prévoit l’expert. Les audits rendus avant le 5 décembre doivent couvrir 65% de la facture énergétique des entreprises, et 85% ensuite. « Le fait d’être en retard va forcément entraîner un audit plus cher puisque le périmètre est plus large. C’est une sorte d’incitation aussi à ce que les entreprises ne soient pas en retard », affirme-t-il. Notre conseil est donc simple : lancez votre audit énergétique au plus vite !
Il reste un dernier espoir pour les entreprises qui n’auront pas fini leur audit au 5 décembre La parution des décrets et arrêtés a été assez tardive, ce qui a entraîné des retards dans la qualification des auditeurs. L’administration pourrait tenir compte de ces retards et ne pas appliquer les sanctions immédiatement. Les entreprises prendront-elles tout de même le risque de payer une amende s’élevant à 2 % de leur chiffre d’affaire? C’est à leurs risques et périls.
« Les entreprises qui ont un minimum de maturité du point de vue maîtrise de l’énergie soit ont déjà fait leur audit énergétique soit savent exactement avec qui et quand elles vont le faire », prévient Julien Adam, chargé de Mission Maitrise de l’Energie à l’Association Technique Energie Environnement (ATEE). « Les autres entreprises qui ne voient pas l’intérêt vont essayer de s’y prendre au dernier moment avec la prestation la moins chère possible », note-t-il.
Il est effectivement possible de distinguer les entreprises qui considèrent l’audit énergétique comme un vrai levier de performance, qui améliore la rentabilité des usines, des entreprises récalcitrantes qui attendent le dernier moment. Cela dépend essentiellement du secteur d’activité et de la stratégie du groupe auquel l’entreprise appartient. Pour les plus motivées, l’énergie peut être ressentie comme un vecteur de communication, un levier de compétitivité et une amélioration de son image.
Quels secteurs sont les plus volontaristes ?
Globalement, les industries énergivores, telles que la chimie, la métallurgie ou la papeterie, pour qui l’énergie est le poste de dépense majoritaire, s’intéressent depuis longtemps à l’efficacité énergétique. « Pour elles, cette obligation ne change pas grand chose, elle demande juste de formaliser ce qu’ils ont déjà fait », remarque Julien Adam. Les entreprises avec des procédés énergivores sensibles devraient d’ailleurs décider de faire leur audit en interne.
En revanche, dans d’autres secteurs cela peut être très différent. C’est notamment le cas de l’industrie agroalimentaire où il reste beaucoup d’améliorations à faire. Les usines de production utilisent différents procédés et nécessitent un auditeurs aux compétences multiples. « Il y a de la production de vapeur, du froid, l’air comprimé, du séchage, du gaz, de l’électricité… cela nécessite d’avoir toutes les compétences», analyse Julien Adam. « L’agroalimentaire est moins mâture d’un point de vue efficacité énergétique qu’un producteur d’énergie ou un secteur de la chimie ou de la métallurgie», note-t-il. Elles auront donc davantage recours à des auditeurs externes.
Dans le secteur de l’automobile et des transports, on trouve un peu de tout et les entreprises communiquent plus ou moins. Par exemple, Renault communique volontiers sur sa démarche et a centralisé la prise en compte de la directive européenne en confiant le pilotage de la démarche au responsable de la performance énergétique de ses usines véhicule. Le périmètre couvert par des audits internes ou avec des partenaires extérieures est l’Europe entière, aussi bien pour les usines, les stocks, les bureaux, les centres d’essai, que les succursales (réseau commercial). De son côté, PSA communique moins, car cela correspond moins à la stratégie de communication du groupe.
Pour la grande distribution, l’amélioration de l’efficacité énergétique peut également améliorer la rentabilité des entreprises. Carrefour a anticipé la loi en amont et est le premier distributeur français certifié ISO 50001 depuis janvier 2014. « L’audit énergétique est souvent la première étape avant d’aller vers un système de management de l’énergie, relève Julien Adam. Pour les entreprises qui, aujourd’hui, n’ont jamais fait d’audit, c’est un non sens d’aller directement vers l’ISO50001 ». « Ce sont les entreprises qui ont une certaine maturité sur la performance énergétique, qui ont déjà fait des audits, qui connaissent déjà bien leur consommation d’énergie et leur potentiel d’amélioration qui vont en profiter pour mettre en place un système de management de l’énergie et le faire certifier », prévient l’expert. « Pour certaines entreprises qui ont un très grand nombre de sites, cela peut être moins cher d’être ISO 50001 que de faire des audits énergétiques pour chaque site », remarque-t-il également. Les grands distributeurs qui n’ont pas encore mis leur démarche en avant devront s’y mettre, ne serait-ce que pour se positionner face à leurs concurrents.
Enfin, s’il y a des petites entreprises de tous secteurs qui misent sur l’efficacité énergétique pour améliorer leur compétitivité, pour certaines, l’énergie n’a jusqu’ici pas joué un rôle important. « Certaines en profiteront pour faire un audit sérieux, d’autres feront un audit à la va vite pour pas cher », prévient Julien Adam. « Mais il est difficile de distinguer des secteurs particuliers, cette situation est diffuse dans tous les secteurs », garantit-il.
La longue valse d’une toupie dans une chambre à vide ;
Hasta la vista, baby : du métal liquide animé qui change de forme ;
Le gadget (inutile?) de la semaine : le karting à réaction de Colin Furze ;
Et en bonus cette semaine : assembler un immeuble de 57 étages en 19 jours.
Ballet aérien des papillons bioniques de Festo
Pour débuter notre quatre-vingt-unième Revue du Web, commençons par rendre une nouvelle petite visite à la jeune start-up allemande Festo, spécialisée dans le développement et dans l’innovation des mouvements robotiques. Derniers nés de leur laboratoire de recherche, les papillons « eMotion » respirent la légèreté et se meuvent indépendamment mais en parfaite coordination, dans un ballet des plus aériens. Pour réaliser ce tour de force, pas moins de dix caméras infrarouges auront été nécessaires, quadrillant la zone test de leurs 160 images par secondes (avec une exposition de l’ordre de 250 microsecondes), et suivant la trace des papillons bioniques via leur marqueur infrarouge. Ce réseau offre à l’analyse plus de 3,7 milliards de pixels de données chaque seconde, permettant au superviseur central de contrôler de manière fluide le vol de ces drôles d’insectes.
Comme souvent chez Festo, le système de guidage et de monitorage ne semble pas souffrir de la miniaturisation à l’extrême. Les papillons « eMotion » impressionnent aussi dans leur mimétisme, produisant du haut de leurs 32 grammes un vol groupé étonnamment fidèle à celui de leurs alter ego naturels. Les ingénieurs de Festo n’en sont pas à leur coup d’essai, l’essaim de papillons « eMotion » vient en effet s’ajouter au bestiaire déjà fantastique de la compagnie allemande, composé entre autres d’un goéland robot plus vrai que nature dont nous vous parlions ici, d’une très élégante libellule robotique que vous pouvez retrouver là ainsi que d’un étonnant kangourou bionique.
La longue valse d’une toupie dans une chambre à vide
Faire tourner longtemps une toupie réclame un peu de doigté… mais quelle que soit la qualité de l’impulsion de départ, la toupie finira toujours par s’essouffler assez rapidement avant de se coucher. L’un des responsables, en dehors du support ? L’air ambiant, et la résistance qu’il offre à tout instant, ralentissant jusqu’au déséquilibre final le petit objet rotatif. Mais que se passe-t-il si l’on essaie de se débarrasser de ce dernier paramètre, ô combien encombrant ?
C’est ce qu’a voulu nous montrer un internaute éclairé sur sa chaîne Youtube, en comparant un premier lancer dans des conditions normales, puis un second lancer qui se déroulera en grande partie sous cloche, cloche faisant office de chambre à vide artisanale. Le résultat est édifiant : alors que la première impulsion fait seulement tourner la toupie dix petites secondes, le second lancer semble ne jamais vouloir s’arrêter, jusqu’à atteindre les 84 secondes. Le protocole expérimental n’est peut-être pas parfait, mais le résultat reste éloquent. On a beau être encore loin de la toupie qui tourne à l’infini du fabuleux film de Christophe Nolan, Inception, mais c’est toujours mieux que rien.
Hasta la vista, baby : du métal liquide animé qui change de forme
Le T-1000 était-il essentiellement constitué d’un alliage de gallium ? Difficile de ne pas penser au méchant androïde du film Terminator 2, réalisé en 1991 par James Cameron, lorsqu’on regarde évoluer la goutte métallique présentée dans la vidéo qui suit. Pour ceux d’entre vous qui ne seraient pas familiers avec le deuxième opus culte de la franchise américaine, le T-1000 aura autant fasciné que traumatisé toute une génération de cinéphiles, notamment grâce à ses capacités de régénération et de mimétisme, se liquéfiant puis se reformant rapidement et à l’envi.
Cette goutte d’un alliage essentiellement constitué de gallium (liquide aux alentours des 30°C), mais tout de même mâtiné d’un peu d’iridium et d’étain, se comporte de manière tout à fait particulière lorsqu’elle est plongée dans une solution d’hydroxyde de sodium (autrement dit, de la soude caustique). Lorsqu’elle est mise en contact avec une très petite quantité d’aluminium, la goutte peut bouger près d’une heure, que ce soit en parcourant une ligne droite ou en suivant une trajectoire plus complexe, voire en tournant sur elle-même, comme dans un roulement à bille. Une goutte de gallium stationnaire pourrait d’ailleurs faire office de pompe en tournant sur elle-même, une pompe charriant 50 millilitres d’eau par seconde et ne nécessitant pas d’être alimentée.
Une partie de cette poussée proviendrait du déséquilibre de charge à travers la goutte, créant un différentiel de pression entre les zones avant et arrière de l’alliage, poussant ainsi la goutte vers l’avant. L’aluminium réagirait également avec l’hydroxyde de sodium, une réaction relâchant des bulles d’hydrogène et accélérant les mouvements de la bulle. C’est par contre une fois soumis à un courant électrique que la parité avec Terminator se fait sentir. Jugez plutôt !
Le gadget (inutile?) de la semaine : le karting à réaction de Colin Furze
Vous vous souvenez de Colin Furze, l’inventeur le plus dangereusement enthousiaste du monde ? Nous vous parlions déjà de son univers loufoque ici et là, réalisant sur sa chaîne Youtube un grand écart inquiétant entre l’univers Marvel et le « Jet Bicyle », qu’il définit lui-même, non sans fierté, comme le vélo le plus dangereux au monde. La bonne nouvelle, c’est qu’il a survécu, envers et contre tout. La mauvaise nouvelle, c’est qu’il continue de faire des doigts d’honneur à sa bonne étoile, garantissant ainsi un bel avenir à notre rubrique du gadget (inutile?) de la semaine qui, vous l’aurez compris, lui est consacrée.
Le jeune inventeur s’est cette fois-ci mis en tête de créer un karting à réaction, propulsé de la plus belle manière qui soit. Pour démarrer son effrayant joujou, Colin a décidé de s’appuyer sur un couple bouteilles de gaz / souffleur de feuilles (!!!), plus simple à démarrer lorsque le moteur est froid, et ne nécessitant pas de système à injection complexe. C’est ensuite le diesel qui prend le relais, propulsant l’engin à toute vitesse. Notre petit génie britannique du DIY (« Do It Yourself », le fait-maison) n’a décidément pas froid aux yeux : peu importe que la route soit complètement défoncée, il emmène sa poubelle au moteur rougi par l’extrême chaleur à près de 97 kilomètres heure, sans ceinture ni protection. Mais en cravate.
Pour ceux d’entre vous qui voudraient le même chez eux, vous pouvez jeter un œil aux deux vidéos qui suivent, l’une expliquant comment créer le châssis, l’autre se consacrant à la partie propulsion. Vous pourrez alors vous assurer que, bien que timbré, Colin Furze sait tout de même ce qu’il fait.
Bonus : assembler un immeuble de 57 étages en 19 jours
Imaginez partir en vacances pendant trois semaines, loin de la maison… pour retrouver à votre retour un gigantesque et rutilant immeuble, flambant neuf, à quelques encablures de chez vous. Qui d’autre que l’Empire du Milieu peut se targuer d’être capable de construire un gratte-ciel en 19 jours ? Au rythme effréné de trois étages par jour, le promoteur immobilier chinois en charge du titanesque chantier et du projet « Mini Sky City », parvient à élever un immeuble de 57 étages, dans un délai record.
Situé à Changsha, capitale de la province du Hunan, à l’est du pays, le gratte-ciel aura évidemment réclamé un peu plus que les 19 jours annoncés, temps nécessaire à l’assemblage méticuleux des morceaux préfabriqués. Ce bonus de la semaine n’en reste pas moins un véritable tour de force.
Des nanomédicaments qui peuvent être activés à distance à l’aide de stimuli physiques externes comme la lumière ou le champ magnétique. On parle alors de thérapies dites « physiques ». C’est dans ce contexte que s’inscrivent les travaux des chercheurs des laboratoires Matière et Systèmes Complexes (CNRS/Université Paris Diderot) et Physicochimie des Electrolytes et Nanosystèmes Interfaciaux (CNRS/UPMC), menés en collaboration avec le PARCC, le Paris-Centre de Recherche Cardiovasculaire (Inserm/Université Paris Descartes), dont les résultats sont publiés dans le numéro de mars dernier de la revue ACS Nano.
Utilisant un liposome qui, rappelons-le, est une vésicule artificielle dotée d’un compartiment interne formé par des bicouches lipidiques, ces chercheurs y ont encapsulé des nanoparticules magnétiques en quantité suffisante pour le rendre ultra-magnétique, puis ont inséré des photosensibilisateurs dans sa biocouche lipidique. Ces liposomes ont ensuite été injectés directement dans la tumeur d’une souris, cette association originale de nanoparticules et de photosensibilisateurs permettant à ces chercheurs de combiner deux techniques, l’hyperthermie magnétique et la photothérapie dynamique, pour détruire intégralement les cellules cancéreuses. La première d’entre elles consiste à exciter les nanoparticules encapsulées à l’aide d’un champ magnétique afin d’augmenter la température de la tumeur et de la détruire. La seconde technique, elle, est rendue possible par la présence des photosensibilisateurs qui, lorsqu’ils sont éclairés, libèrent des espèces réactives de l’oxygène, toxiques pour les cellules tumorales.
L’association de ces deux techniques a permis ainsi d’obtenir une régression tumorale totale chez la souris, alors que l’utilisation d’une seule thérapie ne permet pas de stopper la croissance de cette tumeur. Reste désormais pour ces chercheurs a exploiter les autres propriétés magnétiques des liposomes afin d’améliorer le traitement. Visibles en IRM, ces nanopaticules peuvent être déplacées en effet à l’aide d’aimants. D’où la possibilité, suite à leur injection dans la circulation sanguine, de cibler, grâce à des aimants, les liposomes vers les tumeurs, tout en cartographiant leur destination finale par IRM. A suive…
Tran Truong est professeur de mathématique au Viêtnam. Il a imaginé un exercice de calcul mis en forme de façon ludique.
Il s’agit d’un serpentin de 27 cases illustrant une série d’opérations simples aboutissant au résultat 66. Pour arriver à ce chiffre, le calcul comporte 4 additions, 3 soustractions, 3 multiplications, 2 divisions et met en jeu 13 nombres. Parmi eux, 4 sont connus (13, 12, 11 et 10). L’objectif est de retrouver la place des chiffres manquants compris entre 1 et 9, chacun n’étant utilisable qu’une seule fois.
Cet exercice a été proposé en classe de primaire, d’un niveau équivalent à celui du CE2 en France, mais aucun élève n’a réussit à le résoudre ! Intrigué, le professeur l’a donc montré à des adultes, des amis et même des confrères mathématiciens. Tous ont été incapables de le résoudre. Car l’exercice est en réalité très compliqué à solutionner si on se limite à une feuille et un crayon. Même avec une calculatrice, en tentant des combinaisons au hasard, ce véritable casse-tête vietnamien en tient en échec plus d’un.
Réalisant la difficulté de l’exercice qu’il avait créé, Tran Truong décide de mettre l’exercice en ligne. Depuis, les internautes s’arrachent les cheveux. Les amateurs d’énigmes, les amoureux des chiffres, les dingues de calcul, tous butent sur cet exercice. Pourtant, il n’existe pas une mais plusieurs solutions.
Pour ceux qui s’y connaissent un peu en programmation, une petite macro pourra en venir à bout rapidement et vous soulager les neurones. Mais c’est un peu de la triche. Alors, saurez-vous trouver une solution à ce serpentin arithmétique avec pour seules armes une feuille, un stylo et votre cerveau ?
Pour ceux qui craquent, nous vous révélons une des solutions existantes : 5,2,1,3,4,7,8,9,6 (5+(13*2/1)+3+12*4-7-11+(8*9/6)-10 = 66)
Prenez une boite divisée en deux zones, l’une avec de l’eau et l’autre sans. Un sas sépare les 2 parties.
Placez un rat dans la moitié avec un fond d’eau de telle sorte qu’il soit à moitié immergé et un deuxième de l’autre côté. Si le rat bien au sec s’est déjà trouvé immergé dans la zone de la boite contenant de l’eau, alors il va s’empresser d’ouvrir le sas pour libérer son « ami » rat.
Une aide qu’il apportera même s’il ne s’est jamais retrouvé dans la situation du rat immergé, mais avec moins de rapidité.
A contrario, si aucune zone de la boite n’est inondée, les rats ne cherchent pas à ouvrir le sas.
Cette expérience prouve que les rats sont capables de ressentir de l’empathie vis-à-vis de leurs congénères. Mieux, cela témoigne qu’une mauvaise expérience passée renforce ce sentiment face à un congénère affrontant cette même mésaventure.
Cette aptitude à l’empathie avait déjà été suggérée en 2011 par des chercheurs de l’Université de Chicago. Ils avaient montré que des rats pris dans un appareil de contention pouvaient compter sur leurs congénères pour les délivrer.
Cette empathie, qui consiste se mettre à la place de l’autre et à ressentir ses émotions, n’est donc pas réservée à l’être humain. A ce jour, la capacité de ressentir de l’empathie est attribuée aux singes, aux dauphins, aux éléphants, et donc aussi aux rats.
« Je suis sur un Boeing 737/800, voyons voir la boite IFE ICE SATCOM. […] Mettez vos masques à oxygène ». Ce tweet publié le 15 avril vers 22h par Chris Robert n’a pas vraiment fait rire le FBI. Alors que ce spécialiste en sécurité informatique est tout juste débarqué à Syracuse, la police l’arrête pour un interrogatoire en règle. Et confisque son équipement informatique au passage.
Chris Robert aurait réussi à s’infiltrer dans le système de l’avion en branchant son ordinateur au Seat Electronic Box grâce à un câble modifié. De quoi lui permettre d’atteindre l’In-flight Entertainement System (IFE) que sont les écrans placés à l’arrière des sièges pour visionner des films par exemple, puis le système de contrôle de l’avion, le Thrust management computer. Chris affirme avoir pu contrôler l’un des moteurs et fait faire un mouvement de côté à l’avion dans lequel il se trouvait.
Toutefois, la confusion règne sur les piratages réalisés en vol et ceux réussis sur des simulateurs de vol. Notamment la prise de contrôle de la trajectoire de l’avion qui ne serait « que » virtuelle, les seuls piratages réussis en vol se limiteraient à l’affichage de messages sur les écrans des passagers.
A la tête d’une société de cybersécurité, Chris Robert aurait déclaré avoir hacké une dizaine d’avions entre 2011 et 2014. A ce jour, aucune charge n’est retenue contre lui. Chris Robert est connu pour s’intéresser de prêt à la sécurité des avions avec pour objectif affiché de l’améliorer, il donne même des conférences à ce sujet. Désormais sous étroite surveillance, le hacker ne devrait plus s’amuser à pirater des avions, réels ou virtuels, comme il l’a lui-même confirmé via twitter : « Vu la situation actuelle, on m’a conseillé de ne plus parler ».