News environnement de juillet 2014: transformation de la lumière du soleil en électricité…

Le processus de transformation de la lumière du soleil en électricité révélé

Comment commence le processus de transformation de la lumière du soleil en électricité dans une cellule solaire organique? La réponse vient du groupe de chercheurs du Conseil national de recherches (CNR) qui a fait une vidéo en temps réel, sur une échelle sans précédent : millionièmes de milliardième de seconde. L’étude, menée par l’Institut de nanosciences du CNR à Modène (Nano-CNR) et par l’Institut de photonique et nanotechnologies (IFN-CNR) à Milan, prouve que les premiers instants de la photo-conversion sont régis par la nature quantique des électrons et noyaux impliqués dans les oscillations cohérentes dans des temps ultra-rapides. La recherche, publiée dans la revue « Science », est menée en collaboration avec le Politecnico de Milan, l’Université de Modène et Reggio Emilia et avec des collaborateurs allemands, français et espagnols.

Naissance du processus de transformation de la lumière du soleil en électricité dans une cellule solaire organique

Moins chères et plus polyvalentes que les panneaux solaires rigides en silicium, les cellules solaires organiques font partie des technologies clés pour la production durable et propre d’énergie renouvelable. « Elles contiennent des polymères qui absorbent la lumière en mettant en mouvement des électrons », explique Carlo Andrea Rozzi du Nano-CNR, « et des macromolécules formées par 60 atomes de carbone, les fullerènes, qui recueillent la charge électrique. Nous nous sommes proposés de comprendre comment se déclenche entre les deux molécules le transfert d’électrons qui donne lieu au courant ». « Un phénomène qui advient à une vitesse tellement rapide qu’il était jusqu’ici inaccessible expérimentalement », ajoute Giulio Cerullo du Politecnico de Milan et de l’IFN-CNR. « Désormais, nous sommes en mesure de l’observer et d’en capturer des images individuelles grâce à des flash de lumière laser ultrarapides, une technologie développée au Département de physique du Politecnico. »

Afin d’étudier ce qui se passe dans un temps de quelques dizaines de femtosecondes (millionième de milliardième de seconde) les chercheurs ont combiné les expériences de spectroscopie laser ultra-rapides, dirigées par Giulio Cerullo, avec une série de simulations informatiques, coordonnées par Carlo Andrea Rozzi. « Nous avons simulé la dynamique de transfert d’électrons entre polymère et fullerène en tenant compte de la nature quantique de la matière », explique Elisa Molinari, physicienne de l’Université de Modène et Reggio Emilia et directrice du centre Nano-CNR à Modène. « Les images que nous obtenons sont surprenantes. Les calculs et expériences montrent que la naissance de l’ensemble du processus de photoconversion se fait grâce à l’oscillation coordonnée des électrons et noyaux atomiques, un comportement que les physiciens appellent la cohérence quantique, sans laquelle il n’y aurait pas de transfert de charge ni de courant électrique. Nous estimons que ces résultats peuvent guider la construction de nouveaux matériaux artificiels capables de convertir la lumière solaire en énergie avec une efficacité maximale. »

Source : bulletins-electroniques

Le captage du CO2 serait nécessaire pour atteindre les objectifs climatiques

Afin de réduire les risques et les coûts engendrés par le changement climatique et pour atteindre les objectifs climatiques fixés par le Groupe Intergouvernemental d’Experts pour le Climat (GIEC), des technologies aujourd’hui controversées peuvent s’avérer nécessaires. La combinaison d’une production d’énergie à partir de combustibles fossiles et de biomasse avec la capture et le stockage du dioxyde de carbone émis (CCS) pourrait être une technologie clé pour respecter la limite d’un réchauffement maximal de deux degrés. C’est ce que montre l’étude la plus complète sur les stratégies technologiques possibles pour lutter contre le changement climatique, qui a été publiée dans un numéro spécial de la revue Climatic Change. Pour cette étude, les simulations de 18 modèles informatiques d’une équipe internationale de chercheurs ont été examinées au Stanford Energy Modeling Forum (projet EMF 27).

« Pour réduire les coûts du changement climatique, les technologies polyvalentes semblent être les plus intéressantes », explique l’auteur principal Elmar Kriegler, de l’Institut de recherche de Potsdam sur les effets du changement climatique (PIK, Brandebourg). La bioénergie tout comme le CCS peuvent contribuer à réduire les émissions liées à l’utilisation d’énergie non électrique, qui serait autrement difficile à décarboner. Dans l’industrie de l’acier, par exemple, la combustion du charbon de coke dans les hauts fourneaux pourrait être combinée avec le CCS ; dans le secteur des transports, les combustibles fossiles pourraient être remplacés par les biocarburants. « Les herbes et les arbres qui sont utilisés pour la production d’énergie à partir de biomasse, consomment du CO2 pour leur croissance. En combinaison avec le CCS, du CO2 peut donc être retiré de l’atmosphère pour compenser les émissions qui se produisent inévitablement dans certains secteurs et ne pourront être évitées qu’à long terme ou partiellement », explique M. Kriegler.

Un grand nombre de simulations effectuées dans le cadre de l’étude ne permettaient d’atteindre les réductions d’émissions nécessaires à l’objectif de deux degrés sans l’utilisation de la bioénergie en combinaison avec le CCS. Dans d’autres simulations, les coûts du changement climatique dans les scénarios sans CCS ont en moyenne plus que doublé. Cependant, l’énergie produite à partir de biomasse peut entrer en concurrence avec le secteur alimentaire du fait des surfaces agricoles nécessaires, tandis que le captage et le stockage souterrain du dioxyde de carbone provenant des centrales électriques à l’échelle industrielle n’est pas encore testé.

L’étude a été en mesure d’établir l’électrification accélérée de l’utilisation d’énergie par les consommateurs comme un facteur robuste de transformation – par exemple à travers plus de voitures électriques ou des fours électriques dans l’industrie de l’acier. En outre, une augmentation de l’efficacité énergétique pourrait être considérée comme une autre stratégie importante pour soutenir la politique climatique, en permettant de réduire de moitié le coût du changement climatique. Cependant, sans mesures fortes pour décarboner la production d’énergie, une amélioration de l’efficacité énergétique seule ne serait pas suffisante pour atteindre l’objectif des deux degrés. « Notre étude donne des raisons de croire que nos stratégies technologiques pour atteindre les objectifs de la politique climatique sont disponibles », explique John Weyant, directeur du Stanford Energy Modeling Forum. « Toutefois, ces stratégies ne peuvent être efficaces que si les politiques climatiques efficaces sont très bientôt mises en oeuvre. »

Source : bulletins-electroniques

La Russie se lance-t-telle dans le pétrole non-conventionnel ?

Le district autonome des Khanthys-Mansis-Iougra, situé en Sibérie occidentale, est une des régions russes les plus riches en pétrole. La moitié du pétrole de Russie produit actuellement est extrait de cette région. Pour mesurer la place stratégique de cette région dans l’économie de la Fédération, il suffit de rappeler que selon des données de Rosstat, agence fédérale des statistiques, la deuxième région extractrice, le district autonome Yamal-Nenets, située dans la partie arctique du pays, pèse seulement 7% du total. Les méthodes actuelles d’extraction permettraient d’extraire 3,8 milliards de tonnes de pétrole en Iougra. Néanmoins, il existe de nombreuses autres réserves de pétrole encore non exploitées. Des techniques innovantes, notamment de récupération assistée du pétrole, permettraient d’exploiter jusqu’à 10 milliards de tonnes de pétrole dans cette région. Les enjeux scientifiques et technologiques sont donc très importants.

Pour répondre à ces défis, la région Iougra a fait appel à l’Académie des sciences (RAN), avec qui elle a signé un accord de coopération. Les scientifiques russes apporteront leur expertise pour réévaluer les réserves de pétrole et pour développer des nouvelles méthodes de récupération du pétrole. L’université de Sourgout, plus grande ville du district, collaborera notamment avec la RAN sur les aspects de modélisation informatique des réserves de pétrole et de gaz à l’aide de superordinateurs. Il est également question de créer un centre de recherche et de formation sur ce domaine, en collaboration avec des entreprises comme Gazprom et Surgutneftegaz.

Il est également prévu l’ouverture à 275 km au nord-ouest de Sourgout d’un centre de recherche et de développement tourné vers l’application de nouvelles solutions d’extraction. Il s’agira de la première structure de recherche de Russie travaillant sur les méthodes d’extraction des pétroles non-conventionnels. De plus, la RAN engagera des projets de recherches en sciences humaines et sociales ainsi que sur les aspects environnementaux, mobilisant des disciplines comme l’ethnologie ou l’archéologie et portant en autres sur les langues et le folklore des peuples autochtones.

Les dirigeants de la région Iougra ont bien conscience du défi industriel à relever, notamment face à la concurrence mondiale croissante des pétroles non-conventionnels. Ils ont également conscience de la dépendance de leur économie régionale. La RAN mènera ainsi des études prospectives et formulera des propositions de diversification de l’économie locale

Source : bulletins-electroniques

Un capteur de pression dans nos Smartphones ou les box internet pour optimiser les prévisions météo

Intégrer un capteur de pression de quelques millimètres dans des Smartphones ou des box, voilà une idée intéressante. A l’origine, des scientifiques américains s’intéressant à la précision des prédictions des phénomènes météo quand on intègre dans les calculs des données de pression issues des Smartphones des citoyens. L’étude a été menée au département des sciences atmosphériques de l’Université de Washington. Les chercheurs ont combiné les données provenant de 350 Smartphones aux 110 mesures du réseau officiel local. En comparant les prédictions avec et sans les données des téléphones, il est apparu que la prédiction la plus proche de la réalité de l’évènement choisi pour le comparatif, l’orage du 30 juin 2013 qui s’est abattu a Washington, est celle incluant les informations récoltées en plus grâce aux téléphones « civils ».

Le nombre croissant de Smartphones en fonctionnement pourrait donc servir pour alimenter les modélisations météos et les rendre plus fiables. Toutefois, avant d’en arriver à l’exploitation de ces informations, il est important de considérer la précision de ces capteurs. Les chercheurs américains indiquent que même si celle-ci peut se révéler insuffisante ponctuellement, ces erreur sont très largement compensées par la quantité de données traitées. Idem, les mesures erronées seraient facilement filtrables, toujours à cause de la masse d’informations  dont est extraite une valeur moyenne qui sert de référence. Les mesures seraient donc fiables. Ce gain de précision serait toutefois limité aux zone à haute densité de population, soit principalement les zones urbaines.

Un de nos confrères de Slate.fr, Nicolas Baldeck, suggère d’exploiter aussi les box internet. En effet, leur démocratisation fait que de nombreux foyers en sont équipés, ce qui pourrait être la base d’un maillage de l’ensemble du territoire. Mais à ce jour, des doutes subsistent quant à la sensibilité de tels capteurs de pression à la chaleur dégagée dans les boitiers des boxs, que le capteur soit positionné à l’intérieur ou à l’extérieur.

Au-delà de ces considérations techniques surgit la problématique économique. Météo-France monnaye ses données météorologiques et ne sera peut-être pas ravie de partager ces chiffres avec les opérateurs téléphonique et fournisseurs d’accès à internet. 

Par Audrey Loubens

Un tatouage sur la gorge, à la fois kit mains libres et détecteur de mensonge…

Ce tatouage d’un autre genre se place au niveau du cou, au plus proche des cordes vocales. Doté d’un circuit électronique, d’un microphone, d’un bloc d’alimentation et d’un mini-écran, son utilisation première sera de téléphoner. Exit le kit main libre standard, cette nouvelle génération de micro permettra de communiquer via Wifi, Bluetooth ou tout autre système de communication sans fil, ce choix n’étant pas encore défini. Le tatouage pourra être connecté  à un Smartphone et pourquoi pas à des Google Glass. Motorola appartenant à Google, des liens entre ces produits sont très probables.

Quel est l’intérêt de ce tatouage connecté ? Tout d’abord, il s’agit d’un kit mains libres amélioré qui permet donc de téléphoner sans coller son téléphone à l’oreille. Mais surtout, il devrait permettre d’améliorer les communications. Positionné au plus près de la gorge de l’utilisateur, ce système diminue le rapport signal/bruit pour gagner en qualité sonore. Idéal pour les coups de téléphones dans les lieux bruyants comme les restaurants ou les bars. Plus proche d’un patch autocollant que d’un tatouage, ce système pourrait être alimenté en utilisant l’énergie solaire ou tout simplement être jetable.

Mais une deuxième fonction pourrait être envisagée, celle de la détection de mensonge ! Une application basée sur l’analyse du rythme cardiaque et des réactions épidermiques. Exactement comme les systèmes déjà existants. Cet usage n’est pas explicite dans le brevet déposé, mais est nettement suggéré puisqu’il y figure cette phrase: «  Le tatouage pourrait inclure un détecteur de réaction cutanée. Il a été démontré qu’un utilisateur qui pourrait être nerveux ou qui raconte des mensonges montre des réactions cutanées différentes de lorsqu’il dit la vérité. »

Un tel système de communication pourrait toutefois avoir d’autres usages comme des applications médicales grâce à différents capteurs, pour les hommes mais aussi les animaux.

Alors, prêt à vous faire tatouer le cou ?

Par Audrey Loubens, journaliste scientifique

Mise en place de la norme SEPA : dernière ligne droite

Un délai supplémentaire a été déjà été accordé, la date initialement prévue (février 2014) ayant été reportée au 1er août. Les entreprises n’ont donc plus qu’un mois pour se conformer à la nouvelle norme SEPA (Single Euro Payments Area).

Si la plupart des grands groupes ont déjà effectué cette migration, la majorité des TPE/PME tardent à franchir le cap. Pourtant, le passage à la norme SEPA implique de façon plus ou moins importante les différents services des sociétés (comptable, RH, commercial, informatique, juridique…).

Quelles sont les implications de cette nouvelle norme ?

Le SEPA s’applique aux virements et aux prélèvements nationaux et européens. Afin de mettre en place cette nouvelle norme, plusieurs actions auprès des différents partenaires sont indispensables.

Au-delà de l’obtention d’un nouvel identifiant bancaire (ICS), un code unique devra être attribué à chaque débiteur (RUM). Les mandats d’autorisation de prélèvements doivent être renouvelés sous la responsabilité du créancier.

Il est également nécessaire de s’assurer que l’ensemble des applications informatiques impactées par l’émission de prélèvements ou de virements soient compatibles avec la nouvelle norme SEPA. Des tests en interne et avec les banques sont à prévoir avant toute mise en place définitive.

Un risque important pour la trésorerie des entreprises ?

La migration informatique des outils de gestion et des moyens de paiement qui doit être effectuée par les entreprises peut impliquer des investissements et des délais de mise en place parfois importants.

De plus, à défaut d’anticipation et de préparation avant le 1er août prochain, de nombreuses sociétés pourraient ne plus être en mesure d’effectuer de paiements, pas plus que d’en recevoir et mettre ainsi leur activité en danger.

Source : Baker Tilly France

287068/Union-Européenne-entrepreneurs//72/WQ/VBS3001

Revue du web #62 : les vidéos les plus étonnantes de la semaine

Cette semaine dans la revue du Web :

  • « For those who see », élégant ballet éphémère d’anneaux de fumée ;
  • De l’art délicat de cuisiner son robot (et d’en tirer quelque chose de bon) ;
  • Crabster CR200, robot monstrueux censé révolutionner les explorations sous-marines ;
  • Jouer à Tetris sur son T-shirt, un jeu d’enfant ;
  • Le gadget (inutile ?) de la semaine : SociBot-Mini, le robot qui peut emprunter le visage d’un ami ;
  • Bonus : Theo Jansen, génial inventeur et artiste cinétique.

« For those who see », élégant ballet éphémère d’anneaux de fumée

Pour débuter notre soixante-deuxième Revue du Web en douceur, jetons un œil à une installation épatante baptisée « For those who see », conçue par Daniel Schulze, un artiste allemand basé à Berlin. « For those who see » se propose de montrer la beauté de l’invisible à travers un réseau de sept par sept enceintes recouvertes d’un fin tapis de fumée, chacune des enceintes générant un petit anneau blanc à chaque impulsion qui leur est donnée – et donc à chaque fois qu’un son leur est jeté en pâture. Les vortex ont une durée de vie très limitée, de seulement quelques secondes, ce qui créé un élégant ballet éphémère d’anneaux de fumée.

Cette installation permet également de visualiser des signaux numériques, traduits par des anneaux uniques respectant une suite logique, notre perception visuelle connectant les vortex orphelins en un ensemble esthétiquement harmonieux.

De l’art délicat de cuisiner son robot (et d’en tirer quelque chose de bon)

Les robots imprimables – ceux que l’on peut assembler à partir de morceaux sortant d’une imprimante 3D – n’ont plus de secret pour Daniela Rus, sommité et chercheur en ingénierie électrique au prestigieux Massachusetts Institute of Technology (MIT). A la tête de son propre laboratoire depuis quelques années, elle s’est fendue d’une nouvelle petite trouvaille qu’elle a présentée lors de la Conférence Internationale sur la Robotique et l’Automatisation de cette année, organisée par l’Institut des ingénieurs électriciens et électroniciens (IEEE).

Le concept est simple : parvenir à mettre au point des composants robotiques imprimables en trois dimensions qui, lorsqu’ils sont exposés à certaines températures, se plient automatiquement en épousant des configurations tridimensionnelles pensées au préalable. Débutant avec une modélisation 3D de la forme que l’on souhaite obtenir, l’équipe de Daniela Rus utilise ensuite un logiciel de Conception Assistée par Ordinateur afin de décomposer le volume et en faire un origami, simplifié ou non. Il suffit alors d’imprimer en plastique ce modèle final, pour qu’il reproduise la forme initiale en se repliant sous l’effet de la chaleur. Que ce soit un humanoïde, une forme ovoïde ou encore le célèbre lapin de Stanford – un modèle de test utilisé dans le domaine de la synthèse d’image et développé en 1994 à l’université Stanford par Greg Turk et Marc Levoy, à partir du balayage laser 3D d’une figurine de lapin en céramique – la méthode semble marcher à merveille.

Le MIT veut même aller plus loin : le laboratoire de Daniela Rus travaille actuellement sur des extensomètres à fils résistants – permettant de traduire la déformation d’une pièce en variation de résistance électrique – qui laisseraient passer une quantité de courant variable en fonction de leur compression, ainsi que sur des bobines s’enroulant seules, parfaits actionneurs auto-pliants.

Crabster CR200, robot monstrueux censé révolutionner les explorations sous-marines :

Le carnet rose de l’Institut Coréen des Sciences Océaniques a cessé d’être vierge. Nous pouvons désormais souhaiter la bienvenue à Crabster CR200, joli bébé de 635 kilos pour 2 mètres de haut, 2,42 mètres de long et 2,45 mètres de large. Derrière ces proportions éléphantesques se cache un monstre que n’aurait pas renié Jules Verne au moment de l’écriture de Vingt mille Lieues sous les mers.

Ses six pattes en aluminium recouvert de fibre de verre lui accordent une résistance et une posture qui devrait lui permettre de supporter des courants qu’aucun  plongeur ne pourrait décemment affronter. Les deux pattes avants possèdent chacune une pince pouvant collecter des objets sur place, et lui assurant à la fois stabilité et une plus grande manœuvrabilité.

Un câble de 500 mètres de long permet aux opérateurs humains de contrôler ce crabe/homard robotique à distance, câble véhiculant également les informations collectées en profondeur par le robot coréen. Car il faut pas moins d’un pilote pour le diriger et assurer sa posture, un copilote pour les pinces, et plusieurs autres opérateurs pour superviser la collecte des informations. Et le moins qu’on puisse dire est qu’il est équipé pour : dix caméras HD mobiles dont une capable de filmer ce qu’il se passe à l’extérieur comme à l’intérieur du robot, à des fins d’inspection ; une caméra acoustique utilisant les ondes sonores pour générer des images en eaux troubles, et ce jusqu’à une distance de 15 mètres ; un sonar d’une portée de 150 mètres, capable de cartographier les fonds marins en trois dimensions ; un Doppler acoustique pour jauger la force et la direction des courants.

Présenté « nu » dans la vidéo, vous pouvez le voir avec sa carapace dans la photo qui suit :

Jouer à Tetris sur son T-shirt, un jeu d’enfant

Après la carte de visite la plus cool du monde, que nous vous présentions déjà ici (//www.techniques-ingenieur.fr/actualite/web-thematique_89430/revue-du-web-58-les-videos-etonnantes-de-la-semaine-article_199042/article_199042_1.html), Tetris n’en finit pas d’être revisité par toute une génération bercée par le thème aux forts accents russophones et par les cascades de pièces géométriques. Pour célébrer les trente ans du célèbre jeu culte, Mark Kreger a également tenu à marquer le coup à sa manière. Armé de 128 diodes électroluminescentes, de quatre boutons physiques et quelques autres pièces imprimées en 3D, d’un microcontrôleur Arduino Uno, de quatre piles AA et d’un peu de patience, le bricoleur luxembourgeois est parvenu à customiser un T-Shirt pour le rendre… jouable. Le T-Shirt, qui ne sera pas commercialisé, donnera peut-être quelques idées à d’autres bricoleurs du dimanche.

Le gadget (inutile ?) de la semaine : SociBot-Mini, le robot qui peut emprunter le visage d’un ami

Pour conclure notre soixante-deuxième Revue du Web, rien de tel qu’une fausse bonne idée dont la réalisation donne un résultat un brin… angoissant. Développé par la société britannique RoboThespian, le SociBot-Mini est un robot social qui semble, de prime abord, cumuler de nombreux points forts : il est capable de gérer la reconnaissance vocale et faciale, il est doté d’un système de synchronisation labiale, il maîtrise la synthèse vocale dans près de vingt idiomes, mais il est également capable de mesurer la profondeur de champ et de pister plus d’une dizaine de personnes à la fois, grâce à une caméra de type Kinect.

Le hic, c’est d’avoir voulu faire en sorte qu’il épouse les traits d’un ou de plusieurs de nos proches – si leur visage a été scanné au préalable – tel un alter-ego angoissant de ces personnes qu’on aime tant. Comme souvent, plus on veut pousser loin le réalisme et le mimétisme, plus le raté est grand… Destiné, entre autres, aux secteurs de la recherche et de l’éducation, SociBot risque de faire peur à plus d’une de nos chères têtes blondes.

Jugez plutôt !

Bonus : Theo Jansen, génial inventeur et artiste cinétique

En bonus cette semaine, partons à la découverte du travail de Theo Jansen, génial artiste néerlandais réalisant de sublimes sculptures cinétiques – œuvres contenant tout ou seulement quelques parties en mouvement. Connu pour ses gigantesques et quelque peu effrayants myriapodes composés de légers tubes en plastique ainsi que d’une voilure leur permettant de se mouvoir au gré du vent, il s’inspire de la théorie de l’évolution génétique pour faire évoluer ses sculptures. En véritable Frankenstein de l’art cinétique, il se retrouve à la tête d’une petite flottille de créatures mobiles quasi-autonomes. Du plaisir pour les yeux !

Par Rahman Moonzur

Les algorithmes de Google ressemblent à s’y méprendre au fonctionnement des fourmis

Les web crawler seraient les ouvriers du roi Google. La seule fonction de ces robots est de parcourir le monde, de lien en lien, et de collecter des ressources que sont les pages, les images, les vidéos… Cette récolte permet ensuite à Google d’indexer les pages du web. Cette façon de travailler n’est pas nouvelle. C’est ainsi que les fourmis recherchent la nourriture ramenée à la fourmilière.

Un article paru dans les Proceedings of the national academy of science of the United States of America met en evidence cette similarité. Les fourmis partent explorer leur environnement de façon aléatoire. Dès que l’une d’entre elles découvre de la nourriture, elle rentre au bercail, laissant sur sa route des phéromones qui permettront à ses collègues de rallier la source. Ainsi, d’autres fourmis vont se diriger vers le lieu où est situé l’aliment, chaque passage renforçant la visibilité de l’itinéraire. En parallèle, le chemin est optimisé par les fourmis. De la même façon, les robots d’indexation se promènent sur la toile et « […] utilisent des centaines de signaux pour trouver la réponse la plus efficace et précise à toute requête, comme la colonie de fourmis s’organise rapidement pour trouver le chemin le plus efficace pour aller à une source de nourriture, une fois qu’elle a été découverte » décrypte Jurgen Kurths, co-auteur de l’étude, dans The Independant. Ce dernier n’hésite pas à qualifier le fonctionnement collectif des fourmis comme meilleur que celui des robots de Google. Le géant américain appréciera.

Par Audrey Loubens

Une entreprise espagnole invente le Facebook des entreprises

L’objectif de BeConnections est d’encourager les contacts et les échanges commerciaux entre les entreprises du monde entier en les connectant entre elles de manière totalement gratuite.

Ainsi par exemple, si une entreprise espagnole a besoin de trouver un partenaire commercial ou un client au Bangladesh, elle n’est pas obligée de le faire en dépensant une grande quantité d’argent et de temps en appels téléphoniques et en voyages : Grâce à ce nouveau type de réseau social à destination des entreprises, et à travers des moteurs de recherche permettant de filtrer des résultats par région ou par secteur, chaque entreprise peut se connecter directement à celles qui l’intéressent le plus, économisant ainsi beaucoup de moyen. Cela peut être un avantage déterminant dans le cas des PME, qui ne bénéficient pas des mêmes moyens que les grandes compagnies, mais pourraient ainsi profiter des mêmes opportunités de développement.

L’entreprise a été créée il y a à peine un an, en 2013, mais la plateforme est officiellement en ligne depuis tout juste deux mois. Malgré cela, BeConnections compte déjà parmi ses clients enregistrés des entreprises de plus de 20 pays, tels que la Chine, l’Inde, les Etats-Unis, la Grande-Bretagne, l’Afrique du Sud, l’Arabie-Saoudite, …et la plateforme continue de grandir jour après jour. Le pays le plus actif du réseau à ce jour est l’Espagne, où est établi le siège social de l’entreprise, avec une majorité d’entreprises des secteurs Média et Publicité ainsi que des sociétés de conseil. Parmi les autres pays comptant le plus d’utilisateurs de BeConnections on peut citer les Etats-Unis, l’Amérique Latine ou le Moyen Orient.

La toute jeune entreprise, récemment présentée lors de la Foire Internationale d’Algérie, a également été sélectionnée parmi plus de 10.000 projets candidats pour participer au Summit 2014, la plus grande foire européenne de l’internet, célébrée chaque année à Dublin.

     

Et aussi dans les
ressources documentaires :

     

Ces textiles intelligents qui prennent soin de nous

Biocéramique, polyuréthane, microcapsules, capteurs, LED et fibres optiques, autant de composés qui sont désormais intégrés à des textiles. L’objectif ? Fonctionnaliser le support. Les vêtements ne sont plus simplement inertes mais tendent de plus en plus à devenir actifs. Parmi les nouvelles fonctionnalités, certaines sont dédiées à notre bien-être et notre santé.

T-Shirt Smartex : suivi post-opératoire

Les hauts développés par Smartex sont équipés de capteurs permettant d’enregistrer les rythmes cardiaque et respiratoire ainsi que d’un GPS. Portés par des patients, ces t-shirt facilitent le suivi des interventions chirurgicales. Les informations sont envoyées en temps réel par bluetooth au médecin sur sa boite mail ou son Smartphone.

Couverture LED de Philips : soigner la jaunisse des nouveau-nés

Le groupe néerlandais  a eu l’idée d’intégrer des LED bleues à l’intérieur d’une couverture. La lumière bleue permet de traiter la jaunisse des nourrissons en détruisant la bilirubine, responsable de la couleur jaune de la peau de bébé. La couverture permet d’envelopper le bébé qui peut dès lors être pris dans les bras par ses parents par exemple. Il est aussi exposé de façon plus uniforme à la lumière, ce qui améliore le traitement de la jaunisse tout en protégeant ses yeux du rayonnement. Autre avantage, le personnel soignant ne se retrouve plus exposé.

Textiles de MySenses : lutter contre le coup de chaleur

L’entreprise française a développé des pastilles thermosensibles qui changent de couleur en fonction de la température ou de l’exposition aux UV. MySenses a donc placé des capteurs sur des chapeaux d’enfant ou sous forme de bracelets. Idéal pour surveiller l’exposition aux UV des enfants ou des femmes enceintes par exemple.

Textile de HT Concept : optimiser les performances sportives

Médaillé d’or au concours Lépine, Jacques Casper est à l’origine de la technologie Gold Reflect’Line. Il s’agit d’une membrane en polyuréthane céramique, un matériau qui favorise la récupération musculaire. L’intégration des microparticules de cette céramique en partie composée de roche volcanique à l’intérieur d’un textile est à la source d’émissions d’infra-rouge lointain. Un rayonnement connu pour améliorer la circulation sanguine, réduire les spasmes musculaires ou encore éliminer les toxines.

Pantalons amincissants de Lytess : maigrir

Les cosmétotextiles de Lytess possèdent des microcapsules  remplies de principes actifs amaigrissants.  Ceux-ci sont libérés de façon progressive pour un effet amincissant, drainant, raffermissant… Au choix.

Vêtement auto-bronzant de Lemahieu

Fini les cabines de bronzage ! Pour avoir un teint de vacancier il suffit désormais de porter ses vêtements équipés de microcapsules gorgées d’huiles naturelles facilitant le bronzage. Ces substances sont libérées grâce aux mouvements du porteur et seraient actives jusqu’à 30 lavages.

Ces exemples d’applications utiles ou futiles témoignent de l’essor des vêtements intelligents, et ce dans différents domaines. Le secteur a d’ailleurs été identifié comme confidentiel mais offrant des perspectives de croissance importante.  A tel point que le pôle de compétitivité des textiles et matériaux souples Techtera a labellisé en 2012 le projet  R&D Texactiv’ dont l’objectif est le « développement d’une nouvelle génération de textiles fonctionnalisés avec une action durable sur le bien-être, la beauté et la santé. » et d’ « […] ancrer l’industrie française » sur ce marché émergent.

Par Audrey Loubens

Nucléaire : Dites- nous comment survivre à notre folie ?

Tout commence avec la décision de Kentzaburo Ōe de boycotter le Festival de littérature japonaise d’Aix-en-Provence dont il est l’invité d’honneur, afin de dénoncer les essais nucléaires français.

Claude Simon, soutenant la reprise des essais décidée par Jacques Chirac, réagit de façon violente :

«Vous avez cru devoir, il y a peu, manifester assez grossièrement votre hostilité à mon pays, où vous aviez été invité, en flétrissant les essais nucléaires auxquels celui-ci procède sur un petit îlot du Pacifique à des milliers de kilomètres de chez vous et d’autres pays. De multiples voix d’experts ont cependant affirmé que ces essais sont d’une parfaite innocuité sur l’environnement, tant terrestre que maritime ou humain. Au surplus, à qui fera-t-on croire sans rire que la France médite une guerre d’agression.»

Pour justifier sa position, Claude Simon revient sur les exactions commises par les militaires japonais pendant la deuxième guerre mondiale. Selon lui, la réaction de Ōe illustre la lâcheté et l’hypocrisie de son pays :

«On a complaisamment répandu (cela frappe l’imagination de ceux qui en sont dépourvus) les photographies des ruines d’Hiroshima ainsi que des pitoyables victimes souffrant encore, des années après cette catastrophe, de brûlures et d’affections cancéreuses découlant de la radio-activité. On n’a pas, par contre, montré les photos des populations japonaises contraintes au suicide par vos militaires à l’approche de l’ennemi, non plus celles des survivantes de ces femmes et de ces jeunes filles enfermées dans vos bordels militaires et dont l’équilibre psychique est au moins aussi estropié à jamais que peuvent l’être des corps par des brûlures ou des cancers. J’ai même lu (mais détrompez-moi si cette information est inexacte) que des « médecins » japonais auraient procédé sur des prisonniers de guerre américains (l’équipage, en particulier, d’un bombardier) à des « expériences » d’une impensable horreur dont on n’a connu l’équivalent que dans les camps d’extermination de l’Allemagne nazie, cette Allemagne d’où aujourd’hui, dit-on, provient une grande partie des fonds de financement de Greenpeace.»

Couverture du livre de Kenzaburo Ōe, Dites-nous comment survivre à notre folie ?

L’écrivain japonais, très choqué par les propos de Claude Simon, déplore le patriotisme de son homologue français qui, selon lui, l’empêche d’avoir une véritable conscience écologique :

«Au lieu de critiquer à mon tour une réaction excessive à mettre sur le compte d’un esprit bercé de la Gloire de la Grande France, je me contenterai de dire avec une réelle tristesse que c’est là une interprétation contraire à la réalité et due à l’éloignement de nos deux pays […]. Lorsque vous vous moquez de ceux qui disent que la France est prête à déclencher une guerre d’agression avec ses armes nucléaires, je ne peux certes qu’être d’accord avec vous, mais je tiens aussi à souligner que Jacques Chirac a déjà commencé à agresser l’environnement mondial […]. Cet automne, j’ai fait la connaissance à l’université des Nations unies à Tokyo d’un autre Français remarquable : le commandant Cousteau. Et je me suis demandé pourquoi la voix de ce grand océanographe n’est pas parvenue jusqu’à vous. Cette voix nous met en garde contre les dangers imminents de pollution par la radioactivité que révèlent des plongées réalisées par son équipe sous l’atoll de Mururoa.»

la lettre de Claude Simon intitulée cher Kenzaburo Ōe est parue dans Le Monde du 21 septembre 1995 et la réponse de  Kenzaburo Ōe, dans Le Monde du 28 septembre 1995.

Grande figure pacifiste et humaniste du Japon, Kenzaburo Ōe n’a jamais cessé de rappeler les dangers du nucléaire, militaire et civil. Profondément marqué par l’horreur du bombardement à Hiroshima, il publia en 1965 un recueil d’essais, Notes de Hirshima, consacré aux survivants irradiés.

Plus récemment, la catastrophe de Fukushima lui a donné l’occasion de réaffirmer son engagement contre le nucléaire civil. La tragédie humaine et écologique est au centre de son roman In late style qui paraît dès 2012 en feuilleton dans la revue littéraire 

Par Céline

  • Retrouvez cet article sur le blog La Revue Bancal

L’Allemagne, championne du monde de l’efficacité énergétique (étude) [AFP]

L’étude menée par l’institut American Council for an Energy-Efficient Economy, basé à Washington, a passé au crible 16 des principales économies de la planète.

Le Mexique arrive bon dernier, tandis que le rythme des efforts mis en oeuvre aux États-Unis et en Australie suscite l’inquiétude des auteurs de la recherche.

L’institut a attribué la meilleure note à l’Allemagne, félicitant la première économie européenne pour la rigueur de son code du bâtiment -résidentiel et commercial- ainsi que pour son objectif de réduire la consommation énergétique de 20% d’ici 2020 par rapport aux niveaux de 2008.

« Nous sommes ravis de remporter un deuxième titre en une semaine », s’est réjoui lors d’une conférence de presse l’ambassadeur allemand adjoint à Washington, Philipp Ackermann, faisant référence au sacre de son pays lors de la Coupe du monde de football.

En écho aux conclusions des auteurs de l’étude, M. Ackermann a souligné que l’Allemagne est parvenue à augmenter sa croissance économique tout en améliorant son efficacité énergétique et en réduisant les nuisances environnementales liées au commerce.

« Nous sommes tous d’accord, l’énergie la moins chère est celle que vous n’avez pas besoin de produire », a-t-il déclaré. « Notre stratégie à long terme est de séparer la croissance économique de la consommation d’énergie », a-t-il ajouté.

L’Italie arrive deuxième de ce classement, notamment grâce à son réseau de transports, suivie par l’Union européenne à la troisième position, tandis que la France et la Chine se partagent la quatrième place, devant le Royaume-Uni et le Japon.

« La Chine pourrait encore en faire beaucoup plus, le pays gaspille beaucoup d’énergie, mais des petits progrès sont toujours réalisés », a souligné Steven Nadel, directeur l’institut d’études.

L’étude déplore en outre « la tendance nette au recul » en Australie où le Premier ministre Tony Abbott doute de la réalité scientifique du réchauffement climatique. Son gouvernement a d’ailleurs aboli jeudi une taxe carbone vivement critiquée par les groupes miniers.

Classés 13e, les États-Unis ont réalisé des progrès au plan national selon les auteurs qui regrettent toutefois le gaspillage « énorme » d’énergie qui y est réalisé.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Le stockage massif d’énergie, solution aux générations électriques intermittentes

Le couplage de ces ressources intermittentes avec des centrales électriques alimentées au gaz naturel ou au charbon  permet d’assurer un réglage grossier de la puissance générée, mais certains moyens plus précis tels que les centrales de pompage turbinage ou l’utilisation de batteries électrochimiques en tampon sont nécessaires pour assurer la régulation fine de la génération de puissance sur le réseau.

Si l’Europe utilise massivement le pompage turbinage installé en particulier dans le Massif Alpin (Autriche, Suisse, Allemagne, Italie, France), d’autres nations comme le Japon semblent vouloir mettre à profit leur maîtrise dans les technologies des générateurs électrochimiques pour assurer la régulation fine des puissances délivrées.

Parmi les systèmes électrochimiques disponibles, le plus séduisant, en raison de la disponibilité naturelle des matériaux utilisés dans sa conception et exempt de Lithium, pour ce type d’application où la batterie est fixe, est sans nul doute la batterie Sodium-Soufre qui ne fait appel massivement qu’à de l’aluminium pour les boitiers et couvercles de chaque accumulateur, à de l’alumine béta transporteuse à chaud ( vers les 300°C) d’ions Na+ comme séparateur, ressemblant beaucoup à une coquille d’œuf, en un peu moins fragile, et à du sulfure de sodium inclus dans un réseau de fibres de carbone comme matière électrochimiquement active. Durant la charge les ions sodium traversent  le séparateur et forment du sodium fondu dans la chambre ad’ hoc, les ions sulfures sont oxydés en Soufre fondu dans son réseau de fibres de carbone.

Le principal  inconvénient de ce type de batteries dont le chef de file mondial est le Japonais NGK Insulators, est sa propension à s’enflammer en cas de court-circuit interne par  rupture de l’alumine. En effet, le sodium liquide entre alors en contact violent avec le soufre fondu.

Afin de limiter les dégats, NGK livre la batterie d’éléments enfouis dans du sable et équipée de systèmes limitant la propagation des incendies aux accumulateurs voisins.

Celui qui saurait rendre improbable ce type d’incident ferait faire un grand pas au stockage électrique de l’énergie.

 

Les plus récentes installations de ce type de batterie sont celles réalisées sur l’île de Miyakojima (pour 4MW ou 28 MWh), située à 300 km au sud ouest de l’île d’Okinawa. Citons également la vente d’une batterie de 245 MWh (35 MW) à l’italien Terna.

D’autres types de batteries semblent être candidates également au stockage de grandes quantités d’énergie électrique.

Les batteries au Lithium-Ion sont dès à présent largement sollicitées pour ce type d’applications.

Près de chez nous citons par exemple le système MaxSine eStorage d’Alstom Grid associé au système batterie Intensium Max 20M de SAFT (500 kWh ou 1MW durant 30 minutes) en conteneur et qui devrait être fourni en fin 2014 à EDF pour évaluation aux Renardières. Ce type de batterie a déjà été livré en 2014 par la Saft au Department of  Defense américain.

Au Japon c’est la sous-station de Nishi Sendai qui va être équipée sur 6000 m2 d’un immense système batterie Lithium-Ion  de 20 MWh et de puissance 20 MW (Fig.1).

Figure 1 : illustration de la sous-station japonaise de Nishi Sendai  de Tohoku-Electric Power

Enfin, citons l’accord de joint-venture conclu entre Sony et Hydro-Québec qui vont créer Esstalion Technologies installé à Varennes au Québec en charge du développement de batteries au Lithium Ion Phosphate de Fer (Olivine) destinées à équiper les réseaux électriques gérés par Hydro-Québec.

Dans les divers modes de stockage d’électricité il faut également citer les systèmes REDOX. Le plus célèbre est celui largement étudié par Sumitomo Electric à base de sels de Vanadium (Fig 2 et 3).

Figure 2 : Accumulateur REDOX

Le générateur électrochimique est équipé de deux réservoirs de solutions de Vanadium à des degrés d’oxydation différents qui alimentent « en canard » (pompage continu) un système électrochimique qui forme en charge du V(5+) et du V(2+) respectivement dans l’un et l’autre des compartiments séparés par une membrane échangeuse de protons (PEM) et qui en décharge consomme ces formes très oxydées et très réduites des cations vanadium.

Figure 3 : Projet de sous station de 6 MWh de Minami Hayakita au japon (Sumitomo Electric)

Le principal handicap de ces systèmes, outre sa décharge assez lente, limitée par la surface et la propreté de la membrane, c’est la mobilisation de sels d’un métal peu abondant. En effet pour stocker 6 MWh d’électricité, sous une tension nominale de 1,5 V il faut stocker une quantité d’électricité de 4 MAh.

Or dans un tel système il faut mobiliser deux cations vanadium pour obtenir un électron ce qui se traduit à l’échelle molaire par : il faut deux atome-gramme de vanadium (102g) pour générer 26,8 Ah (un Faraday) d’électricité, ce qui fait 15,2 tonnes de Vanadium pour stocker les 4 MAh de la batterie de Minami Hayakita. Pour mémoire, la consommation mondiale de Vanadium en 2012 était de l’ordre de 80000 tonnes (roskill.com).

Pour approfondir vos connaissances dans les divers modes de stockage d’énergie, vous pouvez vous reporter au site de l’Energy Storage Association (ESA).

Par Raymond Bonnaterre

La Russie renforce scientifiquement ses revendications territoriales en Arctique

La Convention des Nations Unies de 1982 sur le droit de la mer, que la Russie a signée en 1997, précise un certain nombre de notions apparues dans le droit coutumier, notamment de plateau continental, et définit les principes généraux de l’exploitation des ressources de la mer. En vertu de cette convention, si un pays apporte la preuve géologique que son plateau continental s’étend (même roche, continuité sans système de faille) au-delà de la limite des 200 miles nautiques, celle de la zone économique exclusive. Il peut revendiquer également une extension de ses droits souverains jusqu’à 350 miles y compris sur le fond de l’océan.

Les dorsales de Mendeleïev et de Lomonossov sont les deux piliers des prétentions actuelles de la Russie sur l’extension de la limite de son plateau continental jusqu’au pôle Nord. Si la Russie venait à prouver que ces deux dorsales étaient des extensions de son plateau, le pays recevrait le droit d’exploiter 1,2 millions de km2 supplémentaires dans l’Arctique et donc les énormes gisements de pétrole et de gaz situés dans le triangle dessiné par la péninsule de Tchoukotka, Mourmansk et Pôle Nord. La dernière revendication territoriale russe en date, soumis auprès de l’ONU fin 2001, concernait la seule dorsale de Lomonosov. Cette dorsale océanique de l’océan Arctique découverte en 1948 par une expédition soviétique, s’étend sur 1 800 km depuis les îles de Nouvelle-Sibérie jusqu’au large de l’île Ellesmere. La Norvège, le Canada, le Danemark et les Etats-Unis ont également revendiqué ce territoire.

L’enjeu est l’exploitation de vastes gisements d’hydrocarbures qui deviennent plus facilement accessibles sous l’effet du dérèglement climatique et de l’augmentation des températures dans cette zone qui conduit à une réduction de la calotte glaciaire. La Commission de limites du plateau continental de l’ONU n’avait pas accepté en décembre 2002 les revendications russes sur Lomonossov, sans toutefois les rejeter, au motif que « les questions géologiques et géophysiques n’ [avaient] pas été correctement étudiées ». Pour répondre à ces critiques, et poursuivre l’information de son dossier, l’Agence fédérale russe pour l’exploitation des sous-sols, Rosnedra, et le Ministère des ressources naturelles ont mobilisé et supervisé les activités des instituts de recherche russes ayant des compétences sur ce sujet.

L’objectif était de rassembler des preuves décisives que les dorsales en question ne sont pas formées par la croûte océanique et constituent donc une extension naturelle du continent eurasien. Au coeur de cet effort scientifique se situe l’Institut du pétrole, de géologie et de géophysique Trofimuk de la Branche sibérienne de l’Académie des sciences de Russie. Au printemps dernier, Valery Vernikovsky, l’un des géologues les plus en vue du pays et chercheur au Trofimuk, a affirmé avoir réuni avec ses collaborateurs suffisamment de données, notamment des échantillons recueillis lors de forages effectués à 2500 mètres, pour démontrer que les deux dorsales sont constituées d’une croûte continentale âgée d’environ 460 à 470.000.000 ans. Le ministre russe des ressources naturelles, Sergueï Donskoï, avait annoncé dans la foulée qu’il avait proposé au président Vladimir Poutine de soumettre une nouvelle demande à l’ONU dès cet automne, sur la base de ce nouvel argumentaire.

Source : http://www.bulletins-electroniques.com/actualites/76323.htm

Les capteurs de puissance du futur bientôt sur le Tour de France ?

« Dans sa collaboration avec CORIMA, notre équipe a pu innover et utiliser les capteurs de puissance intégrés dans les roues en carbone de CORIMA et appliquer ainsi la technologie du Leti dans un nouveau domaine tout en soutenant le mouvement Quantified Self. », a déclaré dans un communiqué Laurent Malier, Directeur du Leti. Alors que ce projet n’en est qu’à ses débuts, voilà une déclaration encourageante. 

Le futur capteur de puissance en cours de développement pèsera seulement quelques grammes, et se positionnera sur la roue arrière. Les scientifiques ont choisi cet emplacement car la transmission du couple passe nécessairement par là, c’est donc un endroit pertinent pour mesurer la puissance efficace développée par le cycliste. Ce système communiquera avec un module électronique placé sur le guidon des informations telles que la puissance et la vitesse, mais aussi d’autres paramètres qui restent à définir.

Corima peut compter sur l’expertise du Leti en électronique et traitement du signal pour assurer la bonne transmission des données.  Le spécialiste des roues en carbone s’appuie sur sa maîtrise de la modélisation de la distribution des efforts dans la roue.

Cette collaboration s’inscrit dans le cadre de la plateforme de développement et de prototypage du Leti et est financé par le programme Easytech de l’Institut de recherche technologique Nanoelec.

Un prototype a été réalisé pour effectuer des tests sur route et valider la faisabilité du capteur. Corima équipe déjà l’équipe ASTANA, actuellement leader du Tour de France. Son capteur pourra être utilisé par les athlètes de haut niveau mais sera à destination des amateurs de cyclisme.

Corima espère être en mesure de commercialiser ce produit fin 2015.

Par Audrey Loubens

Le champ magnétique terrestre décline

3 satellites, 6 mois de mesure et 1 constat : le champ magnétique terrestre s’affaiblit fortement et rapidement. En effet, alors que les scientifiques estimaient un affaiblissement de l’ordre de 5% par siècle, les dernières mesures révèlent que ce déclin se fait en réalité au rythme de 5% par décennie. Ainsi, au cours des six mois de mesures, le champ magnétique a perdu 80 nanoteslas, à comparer à sa force de 40 000 nanoteslas.

Mais ce phénomène n’est pas homogène autour du globe. Les régions occidentales sont plus touchées, tandis qu’à d’autres endroits, le champ magnétique se renforce comme c’est le cas au niveau de l’Océan Indien.

Le champ magnétique terrestre étant notre bouclier contre les rayons cosmiques, on peut se demander si nous allons tous finir exterminés par le rayonnement de l’espace et s’il ne faudrait pas migrer vers l’île Maurice. Bien que cette perspective ne soit pas si déplaisante, notre santé n’est en rien menacée par l’affaiblissement du champ magnétique. En revanche, les dispositifs électroniques ont plus de souci à se faire. Satellites, outils de communications, GPS se retrouvent eux aussi plus exposés au rayonnement cosmique et pourraient en être affectés.

D’autant que les mesures mettent en évidence un autre phénomène : le déplacement du pôle Nord magnétique vers la Sibérie. De quoi s’interroger sur un possible début d’inversion du champ magnétique, dont le dernier s’est produit il y a 780 000 ans, alors qu’en moyenne cela arrive tout les 250 000 ans. Cela ne serait donc pas étonnant. Là encore, pas de quoi s’affoler. Un tel phénomène s’étale sur des centaines d’années et d’après ce que l’on sait, il ne s’accompagne pas de phénomènes susceptibles de menacer l’espèce humaine.

Voir l’affaiblissement du champ magnétique terrestre mesuré par les satellites SWARM :

Par Audrey Loubens, journaliste scientifique

Et aussi dans l’actualité :

Les sanctions américaines contre la Russie pénaliseront l’Europe

La décision du Président américain de faire monter de plusieurs crans le niveau des sanctions économiques contre la Russie en élargissant leur champ d’application aux industries gazières comme Gazprom, Novatek ou Rosneft va sûrement poser problème à l’Europe dont les entreprises allemandes, britanniques et françaises ont établi de nombreux liens industriels et commerciaux avec ces grandes entreprises russes.

Il y a dans ces décisions une amorce d’une politique économique unilatérale américaine qui pourrait, à terme, fragiliser certaines alliances et remettre même en cause la primauté du dollar comme monnaie d’échange dans certaines parties du monde.

Une des ripostes éventuelles de la Russie consisterait à réduire ses exportations de pétrole et faire flamber les cours mondiaux du pétrole.

C’est, à mon avis, la seule riposte économique, à la hauteur, dont elle dispose.

Par Raymond Bonnaterre

A combien estimez-vous le coût du risque dans votre entreprise ?

Échelles de cotation du risque

Nous présentons ci-après deux approches complémentaires d’un outil fréquemment utilisé pour la mesure du coût du risque et de son importance relative : la matrice de cotation des risques.

Sous cette forme, la matrice de cotation du risque permet d’associer probabilité de survenance et niveau d’impact financier. Nous fournissons également des exemples récurrents dans les entreprises.

La représentation ci-après est une vision schématique permettant de positionner les risques par ordre de probabilité d’occurrence et de criticité (impact).

La probabilité peut être exprimée en pourcentage ou en nombre d’occurrences dans une période de référence.

L’impact peut recouvrer plusieurs ensembles : il peut s’agir de l’impact financier (coût faible/coût élevé), de l’impact médiatique (circonscrit/de grande ampleur), de l’impact en termes de priorité (tolérable/inacceptable), de confidentialité de l’enjeu (usage restreint-interne/confidentiel/secret), etc.

On distingue ainsi les risques mineurs/modérés/majeurs/critiques, ces derniers correspondent aux situations suivantes :

  • Risques mineurs : il s’agit de risques très fréquents au faible coût financier pour l’entreprise. Exemples : panne informatique de courte durée, erreur de saisie d’information et mauvaise facturation.
  • Risques modérés : ce type de risque également fréquent se caractérise déjà par une importance de son coût plus élevée. Exemples : perte d’un client, panne informatique de plusieurs erreurs, grève d’une partie des salariés, recours d’un client mécontent.
  • Risques majeurs : des risques rares pouvant engendrer l’arrêt temporaire d’activité de l’entreprise ou remettre en cause sa solidité financière. Exemples : incendie d’une partie des entrepôts, grève d’ampleur majeure empêchant de nombreux salariés de se rendre sur leur lieu de travail.
  • Risques critiques : des risques si fréquents ou si importants en termes d’impact matériel, humain ou financier qu’ils engendrent l’arrêt définitif d’activité pour l’entreprise. Exemples : explosion d’une centrale, d’une plateforme off-shore, pertes financières récurrentes pour une banque, surendettement et défaut de liquidité engendrant la faillite de l’entreprise.

La notion d’impact : il s’agit de l’ensemble des conséquences négatives associées à la survenance du risque, à savoir son coût financier, son coût humain, son coût en termes d’image et de réputation, le potentiel de désorganisation et de déstabilisation de l’entreprise. L’impact est élevé quand il dépasse de loin la capacité normale de l’entreprise à l’absorber ou qu’il implique pour cette dernière une compensation par réduction des coûts ou un programme de financement spécifique du risque.

La notion de probabilité : aussi appelé fréquence, il s’agit de la chance de survenir d’un risque dans un intervalle de temps donné. Sur une année par exemple, combien de fois un risque de liquidité ou d’incendie pourra survenir. La probabilité est dite élevée lorsqu’un risque surviendra plusieurs fois dans un court un laps de temps.

Recours aux scénarios probabilistes

Issue des travaux de la Rand Corporation (les années 1950) ou encore de la Datar (les années 1970) et de la SEMA, la méthode des scénarios consiste en la description de plusieurs futurs possibles. Le scénario se définit comme un ensemble formé par la description d’une situation future et du cheminement des événements qui permettent de passer de la situation d’origine à la situation future. Les scénarios sont construits grâce au recours à des méthodes d’experts (Delphi, matrices d’impacts croisés). La méthode des scénarios vise à déterminer quels sont les invariants (phénomènes supposés permanents jusqu’à l’horizon étudié), les tendances lourdes (mouvement affectant un phénomène sur longue période), les facteurs de changement (à peine perceptibles aujourd’hui, mais qui constitueront des tendances lourdes demain), les ruptures plus ou moins critiques, afin de décrire une situation future. On distingue alors les scénarios possibles, les scénarios réalisables, les scénarios souhaitables ou encore les scénarios tendanciels (correspondant à l’extrapolation de tendances), de référence (le plus probable), contrastés (extrapolation d’un thème volontairement extrême : une situation de crise liée à un risque majeur par exemple) ou encore d’anticipation.

La méthode des scénarios vise :

  • À déceler quels sont les domaines à étudier en priorité (variables clés) par la mise en relation des variables caractérisant le système étudié.
  • À déterminer à partir desdites variables clés dans l’organisation ou dans un secteur donné, quels sont les acteurs importants, leurs stratégies et les moyens mis à leur disposition pour résoudre une problématique, faire aboutir un projet…
  • À décrire, par des scénarios, l’évolution du système étudié sur la base des évolutions les plus probables des variables clés ainsi que de jeux d’hypothèses sur les attitudes des acteurs.

« La méthode des scénarios est un outil clé pour représenter ce qui peut arriver à l’entreprise. Nous nous en servons pour sensibiliser le top management mais aussi les différents métiers. Il s’agit de faire parler plusieurs dirigeants de l’entreprise indépendamment sur les risques qui leur semblent importants puis de mettre en commun ces avis » nous confie un directeur des risques du secteur assurance.

Cartographie des risques où l’étude des futurs possibles

La réalisation d’une cartographie des risques est un processus de réflexion commun permettant de diagnostiquer les vulnérabilités de l’entreprise et de se représenter, pour chaque classe de risque, l’étendue des futurs possibles identifiés comme ayant un potentiel vraisemblable de survenance.

Établir une cartographie des risques répond à différents objectifs : répondre à l’obligation réglementaire de communiquer sur les risques (loi NRE, document de référence…), identifier et évaluer les risques liés à la non-conformité, réduire les risques opérationnels (sécurité, informatique…), élaborer le plan d’audit, identifier et piloter les couples risques/opportunités ou encore hiérarchiser les risques recensés et décider des mesures prioritaires (optimisation des ressources, définition du niveau raisonnable de prise de risque).

Au niveau de la méthodologie, la cartographie des risques peut être élaborée selon la double démarche top-down et bottom-up. On trouve ainsi des cartographies locales par périmètres (exemple : DRH, direction financière, direction commerciale) et une cartographie globale de l’entreprise. La cartographie des risques peut prendre différentes formes : permettre de classer les risques selon leur probabilité et leur impact (fréquence/sévérité), selon leur nature (classe de risque), selon la part de chaque entité pour un risque (portefeuille de risques), mais également selon leur horizon (court, moyen, long terme).

Représentation simplifiée d’une cartographie des risques : approche par périmètres

Arbres des causes/des défaillances/d’événements, représentation des possibles et enchaînements logiques

Les installations et activités à forts risques potentiels telles que les ouvrages d’art (ponts, barrages hydroélectriques) les transports en commun notamment aériens, l’industrie pétrochimique, et plus récemment l’industrie nucléaire font l’objet d’études de sûreté probabiliste par arbres des causes et arbres des défaillances. Ces études permettent d’affiner la conception des installations en identifiant les modes communs de défaillance ainsi que les redondances inutiles et en ciblant les points critiques. Ces études de sûreté probabiliste ont également permis d’identifier de manière plus précise les risques d’erreur humaine. Les principales approches sont :

  • Les arbres des défaillances : départ d’un événement potentiel non désiré et recherche des causes internes possibles dans une logique d’exhaustivité.
  • Les arbres des causes : départ d’un événement réel non désiré et recherche des causes impliquées.
  • Les arbres d’événements : départ d’un événement non souhaité et analyse des conséquences et effets.

 

 

Exemples

 

Le coût du risque de Nicolas DUFOUR et Jean-David DARSA
Editions Gereso (collection agir face aux risques)
167 pages, 23 euros / En vente dans toutes les librairies

L’horloge ultra-précise Pharao prête pour un départ en 2016 dans l’espace [AFP]

Cette horloge sera envoyée en 2016 vers la Station spatiale internationale (ISS), qui tourne autour de la Terre à environ 400 km.

Elle permettra de tester « à des précisions jamais atteintes » les fondements de la théorie de la relativité générale d’Einstein, a indiqué le Cnes mercredi dans un communiqué.

Intégrée à l’ensemble européen Aces (Atomic Clock Ensemble in Space), Pharao utilisera les techniques de refroidissement par laser d’atomes de césium. Dans l’expérience Aces, elle sera comparée, grâce à des liens micro-onde ou optique, à d’autres horloges atomiques réparties en différents points du globe et fonctionnant avec d’autres types d’atomes.

« Aces effectuera différents tests pour pousser la théorie de la relativité générale dans ses retranchements », a souligné le Cnes, citant la mesure de « l’effet Einstein » avec « une amélioration de presque 100 fois ».

Dans la vision de l’espace-temps proposée par Einstein au début du 20e siècle, l’écoulement du temps devient dépendant de la gravitation et donc de l’altitude : le temps s’écoule plus vite au sommet de la Tour Eiffel qu’à sa base…

L' »effet Einstein » est bien sûr très sensible dans l’espace. Il est notamment pris en compte par les systèmes de navigation par satellites GPS ou Galileo, qui reposent sur la conversion du temps en distance.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Quels effets agronomiques et environnementaux d’épandages issus de résidus ?

Si  l’épandage  des  déjections  animales  est  une  pratique  multiséculaire,  ce  mode  de  fertilisation organique a évolué avec l’intensification des systèmes et la spécialisation des exploitations et des territoires. Au  cours du 20e siècle,  les engrais minéraux de synthèse sont  venus compléter  voire supplanter la fertilisation organique, en permettant une gestion plus aisée des principaux éléments fertilisants que sont l’azote (N), le phosphore (P) et le potassium (K). Plus récemment, le réemploi en agriculture de matières provenant de diverses filières de traitement des déchets domestiques et industriels (eaux usées, ordures ménagères, effluents industriels…) s’est développé. Il répond à des enjeux  d’amélioration  du recyclage  des  déchets,  de raréfaction  à terme  de  certaines ressources (comme le phosphore) et de dégradation du taux de matière organique de certains sols cultivés.  

Afin de maîtriser au mieux et de réguler, si nécessaire, l’utilisation de matières fertilisantes d’origine résiduaire (Mafor), les ministères français en charge de l’agriculture et de l’écologie ont demandé à l’Inra, au CNRS et à Irstea de réaliser une Expertise scientifique collective (ESCo) sur les bénéfices agronomiques  des  Mafor  et  les  impacts  environnementaux  de  leur  épandage  (incluant  les contaminations  potentielles),  en  tenant  compte  des  intérêts,  contraintes  et  conséquences économiques et sociales de cette pratique.

Une répartition hétérogène des ressources en Mafor 

Aujourd’hui,  l’épandage de Mafor, principalement des effluents d’élevage,  concerne  le quart des surfaces cultivées en France et 30% des surfaces en prairies, inégalement réparties sur le territoire. Ainsi,  la  concentration  des  Mafor sur  certains territoires se traduit  par  l’existence  de zones  en surcapacité par rapport aux apports maximum en azote définis par la directive européenne Nitrates. Cette disparité territoriale de la disponibilité des Mafor est un enjeu fort, auquel peuvent répondre certains traitements qui en réduisent les volumes et en facilitent ainsi le transport. Des analyses complémentaires  sont  nécessaires  pour  appréhender  les  conditions  d’acceptabilité  sociale  du transport de Mafor sur de longues distances et leur compatibilité avec les cadres juridiques actuels.  

Un pouvoir fertilisant variable selon l’origine 

La plupart des Mafor présentent la particularité de contenir les trois principaux éléments fertilisants (N, P et K) pour partie sous forme organique. Si la gestion de la fertilisation par épandage de Mafor est moins aisée que le recours aux engrais minéraux, les Mafor présentent l’avantage agronomique de  constituer une voie d’apport de matière organique au sol, et la seule source renouvelable de phosphore.  Les  modalités  d’apport  des  Mafor  peuvent  cependant  être  à  l’origine  de  pertesnotamment d’azote dans l’atmosphère ou les eaux, causant une diminution de la valeur fertilisante et desimpacts environnementaux. Un apport d’agents biologiques pathogènes maîtrisable  Les  effluents  d’élevage  et  les  boues  d’épuration  urbaines,  du  fait  de  leur  origine  fécale, sont susceptibles de véhiculer des agents biologiques pathogènes, tels que bactéries, virus,  parasites, et peuvent participer à la dissémination de l’antibiorésistance. A ce jour, aucune étude publiée n’établit de lien causal entre épandage de Mafor et transmission de maladie animale, les voies multiples de contamination possible rendant difficile l’appréciation de ce lien causal. Sur la base de la littérature scientifique existante, il est en outre difficile d’évaluer la contribution des Mafor à la dissémination de l’antibiorésistance des bactéries pathogènes. Même si les travaux sont rares, certains traitements permettent  de  diminuer  fortement  la  prévalence  des  agents  pathogènes  dans  les  Mafor, sans toutefois les éliminer. Une part variable de contaminants chimiques dans les sols La majorité des contaminants (organiques ou minéraux) susceptibles d’être apportés par les Mafor le sont  également  par  d’autres  voies  de  contamination :  retombées  atmosphériques,  traitements phytosanitaires,  irrigation…  Si  les  teneurs  des  Mafor  actuellement  épandues  en  France  sont inférieures aux seuils réglementaires pour les contaminants réglementés, la lente accumulation dans les sols  de  contaminants  difficilement  dégradables  pourrait, sur  le  long terme,  conduire  à  une contamination des sols difficile à maitriser. En particulier, les comportements complexes et difficiles à évaluer des contaminants organiques dans les Mafor, les sols et l’environnement nécessitent que se poursuivent les recherches en cours dans ce domaine.  

L’optimisation de l’usage des Mafor en agriculture et leur contribution à une économie du recyclage nécessitent une bonne maîtrise des  caractéristiques des matières résiduaires « primaires » et des traitements qui leur sont appliqués. De même, les outils d’aide à la décision à la disposition des agriculteurs peuvent améliorer les pratiques d’épandage et de fertilisation et leur intégration dans les systèmes de production agricoles.  

 

Source : L’ESCo (L’expertise scientifique collective)

L’ESCo  est  une  activité  d’expertise  institutionnelle, régie  par  la  charte  nationale  de  l’expertise  à laquelle l’Inra, le CNRS et Irstea ont adhéré en 2011. Elle se définit comme une activité d’analyse et d’assemblage de connaissances produites dans des champs très divers du savoir, et pertinentes pour éclairer l’action publique. Cet état des connaissances le plus complet possible, et son analyse, ne fournit ni avis, ni recommandations, ni réponses opérationnelles aux questions qui se posent aux gestionnaires.  Dans  la  présente  expertise,  le travail s’est  appuyé sur  un  corpus  bibliographique d’environ 3 000 références, composées essentiellement d’articles scientifiques. 

Chimie verte : un plastique entièrement biodégradable mis au point par Carbios

Carbios a obtenu, grâce à son procédé innovant, un matériau plastique entièrement biodégradable dans des conditions domestiques. Ce matériau produit à partir d’un polymère industriel d’origine fossile et d’une enzyme se caractérise par une perte de masse de 50% en 15 jours et une biodégradation complète en moins de 3 mois. Avec ce résultat, Carbios démontre que sa technologie est une réponse industrielle pertinente aux évolutions réglementaires relatives à la maîtrise de la fin de vie des matières plastiques à usage unique et courte durée de vie.

Avec son partenaire historique VALAGRO, titulaire avec le CNRS de la demande de brevet WO 2013/093355 A1 intitulée « Procédé de préparation d’alliage polymère/entités biologiques » concédée à Carbios sous forme de licence exclusive mondiale, Carbios continue avec succès le développement de son procédé de biodégradation contrôlée des plastiques souples à usage unique.

Rappelons que fin 2013, Carbios avait réussi à préserver l’activité catalytique des enzymes après les avoir incluses dans un matériau plastique et soumises à des températures d’extrusion de 170°C.

Ce nouveau franchissement d’étape permet à Carbios d’envisager d’avoir accès, au niveau mondial, à des applications commerciales de ce matériau, en particulier dans le domaine de l’agriculture avec les films de paillage mais aussi des marchés de l’emballage et notamment de l’emballage alimentaire à usage unique, autre marché stratégique visé par Carbios.

« Nous sommes fiers de cette nouvelle étape franchie qui souligne la synergie avec nos partenaires académiques ainsi que l’efficacité de notre approche et va aussi permettre à Carbios d’initier sa montée en puissance vers l’industrialisation. Cette avancée significative souligne que l’on peut ambitionner un élargissement de l’amendement Royal sans compromettre les ambitions de la France en matière d’environnement ni celles des industriels de la plasturgie », dit Jean Claude Lumaret, Directeur Général de Carbios.

Introduire des technologies de rupture pour conjuguer chimie verte et réalité industrielle

Carbios, Jeune Entreprise Innovante (JEI), a pour mission de concevoir et développer des bioprocédés industriels performants et compétitifs visant à améliorer le cycle de vie des polymères. Grâce à l’expertise de la société sur les enzymes – catalyseurs biologiques -, les bioprocédés développés par Carbios offriront une véritable technologie de rupture permettant de produire, transformer et recycler un très grand nombre de polymères (plastiques, textiles, alimentaires, etc.) tout en améliorant les propriétés techniques requises en fonction de l’usage.

L’ambition de Carbios est d’accélérer la révolution de la chimie mondiale vers une industrie verte en associant les trois grands défis de performance à l’Innovation :

  • Performance environnementale, en valorisant la biomasse en amont et en améliorant le cycle de vie des produits ;
  • Performance technique, en garantissant une haute technicité industrielle ;
  • Performance économique, en rendant les polymères biosourcés compétitifs pour accélérer leur pénétration sur le marché et apporter une alternative durable aux polymères fossiles.

CARBIOS s’appuie sur des équipes internes expérimentées et construit progressivement un réseau de compétences regroupant deux pôles complémentaires de partenaires : un réseau académique de très haut niveau permettant de démultiplier la capacité d’innovation et un réseau d’industriels offrant une proximité directe avec le marché. Cette démarche originale d’associer des industriels dès le stade de la recherche permet de maximiser le potentiel de création de valeur industrielle.

Carbios vise des marchés hautement stratégiques et a choisi l’industrie de la plasturgie pour conduire son premier segment applicatif. D’autres secteurs sont déjà à l’étude.

Un premier marché hautement stratégique : la plasturgie

On compte dans le monde plus de 280 millions de tonnes de plastiques produites. Le premier marché cible de Carbios, l’emballage, en représente près de 40% pour une valeur estimée à 196 Milliards $ (2), ce qui ouvre des perspectives considérables pour valoriser le cycle de vie des polymères, par des bioprocédés compétitifs, liés à la biodégradabilité et au recyclage des déchets. On estime pour l’heure que la biodégradabilité concerne plus de 10% des volumes d’emballages plastiques produits et que, par ailleurs, moins de 10% des déchets plastiques collectés sont effectivement recyclés dans le monde.

Ces enjeux de valorisation des déchets plastiques constituent les premières orientations de la recherche de Carbios, et ce dans trois domaines d’applications :

  • Une nouvelle génération de plastiques biodégradables, compétitifs et à durée de vie contrôlée pour l’usage ;
  • Des polymères compétitifs issus du recyclage : pouvoir recycler un très grand nombre de plastiques sans nécessiter un tri sophistiqué;
  • Une nouvelle technologie de production de bio-polymères : valoriser la biomasse pour accroître la compétitivité des procédés de production de polymères bio-sourcés.

Source : Carbios

 

Et aussi dans les
ressources documentaires :

Le cannabis contenant du THC favorise la paranoïa

Pour en savoir plus sur cet effet minoritaire mais qui touche certains consommateurs, des chercheurs ont testé leur capacité à traiter des données habituelles par rapport à des stimuli inhabituels, en fonction des taux de THC (Téteahydroncanabinol) et de CBD (Cannabidiol) consommés, deux substances présentes à des concentrations très variables dans le cannabis.  Ils ont donc montré aux volontaires des images avec des flèches dessinées. Certaines pointaient vers la droite, d’autres vers la gauche, mais la grande majorité gardait la même direction horizontale, à l’exception de certaines flèches légèrement inclinées. Les participants ayant consommé du CBD ont repéré immédiatement les flèches inclinées. Mais ceux qui avaient pris du THC ont montré plus d’intérêt pour les flèches horizontales. Normalement, toute personne qui n’est pas sous l’emprise d’une drogue repère les flèches inclinées, la répétition étant jugée inintéressante tandis que le changement est remarquable. Sous l’emprise de THC, les individus ont manifesté un intérêt élevé pour les flèches horizontales, se désintéressant des flèches inclinées. Autrement dit, le THC parasite notre capacité à dissocier la banal de l’exceptionnel, donnant une dimension exceptionnelle à ce qui ne l’est pas. Ceci peut expliquer un comportement  paranoïaque si le cannabis contient un fort taux de THC.

Le problème est que le cannabis contient de plus en plus de THC. Dans les années 60-70, un joint contenait 10 mg de THC. Or ce taux peut s’élever  jusqu’à 150mg dans les pétards du nouveau millénaire. Les effets psychoactifs sont donc bien plus importants aujourd’hui, d’autant qu’ils ne sont pas forcément contre-balancés par le cannabidiol, aux effets sédatifs.  

Par Audrey Loubens, journaliste scientifique

Les aliments anti-cholestérol n’apportent pas de bénéfice santé avéré

Voilà qui ne va pas faire plaisir aux acteurs du marché des aliments anti-cholestérol. Non seulement leurs produits ne seraient pas efficaces, mais en plus ils pourraient présenter un danger de santé ! Ce sont en tout cas les conclusions de l’Anses, dont l’avis vient d’être publié. L’action anti-cholestérol vantée pour ces aliments, principalement des margarines, des yaourts et des vinaigrettes, provient de la présence de phytostérols. Il s’agit de composés naturellement présents dans les plantes telles que les graines et les oléagineux, concurrents direct du cholestérol au niveau de l’absorption intestinale. Ceux-ci contribuent donc à ce que le corps absorbe moins de cholestérol, une action à première vue bénéfique. D’ailleurs, les études montrent qu’ils permettent d’abaisser le taux de cholestérol de 10% sur plusieurs semaines voire plus d’un an. Malheureusement, 30% de la population ne serait pas apte à en profiter du fait d’une capacité de synthèse de cholestérol trop élevée. Quoi qu’il arrive et quelles que soient les quantités de phytostérols présentes, ces personnes assimileront toujours autant de cholestérol. L’Anses enfonce le clou en ajoutant que la baisse du taux de mauvais cholestérol n’entraîne pas à elle seule une diminution des risques cardiovasculaires.

Non seulement les aliments anti-cholestérols sont inefficaces pour lutter contre les maladies cardiovasculaires, mais en plus ils seraient néfastes pour certaines populations fragiles comme les femmes enceintes et allaitantes. En cause la diminution de b-carotène en parallèle d’une augmentation du taux de phytostérols pourrait augmenter les risques cardiovasculaires ! Un comble.

L’Anses en profite pour rappeler que diminuer le risque cardiovasculaire passe par l’arrêt du tabac, la pratique d’une activité sportive et une alimentation équilibrée. 

Par Audrey Loubens, journaliste scientifique

4 Conseils pour un chef de projet débutant

1er conseil :  Lutter contre l’isolement et marquer ses repères…

Dès les prémices du projet, le chef de projet qu’il soit jeune ou nouveau dans le métier agira comme un manager chevronné et consacrera le temps nécessaire à marquer ses repères auprès de l’équipe de réalisation dont il a la charge. Selon sa personnalité, cela risque de consommer une bonne part de son temps et de son énergie.

Un relationnel quelquefois un peu complexe …

Pour certains novices, la complexité du relationnel sera en effet difficile à vivre. Malheureusement il en existera toujours pour ne pas comprendre qu’il ne tient qu’à eux d’instaurer de sains rapports humains. Ils préféreront se réfugier derrière un dirigisme froid et procédurier en se contentant de suivre exclusivement les plannings et les indicateurs d’avancement.

Cette tendance à l’isolement peut sembler un certain confort dans un premier temps. Elle n’en est pas moins un facteur d’échec assuré. Ce comportement peut être qualifié de non professionnel. Il conduit généralement à la rupture entre le manager, l’équipe et tous les « autres », les parties prenantes directes et indirectes : clients, donneurs d’ordre, utilisateurs et les observateurs…

L’accompagnement du changement commence dès le l ancement du projet.  Prendre le temps d’initier une communication efficace et profitable avec toutes les parties est un préalable. C’est aussi ainsi que l’on prévient les conflits potentiels.

2e conseil :  Préparer son projet

L’écoute des « non-dits »

L’avant projet est une phase essentielle. Il s’agit en effet de définir et de préciser la cible ainsi que la feuille de route balisant point par point le déroulement. Sous un autre angle de vue, il s’agit de bien comprendre comment chacune des parties prenantes perçoit le projet.

Dans le cadre d’un projet complexe, les personnes concernées directement ou indirectement ont leur propre vision de la réalité. Ce n’est pas gênant en soi à partir du moment où chacun des acteurs majeurs a bien compris les enjeux et les phases du dérou l ement. Mais cela demande beaucoup de communication : Informer bien sûr, mais aussi beaucoup écouter. L’expert spécialisera son oreille dans les « non-dits ». Ils sont généralement beaucoup plus riches de sens.

3e conseil : Communiquer pour mieux anticiper

Si le bon chef de projet est un communicant, il sait aussi anticiper. Grâce aux échanges fréquents, il se forge une perception toujours plus fine du projet dans toutes ses dimensions afin de l’intégrer du mieux possible. Percevoir les impacts du projet sur les plans organisationnel, technologique et culturel est une des règles du succès.

4e conseil  : Vendre son projet

De toute façon et dans tous les cas, un projet se vend. Le bon chef de projet est aussi un « expert en marketing ». Bien sûr il faut prendre soin d’étudier avec les responsables concernés leur vision propre du projet. Mais il s’agit aussi de présenter les enjeux sous leurs plus beaux atours. C’est le seul moyen d’établir les alliances nécessaires à la réussite

Source : piloter.org/livres-blancs-pdf/bonnes-pratiques.pdf
Alain Fernandez « Le chef de projet efficace 2003-2014 » © Edition Eyrolles

Et aussi dans les
ressources documentaires :

Reach/CLP : toute l’actualité de juillet (1/2)

Directive relative à la sécurité des jouets, en ce qui concerne le nickel

01/07/2014

La directive 2014/84/UE de la Commission du 30 juin 2014 modifie l’annexe II, appendice A, de la directive 2009/48/CE du Parlement européen et du Conseil relative à la sécurité des jouets, en ce qui concerne le nickel. Cette directive du 30/06/2014 a été publiée au Journal Officiel le 1er juillet 2014. Le texte est disponible sur :

http://eur-lex.europa.eu/legal-content/FR/TXT/HTML/?uri=OJ:JOL_2014_192_R_0009&from=FR

Consultation publique pour de potentielles substances candidates à la substitution

02/07/2014

L’Institut national de l’environnement industriel et des risques (Ineris) a présenté le 2 juillet les résultats du projet Predimol pour « Prédiction des propriétés physico-chimiques des produits par modélisation moléculaire ». Projet financé par l’Agence nationale de la Recherche, impliquant des partenaires publics et privés et piloté par l’Ineris, il associe IFP Energies Nouvelles, Chimie Paris Tech, le Laboratoire de chimie-physique de l’Université Paris-Sud XI, Materials Design et Arkema. Les conclusions de Predimol ? Les méthodes prédictives sont une alternative crédible à l’expérimentation de laboratoire dans le cadre de la mise en œuvre du règlement Reach.

Consultation publique pour de potentielles substances candidates à la substitution

04/07/2014

L’ECHA a lancé une consultation publique pour une nouvelle substances dont la substitution est envisageable. La substance concernée est le Carbendazim. Les commentaires sont à soumettre pour le 2 septembre 2014.Plus d’information sur :

http://echa.europa.eu/addressing-chemicals-of-concern/biocidal-products-regulation/public-consultation-on-potential-candidates-for-substitution

Nouvelle proposition de classification et d’étiquetage harmonisé

08/07/2014

L’ECHA a lancé une consultation pour l’harmonisation et l’étiquetage harmonisé de trois nouvelles substances :

–        carbetamide (ISO); (2R)-1-(ethylamino)-1-oxopropan-2-yl phenylcarbamate (N° CE : 240-286-6 – N° CAS : 16118-49-3)

–        Fenpyrazamine (ISO); S-allyl 5-amino-2,3-dihydro-2-isopropyl-3-oxo-4-(o-tolyl)pyrazole-1-carbothioate (N° CAS : 473798-59-3)

–        Spiroxamine (ISO); 8-tert-butyl-1,4-dioxaspiro[4.5]decan-2-ylmethyl(ethyl)(propyl)amine (N° CAS : 118134-30-8).

Les parties intéressées sont invitées à soumettre leur commentaire sur le site de l’ECHA, et ce avant le 22 août 2014. Plus d’informations sur :

http://echa.europa.eu/harmonised-classification-and-labelling-consultation

Nouvelle consultation pour éviter les tests sur les animaux

15/07/2014

L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. 65 propositions sont concernées. Les informations relatives à ces substances sont à soumettre pour le 29 août 2014. Plus d’information sur :

http://echa.europa.eu/information-on-chemicals/testing-proposals/current

Par Céline GABORIAUD, Ingénieur Environnement aux Ateliers d’Orval

Et aussi dans les
ressources documentaires :

L’ingénieur geek #3 : Vessyl, le verre connecté qui suit votre consommation de liquide

Vessyl vous dira tout de ce que vous buvez, même ce que vous ne voulez pas savoir. En effet, Vessyl est capable d’analyser la composition de n’importe quel liquide que vous y aurez versé. Taux de sucre, alcool, parfum, saveur, caféine ou encore calories, aucune boisson n’aura plus de secret pour vous.  Coca-Cola est prévenu !

Mais au-delà de l’analyse brute, Vessyl s’intéresse aussi aux habitudes de consommation, mesurant le volume d’eau bu au cours du temps, les calories consommées, les quantités d’ingrédients assimilées. Vessyl dresse ainsi un bilan complet de vos habitudes. Connecté à votre Smartphone via une application, Vessyl est aussi capable de vous aider en cas de régime ou d’alimentation surveillée, en vous alertant par exemple sur un manque de vitamines. Ce verre du futur devrait être commercialisé prochainement et est déjà en précommande au tarif de 73€.

Découvrez Vessyl en vidéo :

 

Par Audrey Loubens, journaliste scientifique

Les milles usages du quantum dot

Au moment où les premières applications commerciales grand public arrivent sur le marché, il était temps pour la communauté scientifique qui explore ce nouveau monde de regarder avec un peu de recul ces trente années foisonnantes, de faire le point sur cette aventure, d’en esquisser l’histoire… et de célébrer le 30ème anniversaire de cette découverte.

Les quantum dots (QDs), ou boîtes quantiques, sont des structures matérielles solides de très petite taille, dotées de propriétés remarquables du fait essentiellement de cette petite taille. Leurs dimensions se mesurent en nanomètres, c’est-à-dire en milliardièmes de mètre et ils rassemblent un petit nombre d’atomes, de l’ordre de cent à cent mille. Les QDs peuvent avoir une structure plus ou moins complexe. Les plus simples sont juste des nanocristaux, c’est-à-dire un assemblage régulier d’atomes arrangés selon un motif géométrique précis. Comme des cristaux ordinaires, mais de dimensions extrêmement réduites. Les matériaux les plus étudiés sont des semi-conducteurs, en particulier des composés à base de cadmium, comme le séléniure de cadmium.

Les lois de la physique impliquent que ces dimensions réduites modifient profondément le comportement des électrons gravitant autour des noyaux de ces atomes. Leur confinement impose de nouvelles règles du jeu qui se traduisent par des propriétés électriques et optiques inédites très intéressantes. Par certains côtés, expliquent les chercheurs, un QD se comporte comme un gros atome artificiel.

Des propriétés exceptionnelles

La propriété la plus étudiée et exploitée des QDs est leur fluorescence. La communauté scientifique a découvert qu’un quantum dot, excité par une lumière incidente, émet de la lumière sur une fréquence très précise qui ne dépend que de sa taille. Lorsqu’on a su contrôler la taille des QDs, à partir de 1993, les chercheurs ont commencé à produire à volonté des QDs émettant de la lumière de n’importe quelle couleur, depuis l’ultraviolet jusqu’à l’infrarouge proche et lointain, en passant évidemment par le spectre visible. Une forme de QD plus complexe comporte en plus d’un nanocristal une « coque » constituée d’un second matériau, qui d’une certaine façon protège et donc renforce les propriétés du « cœur » qu’elle renferme. On peut encore attacher à cette coque des molécules, généralement des chaînes carbonées que l’on appelle « ligands », qui permettront notamment au QD de s’attacher à certains sites.

Du simple nanocristal, la recherche a ainsi mené au quantum dot « fonctionnalisé », capable notamment de se fixer sur des cellules présentant certaines caractéristiques, par exemple cancéreuses, et de permettre leur

localisation grâce à la fluorescence. D’autres travaux ont permis de contrôler également la forme des QDs. Des équipes ont ainsi publié des solutions pour réaliser des cylindres, des tétrapodes, des plaquettes. Ces nouvelles formes confèrent à ces QDs des propriétés insoupçonnées. Les premiers QDs étaient réalisés essentiellement à partir de composés du cadmium, un métal lourd, impliquant donc des précautions. De nombreux travaux de recherche ont progressivement démontré qu’il était possible d’utiliser d’autres matériaux, y compris des éléments chimiques moins nocifs et plus répandus.

Les milles usages du quantum dot

Les propriétés remarquables des quantum dots les destinent à un large spectre d’applications. Parmi les plus clairement identifiées, citons la réalisation d’écrans plats, de dispositifs d’éclairage, de panneaux photovoltaïques, de batteries et supercondensateurs, de lasers et de toutes sortes de dispositifs électroniques. Enfin, les qds seront à l’origine de nouvelles techniques d’imagerie par fluorescence et de bien d’autres progrès en médecine et biologie

ÉCRANS

C’est dans le domaine des écrans que les quantum dots ont fait leur percée la plus spectaculaire. On peut même les voir à l’œuvre depuis 2013, d’une part sur des téléviseurs grand format de la gamme Triluminos chez Sony, et d’autre part sur les dernières tablettes d’Amazon, les Kindle Fire HDX. La liste devrait s’allonger au cours de l’année 2014. En particulier, si l’on en croit des rumeurs persistantes, le premier smartphone doté d’un écran à quantum dots pourrait être… le prochain smartphone d’Apple. Pourquoi cet emballement ? Les fabricants d’écrans à cristaux liquides se ruent sur les quantum dots parce qu’ils promettent beaucoup. Notamment une gamme de couleurs bien plus étendue que celle qu’offrent les écrans LCD classiques. Actuellement, l’écran d’une tablette typique est capable de restituer environ 20% des nuances de couleurs qu’un œil humain peut distinguer, tandis que celui d’un téléviseur haute définition peut offrir quelque 35% de cette palette idéale. Les nouveaux écrans incorporant des quantum dots font un grand pas dans ce domaine en atteignant le chiffre de 55%.

SPECTRE DE COULEURS VISIBLE PAR L’OEIL

Cette première génération d’écrans faisant appel aux QDs utilise ces derniers au niveau du rétro-éclairage, où ils permettent de produire une lumière blanche optimisée. Typiquement, un éclairage LED primaire bleu excite deux sortes de QDs qui absorbent ce bleu pour émettre du vert et du rouge. Pas n’importe quel vert ou rouge, mais dans chaque cas une lumière d’une longueur d’onde très précise, ce qui est facile à réaliser à l’aide de QD puisque ceux-ci émettent sur une fréquence qui dépend essentiellement de leur taille, que l’on sait contrôler. La lumière blanche ainsi produite (bleu initial plus vert plus rouge) permet au système de filtres dichroïques de l’écran de produire un maximum de nuances de couleurs. QD Vision (Lexington, Massachusetts), une société créée par des chercheurs du MIT, propose ainsi sa solution Color IQ, qui a été choisie par Sony. De son côté, le pionnier californien Nanosys (Milpitas), spin-off de l’Université de Berkeley, produit en partenariat avec 3M une solution dénommée Quantum Dot Enhancement Film (QDEF) permettant de réaliser des écrans hauts en couleurs comme ceux des dernières tablettes Kindle Fire HDX d’Amazon. Les écrans des téléviseurs Sony Triluminos et les Kindle Fire HDX ne se contentent pas d’offrir un bouquet de couleurs inégalé. Les QDs permettent également de renforcer l’intensité lumineuse tout en réduisant la consommation électrique. Mais ce n’est pas fini. Les QDs devraient être utilisés demain dans une nouvelle génération d’écrans où ils joueront un rôle encore plus déterminant. Au lieu d’aider à produire une meilleure lumière blanche, ils émettront directement les compgosantes rouges, vertes et bleues de chaque pixel On parle de QDLED. Samsung a déjà présenté en 2010 un prototype de 10 cm de diagonale reposant sur ce principe.

ÉCLAIRAGE

Capables d’émettre à la longueur d’onde désirée, simplement en contrôlant leur taille, les QDs offrent ainsi en principe une solution simple pour fabriquer par synthèse additive tout type de lumière blanche adaptée à l’éclairage de nos intérieurs ou de lieux publics. Les ampoules àQD devraient donc prochainement concurrencer les modèles LED existants, dès que les industriels auront trouvé les solutions pour passer de la théorie à l’industrialisation. Ainsi le choix des matériaux utilisés n’est pas anodin. Or les QDs que l’on maîtrise le mieux à l’heure actuelle contiennent du cadmium, un élément chimique toxique que l’on ne peut employer dans un produit qui se retrouvera distribué en énormes quantités, facilement démontable et dont la fin de vie est difficilement contrôlable. C’est dans cette logique que se situent les recherches menées par une équipe du laboratoire Liten du CEA à Grenoble, en collaboration avec l’équipe de Peter Reiss, dans le cadre du projet Luminosurf. Ils ont abouti à la mise au point de quantum dots adaptés à la production de lumière, à fort rendement, mais reposant sur des matériaux non toxiques, ne contenant ni cadmium ni aucune « terre rare » (cette fameuse catégorie d’éléments chimiques disponibles en quantité limitée sur Terre et dont la Chine contrôle actuellement prés de 95% du marché). Le partenaire industriel du projet Luminosurf n’est autre que Philips, un acteur majeur du secteur de l’éclairage.

PHOTOVOLTAÏQUE

Un meilleur rendement à moindre coût, c’est ce que promettent les quantum dots dans le domaine des panneaux solaires photovoltaïques. La raison principale tient autant à des propriétés très complexes que nous nous garderons d’expliquer, qu’à des techniques de production drastiquement simplifiées par rapport aux lourds investissements requis pour les technologies actuelles à base de silicium amorphes ou de cristallin. De nombreuses équipes sont dans la course mais jusqu’à présent les meilleurs rendements obtenus en laboratoire tournentautour de 8,5%, alors que les panneaux du commerce offrent jusqu’à 20% et que le record en laboratoire pour une cellule multicouche est de 44,7%. Mais le jeu en vaut la chandelle puisque la théorie fixe à 87% le rendement maximum d’une cellule à QD. On estime que des rendements de l’ordre de 60% sont atteignables. Ainsi une équipe du MIT a publié l’année dernière dans Advanced Materials sur un nouveau type de cellule solaire utilisant des QDs de PbS et des nanofils d’oxyde de zinc. Un rendement de 4,9% a ainsi été obtenu.

En décembre dernier, une équipe du Los Alamos National Laboratory a publié dans Nature Communications des travaux portant sur une cellule photovoltaïque incluant des QDs CuInSeS, réalisés essentiellement à partir de cuivre, du coup non toxique et promettant un faible prix de revient. Le rendement obtenu dépassait les 5%. De son côté, le laboratoire de Edward Sargent, à l’Université de Toronto au Canada, a publié dans la revue ACS Nano un article annonçant un nouveau record avec un rendement de 8,5 %.

STOCKAGE DE L’ÉLECTRICITÉ

Les quantum dots devraient également trouver leur place dans le domaine du stockage de l’énergie électrique. Des travaux portent actuellement sur des batteries, de supercondensateurs et de dispositifs mixtes, à la fois batteries et supercondensateurs.

Rappelons que les batteries stockent l’énergie par le biais d’une réaction chimique réversible tandis que les supercondensateurs, qui ne sont rien d’autre que de très gros condensateurs, se contentent de stocker des charges électriques. Chez les premières, le procédé est électrochimique, chez les seconds il est électrostatique. Les batteries stockent beaucoup plus d’énergie par kilo que les supercondensateurs, mais ces derniers leurs sont supérieurs en termes de puissance : ils absorbent et délivrent l’énergie en des temps beaucoup plus brefs.

Pourquoi des quantum dots dans ce contexte ? C’est très compliqué, mais disons que l’on est ici à la recherche de surface et que les dimensions infimes des QDs apportent justement cela : un excellent rapport surface sur volume. Les recherches avancent, les produits ne devraient pas tarder

LASERS, CAPTEURS, ÉLECTRONIQUE, INFORMATIQUE…

On peut encore ajouter bien des choses dans la liste des applications des quantum dots. De nouveaux lasers ont ainsi déjà vu le jour. De nouveaux capteurs de lumière, reposant sur les QDs, devraient également trouver de multiples usages. Mais des bouleversements bien plus lourds sont possibles. Ainsi, certains imaginent que c’est une nouvelle ère de l’électronique qui pourrait s’ouvrir. Au moment où l’industrie électronique a poussé la miniaturisation des puces si loin que certains dispositifs ne fonctionnent plus selon les lois habituelles, elle pourrait enfourcher un nouveau cheval avec ces minuscules QDs dotés d’intéressantes propriétés. Enfin, notons que l’une des voies empruntée par l’informatique quantique, qui nous promet de ridiculiser les ordinateurs actuels, est le quantum dot.

MÉDECINE, BIOLOGIE

Les quantum dots sont porteurs de grands espoirs en médecine. Leurs propriétés de fluorescence les a rapidement désignés comme potentiels biomarqueurs mais on leur a depuis trouvé encore d’autres emplois, y compris dans le champ de la thérapeutique. Non seulement leur fluorescence est puissante et stable, mais en plus il est possible de choisir la fréquence d’émission, donc la couleur, simplement en contrôlant la taille des QDs, ce que l’on sait très bien faire. La bande d’émission est étroite, ce qui ouvre la perspective d’utiliser de nombreux QDs de couleurs différentes en même temps… Restait à fixer sur ces QDs des molécules « ligands » capables de s’attacher à leur tour aux sites que l’on veut repérer dans un contexte biologique, cellules ou tissus in vitro, ou organisme vivant. Deux équipes, Paul Alivisatos à l’Université de Berkeley et Shuming Nie à l’Université de l’Indiana, démontrent en 1998 la viabilité de cette approche. Depuis lors, les expérimentations de ce type se multiplient.

Une première catégorie de techniques médicales reposant sur les quantum dots consiste à détecter, quantifier, localiser des molécules biologiques sur des prélèvements effectués sur un patient. On parle de diagnostic in vitro. Dans ce type d’applications, les QDs ne sont pas injectés dans le corps du patient et sont manipulés par un personnel qualifié. Les QDs contenant des métaux toxiques comme le cadmium ou le plomb peuvent donc être utilisés dans ce contexte. Ce sont ceux que l’on connaît le mieux et dont on sait aujourd’hui tirer le maximum. Une seconde catégorie d’applications des QDs en médecine relève du diagnostic in vivo. Ainsi, dès 2004, Sungjee Kim au MIT fait appel à des QDs émettant dans le proche infrarouge pour guider la main du chirurgien recherchant chez la souris et le porc un « ganglion lymphatique sentinelle » signalant le début d’une propagation d’un cancer par métastases. D’autres équipes ont depuis développé toutes sortes de techniques d’imagerie reposant sur ce principe, permettant de visualiser directement, in vivo, en temps réel pendant l’intervention,

les limites d’une tumeur ou plus généralement de tissus porteurs de molécules signalant par exemple un état pathologique. Pour ce type d’application, la question de la toxicité des QDs devient cruciale. C’est pourquoi de nombreuses équipes cherchent à remplacer le cadmium et les autres métaux toxiques par des éléments chimiques mieux tolérés par l’organisme.

La liste des applications potentielles des QDs dans le domaine médical et plus généralement en biologie est déjà longue. On sait de mieux en mieux fabriquer des QDs capables de s’attacher à toutes sortes de molécules biologiques, des plus simples à l’ADN en passant par des protéines impliquées dans toutes sortes de processus biologiques. Les QDs ont donc vocation à se retrouver employés dans de nombreuses démarches médicales, de la détection d’agents infectieux, de gènes, protéines ou autres à l’imagerie en cours d’intervention chirurgicale. Aux dernières nouvelles, applications thérapeutiques sont envisageables, le QD servant de véhicule pour une molécule active. Mieux, les QDs se révèlent utiles dans la recherche de nouveaux médicaments.

LES PRÉVISIONS DE CROISSANCE

Une étude de marché publiée en janvier 2014 par la firme Markets and Markets (M&M) estime le marché des quantum dots à 108 millions de dollars (78,5 M€) en 2013 et pronostique un volume de 3,4 milliards de dollars (2,47 milliards d’euros) pour 2020. Le taux de croissance annuel moyen serait de 71%. De son côté, une autre étude de marché sortie en avril 2014 et réalisée par BCC Research annonce un marché des QDs de 121 M$ (87,4 M€) en 2013 et prévoit un chiffre d’affaires de 1100 M$ (795 M€) dès 2016 et de 3100 M$ (2240 M€) en 2018. Ce qui représente une croissance annuelle moyenne de 91%. Ces deux sources envisagent donc une évolution explosive du marché des QDs, qui dépasserait donc les 3 milliards de dollars dès 2020 ou même dès 2018.

LES MARCHÉS D’AVENIR

Les deux études sont d’accord sur un point, le secteur d’applications dominant sera, du moins à court terme, celui des écrans (téléviseurs, ordinateurs, tablettes, portables). M&M prévoit ainsi un chiffre d’affaires de 2,46 milliards de dollars (1,78 milliard d’euros) pour ce secteur en 2020. Ajoutons que QD Vision, qui connaît bien le sujet puisqu’elle fournit Sony, prévoit de son côté un marché de 2 milliards de dollars dès 2014. Ces perspectives ont déjà suscité quelques vocations. Parmi les success stories du quantum dot, il faut d’abord citer celle de QD Corporation. Fondée en 1998 pour industrialiser les QDs mis au point dans l’équipe de Paul Alivisatos au Lawrence Berkeley National Laboratory, QD Corp. trouve rapidement 37,5 M$ de fonds et commercialise en 2002 le premier biomarqueur à QD. Indice de l’intérêt que porte l’industrie à cette percée technologique, le pionnier QD Corp. est racheté dès 2005 par Invitrogen, qui est lui même marié en 2008 à Applied Biosystems pour devenir Life Technologies, à son tour racheté en 2013 par Thermo Fisher Scientific, leader mondial des instruments et réactifs médicaux et scientifiques, qui réalise 17 milliards de dollars (12 milliards d’euros) de chiffre d’affaires. Autre success story édifiante, celle de QD Vision (Lexington, MA), créée par des chercheurs du MIT en 2001.

Elle lève en tout 75 M$ et présente en 2006 le premier écran à quantum dot, et se retrouve dès 2013 fournisseur de Sony pour équiper de la technologie Color IQ ses modèles haut de gamme Triluminos. De son côté, Nanosys (Milpitas, CA) a été créée également en 2001 par des chercheurs de l’Université de Berkeley, dont Paul Alivisatos. Elle a levé depuis quelque 150 M$ de fonds. Sa technologie QDEF est aujourd’hui incorporée dans un produit grand public, la dernière génération de tablettes Kindle Fire HDX d’Amazon.

Pour compléter le tableau, citons une aventure européenne. Nanoco (Manchester, GB) est issue d’équipes de chercheurs de l’Université de Manchester et de l’Imperial College de Londres. Depuis sa création en 2001 elle a levé 25 M$. Nanoco s’intéresse notamment aux QDs sans cadmium, pour lesquels elle a signé un accord de licence exclusif avec le géant de la chimie Dow Chemical. Ses produits visent les marchés des écrans, de l’éclairage et de l’énergie solaire.

L’EQUIPE DE L’ESPCI PARISTECH

En 2002, Benoît Dubertret obtient un poste CNRS à l’École Supérieure de Physique et de Chimie Industrielles de la Ville de Paris (ESPCI ParisTech). Il vient de finir un post-doc de quatre ans et demi à l’Université Rockefeller (NY, NY) auprès d’Albert Libchaber, l’un des spécialistes des quantum dots, encore peu nombreux à cette époque. Benoît Dubertret en est persuadé, les quantum dots représentent un sujet promis à un avenir radieux. Les applications sont innombrables, les débouchés représentent des milliards. Il vient lui-même de réaliser un petit exploit en publiant10 la première utilisation biologique de QD in vivo. En France, les QDs n’ont pas encore suscité beaucoup de vocations. On ne compte guère que les équipes de Peter Reiss au CEA de Grenoble, et de Maxime Dahan à l’École Normale Supérieure de la rue d’Ulm (Paris), les deux depuis 2000. L’ESPCI ParisTech accueille favorablement la proposition de Benoît Dubertret de créer de toutes pièces une nouvelle équipe autour du thème des quantum dots, au sein du Laboratoire de Physique et Études des Matériaux (LPEM). Benoît Dubertret construit brique après brique à partir de 2002 l’équipe qui deviendra connue sous ce nom qui fait irrésistiblement penser à un groupe de rock : les Parisian Quantum Dots.

Pour en savoir plus : blog.espci.fr/qdots 

Le Concordia flotte à nouveau !

Débutée ce lundi matin, l’opération de renflouement du Costa Concordia dont la première phase vient d’être réussie doit se dérouler tout au long de cette semaine. Son maître d’œuvre, Nick Sloane, a orchestré une fois encore une grande première technique. C’est lui qui avait déjà été chargé de rendre possible le redressement du paquebot échoué au large de l’île du Giglio. L’expert avait relevé le défi avec brio. Mais cette précédente étape qui avait été réalisée en septembre 2013 n’était que le début. Le Costa Concordia doit être ramené à la surface pour être déplacé et être acheminé vers le port de Gênes où il sera démantelé.

Mais comment déplacer ce monstre d’acier ? Impossible de le tracter tant qu’il repose au fond de l’eau. Il fallait absolument le faire flotter à la surface de l’eau. Deuxième défi pour Nick Sloane qui a avoué une certaine nervosité au début des opérations de renflouement : « Nerveux ? Un peu. Aujourd’hui, nous allons découvrir si nos calculs étaient exacts ou si nos données se révéleront être loin de nos attentes. Le temps est bon. ».

En effet, le plan du sud-américain s’est parfaitement déroulé. En injectant de l’air à l’intérieur des 30 caissons positionnés autour de l’épave, les équipes ont pu soulever le navire tout en l’attirant 30 mètre plus à l’est. A peine 5 heures après le début des opérations, le Costa Concordia s’était déjà détaché de la plateforme sous-marine de plus d’un mètre sur les deux prévus. Le géant de 114 000 tonnes pour 290 mètres de long a bien tenu le choc.

Maintenant que le tristement célèbre paquebot dont le naufrage s’était soldé par la mort de 32 personnes est à flot, les équipes vont le stabiliser et maintenir les ponts 3 à 6 émergés. Il restera tout de même 18,5mètres de la hauteur totale du navire sous l’eau.

Du fait de la bonne avancée du renflouement, le départ du Concordia reste prévu pour le 21 juillet. Cette opération pour remettre à flot un navire aussi énorme aura coûté la bagatelle de 1,5 milliards d’euros !

Revivez la première phase des opérations en accéléré :

Par Audrey Loubens

Place aux SMS odorants avec l’oPhone

L’innovation a de quoi surprendre par son aspect extraordinaire et avouons le aussi, un peu saugrenu.

Pourtant, envoyer et recevoir des odeurs grâce à son téléphone n’a jamais été aussi prêt de se réaliser qu’aujourd’hui.

Cela grâce au travail de ses créateurs : David Edwards, professeur de génie biomédical à l’Université d’Harvard et fondateur du Laboratoire à Paris et l’une de ses élèves. Ensemble, ils ont mis au point ce dispositif particulier qui se présente comme un petit boîtier tubulaire blanc posé sur un socle et qui expulse de brefs jets de vapeurs odorantes en fonction de la demande.

Le mode d’emploi

Pour envoyer et recevoir des odeurs, procédez comme suit. Vous disposez d’un iPhone et avez téléchargé l’application gratuite oSnap. Vous pointez l’objectif de votre appareil photo sur l’objet de votre choix (un arbre, une plage, un café…) puis vous composez la senteur que vous souhaitez associer à la photo. Vous avez la possibilité de combiner jusqu’à 8 arômes sur un panel de 32 disponibles pour le moment. Ce qui permettrait apparemment de créer 300 000 odeurs différentes.

Voilà, vous avez créé une oNote. Ne vous reste plus qu’à envoyer l’odeur à l’une de vos connaissances et que celle-ci connecte son iPhone à l’oPhone. Au préalable, l’utilisateur devra charger des mini-capsules, les oChips, pour sentir quelque chose. Ces capsules contiennent les particules essentielles. À ce jour, David Edwards et sa co-équipière ont ciblé deux domaines : « celui du café, et plus largement celui de l’alimentaire ».

Fantastique sur le papier mais…

Plusieurs tests ont d’ores et déjà été effectués. Ils indiquent que l’usage du dispositif n’est pas aussi simple qu’énoncé. Tout d’abord, l’expérience montre qu’il ne suffit pas de disposer d’un téléphone pour recevoir les odeurs, mais bel et bien d’un ensemble de choses (le terminal mobile, l’application et l’oPphone). Qui plus est, le poids de l’oPhone fait qu’il ne peut être déplacé. Problème qui pourrait se résoudre avec sa miniaturisation future défend David Edwards. Bon, mais même une fois ces conditions réunies, reconstituer une odeur correspondant parfaitement à notre ressenti s’avère ardu. En effet, imaginez-vous reproduire le fumet d’un bon plat, la fragrance délicate d’un parfum… Cela demande du doigté et un nez d’expert comme celui d’un œnologue ou d’un cuisinier.

Et puis il faut se rendre à l’évidence, il y aura clairement des odeurs que l’on ne souhaitera pas recevoir. Jus de chaussettes, linge moisi… je vous laisse libre de dresser un petit tableau de ces odeurs fétides. Pour ce genre de raisons, les septiques ne seront certainement pas rares.

L’oPhone s’adresse-t-il vraiment aux particuliers ?

Ou, est-ce que chaque foyer disposera de son oPhone ? S’il est impossible d’apporter une réponse à cette question, on peut au moins en douter, quand bien même l’idée est « de créer un usage créatif et social ». À priori, le secteur de la vente en ligne semble plus indiqué à son développement.

De nombreuses marques dans le domaine de la cosmétique, de l’alimentaire et du cinéma auraient d’ailleurs montré leur intérêt. La mise en vente de l’oPhone se fera dès 2015 au prix de 199 euros auquel il faudra ajouter 20 dollars pour se prémunir de quatre oChips. Le marché devrait d’ailleurs se tourner principalement autour de la vente des mini-capsules. Nous verrons à ce moment si cela changera notre manière de communiquer comme le certifiait David Edwards à l’AFP !

Par Sébastien Tribot

La biodiversité des poissons marins tropicaux porte la trace des récifs coralliens du passé

Des chercheurs du laboratoire Ecologie des systèmes marins côtiers (ECOSYM – CNRS/IRD/Universités Montpellier 1 et 2/Ifremer) et du laboratoire CoRéUs 2 (IRD) ont démontré que la répartition actuelle de la biodiversité marine tropicale est principalement due à la persistance de ces zones durant les périodes de glaciation au Quaternaire. L’empreinte laissée par l’histoire a ainsi une influence plus forte sur la biodiversité des poissons tropicaux que les facteurs environnementaux contemporains tels que la température des eaux et la surface des récifs. Ces travaux, réalisés en collaboration avec plusieurs équipes internationales, montrent la nécessité de protéger certains habitats irremplaçables qui permettent aux espèces de persister durant les épisodes de changement climatique. Ils sont publiés dans la revue Science du 30 mai 2014.

Les scientifiques ont toujours été fascinés par le pic de biodiversité marine situé autour de l’Indonésie et des Philippines, dans ce que l’on appelle le Triangle de corail. On y trouve environ trois mille espèces de poissons liés aux récifs coralliens, soit dix fois plus que dans l’est du Pacifique et de l’Atlantique pour une même latitude et pour ce même habitat. Ce gradient de biodiversité est encore mal expliqué. De nombreuses hypothèses ont été avancées mais la plupart se focalisent sur l’impact de variables actuelles telles que la surface des récifs ou la température de l’eau.

Les habitats coralliens se développent dans des conditions de température et de lumière très spécifiques. En se basant sur la température des eaux reconstruite pour le Quaternaire, les auteurs de cette étude ont pu reconstituer une cartographie des récifs et ainsi suivre leur évolution durant 2,6 millions d’années. En comparant l’actuelle distribution globale des poissons marins tropicaux à celle de ces paléo-récifs, les chercheurs ont pu tester pour la première fois le rôle clé des habitats qui ont persisté pendant les nombreuses périodes glaciaires et qui ont ainsi pu servir de refuges pour la biodiversité.

Les chercheurs ont démontré que le degré d’isolement d’un récif actuel par rapport aux zones refuges du quaternaire constitue le facteur le plus important pour expliquer la distribution des poissons marins tropicaux observée de nos jours. Plus un récif a été proche d’une de ces régions stables au cours du temps, plus la biodiversité y est forte aujourd’hui. Ce résultat suggère à la fois la persistance des espèces dans ces zones, des extinctions massives en dehors et la capacité des habitats refuges à être des « sources » de colonisation permettant de peupler de nouveaux récifs coralliens apparus aux périodes plus chaudes.

Si les poissons ont investi de nouvelles régions à partir des zones refuges, la biodiversité contemporaine devrait également dépendre de l’aptitude à recoloniser de chaque espèce. Pour tester cette hypothèse, les chercheurs se sont intéressés à trois familles de poissons caractéristiques des habitats coralliens et ayant des capacités de dispersion distinctes. Les poissons demoiselles sont de moins bons colonisateurs que les poissons papillons et les labres. Résultat, dans ce groupe la diversité des espèces chute bien plus rapidement que pour les deux autres familles lorsqu’on s’éloigne des refuges. L’histoire très ancienne des récifs a donc une influence majeure sur l’actuelle distribution de la biodiversité mais aussi sur la composition en espèces et en lignées phylogénétiques des communautés de poissons tropicaux.

En étudiant l’âge des différentes espèces au sein de ces trois familles de poissons, les chercheurs ont aussi observé que les plus anciennes et les plus récentes ne sont présentes que sur les habitats coralliens proches des zones refuges. Ces récifs qui ont persisté au cours du temps ont donc assuré le double rôle de musée et de berceau : ils ont permis la sauvegarde des espèces anciennes et ont aussi favorisé l’apparition de nouvelles espèces (spéciation). Les fluctuations climatiques du quaternaire ont ainsi laissé une marque indélébile sur la distribution globale de la biodiversité corallienne. Ce message du passé souligne la nécessité de préserver des habitats refuges : ce sont ces zones stables associées à des corridors favorables à la recolonisation qui permettent le maintien de la biodiversité à large échelle. Dans le contexte actuel des changements globaux qui provoquent des événements climatiques extrêmes affectant les habitats, ce message possède encore plus de résonnance.

Source : cnrs

Echy met la lumière naturelle à portée de tous

6 m² de panneaux de capteurs suffisent à éclairer 100 m². Cette performance, seule la Start-up française Echy y parvient, ses concurrents travaillant avec des panneaux d’1 m² maximum pour éclairer une pièce de 10m².

Les frenchies voient donc plus grand. La Banque publique d’investissement est convaincue, mais pour séduire le plus grand nombre comme ils le souhaitent, il leur reste à optimiser la technologie et plus particulièrement à en abaisser le coût, condition sine qua non au déploiement de masse d’Echy.

Le système est connu depuis plusieurs années. Il consiste à collecter la lumière du soleil via des lentilles, puis à transporter les photons au travers de fibres optiques. Ces dernières restituent la lumière naturelle et permettent ainsi d’éclairer des pièces sans ouverture de façon naturelle. Les infrarouges et les ultraviolets sont filtrés. La nuit ou lorsque les nuages dissimulent le soleil, un dispositif de LED alimenté électriquement prend le relai. Echy est donc un système hybride capable d’apporter un éclairage constant dans de vastes pièces.

Les deux associés à l’origine d’Echy en ont eut l’idée pendant leur cursus scolaire. L’absurdité d’éclairer de façon artificielle des salles de cours sans fenêtre en plein jour les a inspiré, et ils ont décidé de mettre au point un produit capable d’apporter la lumière du soleil même dans des pièces fermées telles que des sous-sols, des caves, des entrepôts… Ils n’hésitent pas à parler de luminothérapie et a rappeler l’impact bénéfique de la lumière naturelle sur la santé et l’humeur. Mais ce système permet aussi de substantielles économies d’énergie en remplaçant l’éclairage électrique, et permet de se rapprocher un peu plus des bâtiments à énergie positive de demain. EDF ne s’y est pas trompé et leur a décerné le prix Habitat EDF Pulse.

Les deux associés espèrent proposer sur le marché un produit fini et à un prix abordable dès la fin de l’année.

Par Audrey Loubens