L’Amazon Kindle Fire : un succès inattendu

Bien avant son lancement, le 15 novembre 2011, l’Amazon Kindle Fire n’a cessé de faire parler d’elle. Alors qu’encore aujourd’hui, la vente de la tablette reste exclusive aux États-Unis, les recettes d’Amazon décollent jusqu’à empiéter sur celle de ses concurrents. D’après les analyses d’IHS iSuppli Research, 3,9 millions de Kindle Fire se sont écoulées en seulement deux mois. Sur cette période, Amazon passe en deuxième place des vendeurs de tablettes et détient ainsi 14 % des parts de marché.

L’explication tient en grande partie à son prix très intéressant pour une tablette : 199 dollars. Facteur important pour les plus de 65 ans et les revenus modestes. Sans compter sur la différence frappante de tarif proposé par Apple et son iPad à 499 dollars.

L’autre point fort, le format 7 pouces de son écran tactile. La Kindle Fire est peu encombrante et se transporte aisément.

Côté caractéristiques, elle ne joue pas sur le même terrain que l’Ipad. La Kindle Fire a la particularité d’être une tablette Androïd. Elle se sert du navigateur Silk, spécifique à Amazon et privilégie les serveurs du Cloud. Le stockage du contenu est automatique sur la plate-forme d’Amazon. Huit Go sont alloués au stockage des données. Son processeur dual-core 1 Ghz ainsi que 512 Mo de Ram assurent un fonctionnement correct du contenu multimédia. Après chargement de la batterie sur prise murale, l’autonomie est de huit heures. Suffisant pour regarder un ou plusieurs films. En revanche, l’absence de l’encre électronique E-Ink, rend la lecture plus fastidieuse.

À ce succès, s’ajoute désormais la rumeur d’une tablette Kindle Fire 10 pouces dont la commercialisation serait prévue aux alentours du second trimestre 2012. Une annonce qui n’arrange pas tout le monde. En effet, cet essor des tablettes engendre un phénomène inverse pour les eReader et PC. Dell et HP par exemple, affichent des résultats en berne. Quant à Asus, ses ventes ont diminué de 24 % entre deux trimestres.

Quand arrivera-t-elle en France ? Aucun élément concret ne permet de déterminer sa date de sortie bien que son lancement semble imminent. Certaines rumeurs prétendent que la marque pourrait faire un tir groupé en présentant l’ensemble de l’offre Kindle. C’est-à-dire lancer la Kindle Fire et la Kindle Touch peu avant la sortie de l’iPad 3.

(Crédits photo : AFP)

Par Sébastien Tribot

Le Danemark, champion du monde de l’innovation cleantech

Le classement a été réalisé selon 15 critères, regroupés en 4 catégories principales : les facteurs favorisant l’innovation en général (dont la culture entrepreneuriale), les facteurs favorisant l’innovation spécifiquement écotechnologique (dont les politiques publiques et l’accès aux financements privés), l’effectivité de l’émergence des innovations, et l’effectivité de leur commercialisation concrète (dont le chiffre d’affaire des entreprises et le nombre d’emplois créés). L’étude a principalement porté sur les écotechnologies énergétiques, c’est-à-dire sur les technologies de collecte des énergies renouvelables. Un indice synthétique a été construit en donnant un poids égal aux 4 catégories de critères, ce qui a permis d’obtenir le premier classement jamais réalisé en la matière.

Israël, la Suède et la Finlande suivent le Danemark dans le classement. Ce sont ainsi des petits pays qui se montrent les plus favorables à la création et au succès des start-up à vocation écotechnologique. Viennent ensuite en 5ème et 6ème position les USA et l’Allemagne.  La Scandinavie et plus généralement les pays dont la religion dominante est le protestantisme (à l’exception d’Israël), sortent largement gagnants. La Russie, l’Arabie Saoudite ou le Mexique, grands pays riches en ressources fossiles (pétrole et gaz) se positionnent en bas du classement.

La France, pays à fonctionnement très centralisé, obtient un classement très moyen. « Les moteurs de l’innovation en général sont faibles à cause du manque de culture entrepreneuriale », soulignent les auteurs du rapport.

Le Danemark consacre 3,14% de son PIB à la manufacture écotechnologique et a un haut niveau de consommation intérieure en énergie renouvelable par point de PIB. La volonté politique de réduire la demande intérieure en énergies sales est très forte au Danemark, et le gouvernement s’est par exemple fixé comme objectif de produire 50% de son électricité à partir de l’éolien dès 2020, contre 26% en 2011, ce qui est déjà conséquent. Le groupe Vestas, qui était au départ une petite entreprise régionale innovante spécialisée dans l’éolien, est parvenue à commercialiser à grande échelle sa technologie et à conquérir le marché global.

Dans les années à venir, le classement pourrait être bouleversé avec l’émergence des puissances asiatiques, dont la Chine et l’Inde.

Par Olivier Danielo

 

 

également

Fiches pratiques : Déployer l’innovation à 360°

En tant qu’ingénieur, vous êtes, de par votre formation, bien préparé à appréhender les technologies émergentes, à travailler sur les projets de R&D et sur le développement de nouveaux produits, et à savoir effectuer des compromis technico-économiques. Vous savez inventer à partir de feuilles de routes bien délimitées, transmises par la direction ou le marketing.

Ces schémas ne tiennent plus ! Il est devenu vital pour les entreprises de savoir innover de manière rapide et systématique. La méthode, le processus, l’outil ou l’organisation, la culture et la motivation sont les briques indispensables à ce nouveau savoir-faire de l’innovation. Autant de notions familières à l’ingénieur qui vous propulsent au cœur du dispositif d’innovation des entreprises.

EN SAVOIR PLUS

Revue du Web #21 : les vidéos de la semaine

Cette semaine dans la revue du Web :

  • Un androïde dans une vitrine qui accueille les clients d’un grand magasin de Tokyo ;
  • une application pour smartphone, permettant de supprimer certains détails non désirés d’une photo ;
  • un robot poisson si convaincant qu’un autre poisson nage de manière stationnaire à ses côtés ;
  • l’US Navy réalise des tests avec un nouveau prototype de canon électromagnétique ;
  • un skateboard totalement contrôlé par… le cerveau du skateur ;
  • la vidéo (inutile ?) de la semaine, un internaute se laissant surprendre par de l’azote liquide ;
  • en bonus, l’eau et le feu en « impesanteur ».

Un androïde à l’accueil d’un magasin japonais, pour attirer le chaland :

Pour débuter cette vingt-et-unième revue du Web, voici la vidéo d’un grand magasin japonais, Takashimiya, à Tokyo, ayant eu l’idée d’installer un mannequin androïde plus vrai que nature dans une vitrine située à l’entrée de celui-ci.

Conçu en collaboration avec le docteur Hiroshi Ishiguro de l’université d’Osaka, déjà responsable d’un robot « Geminoïd » bluffant, l’androïde est capable d’interagir avec les clients, et dispose d’une palette relativement large de mouvements et d’émotions déclenchés par son environnement et donc, par les passants.

Le visage de ce mannequin est capable de reproduire, selon son créateur, plus d’une soixantaine d’expressions humaines, allant plus loin que le simple ennui ou la joie manifeste. Le mannequin se met aussi à bâiller lorsqu’il est dans l’attente de clients, ou pour leur signifier qu’ils sont trop frileux et doivent s’approcher.

Si vous ne trouvez pas cet androïde effrayant, réjouissez-vous : il y a de fortes chances pour que ces dispositifs se multiplient dans un avenir proche.

Une application smartphone permet de supprimer les éléments non désirés d’une photo :

Faire disparaître certains éléments « gênants » d’une photo : tel le parti communiste soviétique à l’époque de Staline, retouchez aisément et instantanément vos photos à l’aide de l’application « Remove » de l’entreprise suédoise Scalado.

Ici, point de réécriture de l’Histoire, Remove vous permet de supprimer toutes les entités indésirables apparaissant sur une photo, tels les passants, au moment où vous effectuez la captation.

Son principe est simple : plutôt que de prendre un seul cliché, l’utilisateur en prend en fait… cinq. Il suffit alors de choisir le cliché désiré, et les éléments reconnus comme mouvants disparaissent en un simple clic, laissant apparaître l’arrière-plan enregistré sur l’une ou l’autre des cinq photos.

L’entreprise suédoise est depuis une douzaine d’années à la pointe des applications photographiques. Parmi celles-ci, « Scalado Panorama », qui permet de construire un panorama à l’aide de plusieurs clichés, et « Scalado Rewind », permettant lors d’une photo de groupe de choisir les visages et expressions de la photo finale à partir de différents clichés pris à la suite.

Un poisson robot très convaincant :

Stefano Marras et Maurizio Porfiri, de l’institut polytechnique de New-York, ont mis au point un robot aquatique pour le moins convaincant.

Les ondulations du robot ont tout simplement réussi à leurrer de nombreux poissons, qui se sont mis à le suivre pour certains, d’autres n’y prêtant aucune attention mais ne le percevant ni comme une menace, ni comme un intrus.

Bien qu’il subsiste des doutes concernant la raison d’un tel comportement, les concepteurs du robot ont émis l’hypothèse que le gabarit du robot poisson, combiné au mouvement crédible de sa queue et de sa nageoire caudale, étaient à l’origine de la réussite de leur projet.

Ce prototype devrait pouvoir faciliter l’étude de certains poissons dans leur milieu, l’intégration d’un banc de poisson, voire permettre de les éloigner plus aisément de certaines zones sinistrées (pollution, marée noire…) à l’aide d’un poisson « éclaireur ».

Il est toutefois impossible de ne pas penser à son utilisation par les pêcheurs, dont les filets pourraient alors se remplir presque sans effort.

Le canon électromagnétique de l’US Navy :

L’US Navy disposerait depuis peu, grâce au géant américain de l’armement BAE Systems, de son premier prototype de canon électromagnétique.

Dégageant près de 32 mégajoules, ce canon n’utilise pas de munitions conventionnelles. Point de poudre, point de produit chimique, le projectile est propulsé à l’aide d’un courant électrique.

La différence de potentiel électrique entre les deux rails parallèles et conducteurs créé un champ magnétique expulsant le projectile de quatre kilos, lui aussi conducteur, au moment où il entre en contact avec les deux rails. Le projectile est accéléré par la force de Laplace, et atteint très rapidement les 9 000 km/h.

La marine américaine, sur le coup depuis près de sept ans, espère pouvoir atteindre à l’aide de ce prototype des cibles se trouvant à près de 200 kilomètres avec une précision acceptable (atteindre une cible de cinq mètres de large), sans avoir à faire face aux dangereux transport et stockage d’éléments explosifs. Les navires de guerre n’en seront, eux, que plus légers.

Un skateboard contrôlé par le cerveau du skateur :

« The Board of Imagination », développé par Chaotic Moon Labs, société innovante basée à Austin, au Texas, est une planche de skate pas tout à fait comme les autres.

La planche est en effet directement contrôlée… par le cerveau du skateur. A l’aide d’un casque captant les signaux neuronaux, un « profil neuronal » du skateur est réalisé, point de départ indispensable permettant de calibrer le logiciel pour le futur décryptage des signaux.

Ceux-ci sont envoyés vers une tablette numérique, et traités par le logiciel commandant le moteur électrique.

« Pour avancer, il vous suffit de vous visualiser quelque part en fixant un point, puis d’imaginer à quelle vitesse vous voulez atteindre ce point », explique le manager de Chaotic Moon Labs.

Déjà responsables d’une planche de skate contrôlée à l’aide d’un dispositif Kinect, « The Board of Awesomeness », les concepteurs rappellent toutefois qu’il est préférable de rester… concentré. Aucune commercialisation n’est prévue pour le moment.

Se faire surprendre par de l’azote liquide en bouteille :

Pour conclure cette vingt-et-unième revue du Web, voici la vidéo d’un internaute se laissant surprendre par de l’azote liquide, azote qu’il a lui-même introduit dans une bouteille qu’il scelle à l’aide d’un bouchon.

Alors que rien ne se produit lors des premières secondes, la vigilance du chimiste en herbe faiblit : celui-ci s’empare de la bouteille qui explose alors violemment dans l’une de ses mains.

L’explication est simple : lorsque l’azote liquide se transforme en gaz, il va occuper un volume environ six cents fois plus important. Si le contenant est scellé, la pression augmente très rapidement. S’il est assez solide, le contenant va forcer le gaz à rester sous forme liquide, avec un dégagement de chaleur et une augmentation de la pression. Ici, la différence de température entre la main et la bouteille entraîne l’explosion pure et simple de celle-ci.

Bonus : l’eau et le feu en impesanteur :

En bonus, voici deux vidéos remarquables : la première réalisée lors d’un des très nombreux vols paraboliques effectués par la NASA, dans un but préparatoire et expérimental. L’intérêt du vol parabolique est qu’il permet d’obtenir des conditions similaires d’impesanteur à celles subies par un astronaute en mission orbitale. La seconde montre très brièvement une flamme, elle-aussi aux prises avec l’impesanteur.

Par Rahman Moonzur

 

Encore plus de Revues du Web :

Revue du Web #19

Revue du Web #18

Revue du Web #17

Revue du Web #16

Revue du Web #15

Revue du Web #13

Nanolasers innovants : un pas de plus vers l’opto-électronique

Une équipe de chercheurs de l’Université de Californie, San Diego, a récemment développé dans ses laboratoires deux nouveaux lasers aux propriétés remarquables : le plus petit nanolaser à température ambiante jamais créé, ainsi qu’un nanolaser « sans seuil » dont le rayonnement se fait sans perte aucune, tous les photons servant à créer un rayonnement cohérent.

Ces nanolasers (lasers dont les dimensions sont « nano ») ne requièrent que peu d’énergie pour fonctionner, avancée remarquable en regard de la quantité d’énergie habituellement requise pour des lasers de cette taille. En effet, plus la section d’un laser est petite, plus son besoin en énergie pour émettre un rayon cohérent est élevé. Pour faire face à ce problème, l’équipe de chercheurs a réussi à modifier la géométrie des cavités utilisées par le laser pour émettre, emprisonnant la lumière à certaines fréquences et amplifiant celle-ci.

Tout laser a besoin d’une certaine quantité d’énergie provenant d’une source extérieure pour commencer à émettre un rayon cohérent. Le seuil d’un laser correspond au point où ce rayon cohérent est plus grand que toute autre émission spontanée produite. Publiés dans le journal Nature, ces travaux mettent en avant les bénéfices que peut apporter le nanolaser « sans seuil », notamment dans l’aide au développement de métamatériaux, matériaux dont la structure artificielle est étudiée dans le but de développer, par exemple, de super-lentilles d’observations (pour les virus ou les molécules ADN).

La petite taille et la faible consommation de ces deux lasers en font surtout de sérieux atouts pour la création d’un futur ordinateur optique, comme supports de transport de l’information dans les composants électroniques, réduisant la quantité de photons nécessaires à cette transmission. Les RAMs optiques fonctionnent d’ores et déjà en laboratoire… L’opto-électronique est dès lors synonyme de progrès, le développement et la croissance des processeurs ayant ralenti ces dernières années faute de progrès significatifs dans la miniaturisation de certaines technologies. L’intégration, la rapidité et la faible consommation en sont quelques uns des avantages.

Leur taille n’excède pas la moitié d’un micron de diamètre, et leur conception permet même, théoriquement, de les décomposer en unités plus petites compatibles avec de s nanostructures du même acabit. La taille des métamatériaux qui en résulteraient en serait, bien évidemment, réduite d’autant. Leur utilisation et leur intégration sont en outre rendus possible par leur fonctionnement à température ambiante.
D’autre pistes d’utilisation sont avancées par Yeshaiahu Fainman, membre de l’équipe de chercheurs : la création de nouveaux capteurs biochimiques, ainsi que des écrans très haute résolution. Mais tous les mécanismes de ces lasers restent toutefois à éclaircir.

Par Rahman Moonzur

L’innovation avec les lead users

Pour créer de nouveaux produits, les méthodes classiques proposent d’écouter les utilisateurs pour déterminer des besoins existants ou émergeants, de les agréger en grandes catégories et de produire en masse afin de réaliser des économies d’échelle. Cependant, ce procédé permet rarement de réaliser des innovations radicales, ni d’anticiper des besoins « en devenir » qui pourraient s’avérer une formidable source d’innovation.

Le problème provient du fait qu’il est extrêmement complexe et coûteux d’extraire de l’information sur les besoins d’utilisateur et de la transférer chez le producteur, d’autant plus que l’utilisateur est souvent bien incapable de formaliser ses besoins de manière explicite. Von Hippel a montré que ce problème est lié à la nature de l’information sur les besoins d’utilisateur : une information fortement rattachée au contexte de l’utilisateur (stickly information) et possédant une forte viscosité (stickiness).

La viscosité de l’information est définie comme la dépense progressive exigée pour la transférer dans un lieu donné sous une forme utilisable pour un chercheur d’information (Von Hippel, 1994). Pour les entreprises, le coût de récolte de cette information est élevé. Elles sont obligées de multiplier les études de marché pour s’intéresser à des segments de plus en plus petits afin de s’approcher au plus près du client et de saisir l’évolution rapide des marchés. L’information obtenue risque aussi d’être à cause d’un manque de capacité d’absorption de la part des organisations, dû essentiellement à des rigidités internes.

Dans ce contexte, impliquer l’utilisateur dans les procédés d’innovation est une façon de remédier à ce problème de stickly information. On n’essaye plus d’extraire l’information du contexte de l’utilisateur pour la placer dans le contexte de l’organisation. On donne un rôle de producteur à l’utilisateur et il va ainsi produire de l’information directement utilisable par l’entreprise : idée, concept, solution ou contenu. Pour Von Hippel, « pour résoudre un problème, on a besoin de réunir dans un même lieu, l’information et les capacités de résolution du problème » (Von Hippel & Katz, 2002).

Les Lead users

Une des méthodes pour résoudre ce problème consiste à intégrer les innovations des lead users dans le processus de conception (Von Hippel, 1999). Les lead users sont des utilisateurs à l’avant-garde d’un domaine, ayant un fort intérêt à innover pour eux-mêmes, imaginant et développant des solutions qui répondent à des attentes qui vont se généraliser par la suite à l’ensemble des utilisateurs du domaine. Von Hippel base sa theorie Lead user sur un utilisateur qui présenterait deux caractéristiques, à l’avant-garde d’une tendance (the ahead of trend) et possédant un fort intérêt à innover (the high expected benefit).

La composante de l’avant-gardisme d’une tendance est basée sur l’hypothèse que les besoins des utilisateurs du marché tendent à évoluer suivant une direction soutenue par une tendance générale. Les premiers utilisateurs se situant sur cette tendance font l’expérience de besoins qui n’ont pas encore été ressentis par la majorité des utilisateurs. Si ces utilisateurs innovent pour combler ces besoins, cette innovation peut devenir très attractive pour les autres pour résoudre un futur problème du marché de masse.

La composante du fort intérêt à innover est basée sur l’économie de l’innovation qui argumente qu’un haut niveau d’investissement dans une activité dépend du bénéfice escompté. Les innovateurs bénéficient directement du leur. Ils innovent parce que le marché ne répond pas à des besoins qu’ils considèrent comme importants. Ils peuvent alors investir un temps important pour chercher des solutions.

Ces deux premières composantes ont été validées empiriquement à l’aide d’échelle de mesure (Franke, von Hippel, & Schreier, 2006 ; Morrison, Roberts, & Midgley, 2004 ; Morrison, Roberts, & Von Hippel, 2000). La recherche confirme que les Lead Users ont tendance à plus innover que les autres utilisateurs et à créer des innovations plus attractives commercialement. La composante en avance sur le marché aurait même plus d’impact que la composante du fort intérêt à innover (Franke et al., 2006).

Cependant, ces études ne permettent pas d’expliquer pourquoi ces utilisateurs sont à l’avant-garde et pourquoi ils innovent. Des études récentes sont venues enrichir la théorie Lead user en proposant d’autres variables, à la fois liées à l’individu et au domaine dans laquelle se situe l’innovation.

 

Lire la suite ici

 

Par Guy Parmentier, TheInnovation.eu

 

Guy Parmentier

Chercheur en management de l’innovation, Guy Parmentier effectue des recherches sur la gestion de l’innovation avec les communautés d’utilisateurs et l’entreprise face aux mondes virtuels.

Passionné d’innovation, avant de passer à la recherche et au conseil à l’innovation, il a géré successivement des projets éditoriaux dans l’édition de beaux-livres, la production de jeu vidéo et une start-up sur la conception et la gestion des personnages virtuels.

Aujourd’hui, il apporte ces multiples compétences au service de la recherche sur le terrain, de l’enseignement et de l’accompagnement de projets d’innovation.

Ce blog lui permet aussi de contribuer au Web 2.0 en publiant réflexions et analyses sur le management de l’innovation.

 

 

 

 

 

 

 

Pour aller plus loin :

Découvez les fiches pratiques Techniques de l’Ingénieur :

L’arrogance de la finance

L’ouvrage – sous-titré « Comment la théorie financière a produit le krach » – retrace, dans un style à la fois nuancé, rigoureux et dépassionné, les dérives du processus d’innovation financière qui ont conduit à la crise actuelle.

Il met en lumière les causes profondes du dévoiement des modèles mathématiques de la finance moderne.  Il révèle la fragilité de leurs fondements, qui tient notamment à la nature artificielle des hypothèses de « normalité » qui ont été formulées par leurs concepteurs.

Il dévoile « les petits et les grands arrangements », pris volontairement ou involontairement par ces derniers – dont certains ont reçu les plus hautes distinctions académiques – afin de mieux servir les intérêts des investisseurs et des opérateurs des marchés.

Il invite à clarifier et à refonder certaines notions  applicables aux instruments financiers, comme les indicateurs browniens de mesure du risque, les coefficients d’actualisation, les coûts de transaction, les effets volumes-prix des transactions, les effets induits des réglementations…

Les deux auteurs sont des enseignants-chercheurs reconnus de la finance de marché, qui ont acquis une longue expérience des salles de marché. Ils montrent de manière convaincante – au-delà de la critique de certains modèles mathématiques – les dangers insoupçonnés d’une approche uniquement positiviste – et donc, insuffisamment constructiviste – de la réalité économique d’aujourd’hui.

 

L’arrogance de la finance

Henri Bourguinat et Eric Briys

Ed. la découverte, 2009

 

Jean-Jacques Pluchart

Jean-Jacques Pluchart est professeur des Universités en sciences de gestion et responsable du Master GMDE (Gestion et Méthode de Décision d’Entreprise) à l’Université Paris 1 Panthéon-Sorbonne. Il est co-auteur de nombreux ouvrages d’économie et de gestion dont Master stratégie (Eska,2009), Euro-gouvernance et euro-management (Eska, 2010), Le management durable de l’entreprise (SEFI, 2011), Repenser la planète finance (Eyrolles, 2009) et La confiance en gestion (de Boeck, 2011).

Aux Techniques de l’Ingénieur, il est l’auteur de la base documentaire Management stratégique et gouvernance d’entreprise  :

Histoire d’innovation : Skiss Strap System

L’idée est venue de Fernandez, artisan habitant Orléans, qui après une semaine de galère aux sports d’hiver à devoir porter les skis de ses enfants, a confectionné le premier Skiss avec les moyens du bord dans son garage. Vous reconnaîtrez chez lui la figure classique du Lead User qui a identifié un problème et qui essaye de le résoudre.

Néanmoins, M. Fernandez n’avait ni le temps, ni les moyens de commercialiser son invention. Un inventeur n’a pas forcément envie de se lancer dans une création d’entreprise. Il cherchait donc une équipe capable de le faire à sa place.

Il en parle à Arthur qui a fait un master en entrepreneuriat et qui avait déjà monté une entreprise d’import export. L’idée lui semble intéressante, et avec deux autres amis, Mathias et Oscar qui ont fait des études de commerce et de gestion, ils décident de se lancer, SKISS est née.

De l’idée au produit fini

Des semaines de tests auprès de pratiquants et de professionnels du ski leur permettent d’améliorer la conception initiale. Ensuite l’équipe a dû trouver un fabricant.

Lire la suite ici

Par Guy Parmentier, TheInnovation.eu

Guy Parmentier

Chercheur en management de l’innovation, Guy Parmentier effectue des recherches sur la gestion de l’innovation avec les communautés d’utilisateurs et l’entreprise face aux mondes virtuels.

Passionné d’innovation, avant de passer à la recherche et au conseil à l’innovation, il a géré successivement des projets éditoriaux dans l’édition de beaux-livres, la production de jeu vidéo et une start-up sur la conception et la gestion des personnages virtuels.

Aujourd’hui, il apporte ces multiples compétences au service de la recherche sur le terrain, de l’enseignement et de l’accompagnement de projets d’innovation.

Ce blog lui permet aussi de contribuer au Web 2.0 en publiant réflexions et analyses sur le management de l’innovation.

 

Pour aller plus loin :

Découvez les fiches pratiques Techniques de l’Ingénieur :

Nanoparticules : l’obligation de déclaration est effective

Le décret en bref

Le décret n°2012-232 signé du 17 février et publié au Journal Officiel du 19 février entrera en vigueur le 1er janvier 2013. Il concerne les entreprises et laboratoires de recherche publics et privés ayant une activité impliquant une quantité minimale de 100 grammes d’une substance à l’état nanoparticulaire en France.

Chaque année avant le 1er mai, ces entreprises ou laboratoires devront déclarer au ministère de l’environnement les quantités et les usages de nanomatériaux qu’ils produisent, distribuent ou importent.

Le dispositif a pour objet de « mieux connaître ces substances et leurs usages, de disposer d’une traçabilité des filières d’utilisation, d’une meilleure connaissance du marché et des volumes commercialisés et enfin de collecter les informations disponibles sur leurs propriétés toxicologiques et écotoxicologiques. »

Les déclarations, ainsi que les données qu’elles contiennent, seront gérées par l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (ANSES).

Des amendes et une publicité trop faibles ?

Fait notable, l’amende prévue en cas de non-respect de l’obligation légale a doublé par rapport aux versions antérieures du projet de décret. Initialement fixée à 1 500 euros maximum avec astreinte journalière de 150 euros, elle avait été qualifiée de « nano-amende », et jugée trop faible par beaucoup lors des consultations initiées par le ministère de l’écologie.

Elle est passé à 3 000 euros avec une astreinte journalière de 300 euros. Un doublement que d’aucuns estimeront bien symbolique et trop peu dissuasif. Sans compter les difficultés à prévoir en termes de contrôle par les pouvoirs publics, démunis – sur les plans scientifique, technique et humain – pour pouvoir détecter des nanomatériaux non déclarés.

Certains scientifiques, à l’instar de Jean-Claude André, directeur de recherche au CNRS, considèrent en outre que le texte aurait gagné à préciser que cette déclaration n’affranchit pas les entreprises et laboratoires de respecter – par tous les moyens adaptés et en vertu d’une gestion positive du principe de précaution – la protection de l’environnement et des personnels susceptibles d’être exposés à des nuisances éventuelles issues de matériaux dont la dangerosité peut ne pas être connue.

Un certain nombre d’acteurs avaient également critiqué les obstacles posés à l’information et la protection du public par les considérations de confidentialité et de respect du secret commercial et du secret industriel1. Les ministères ont choisi de ne pas tenir compte de ces remarques : le décret adopté est resté inchangé sur ces points (articles R.523-18 et 20)2.

L’Avicenn a recensé les principaux inventaires de produits « nano »

Les citoyens et consommateurs qui souhaitent en savoir plus disposent de quelques inventaires des nanoproduits, loin d’être exhaustifs et d’une fiabilité limitée, mais qui sont pour l’instant les seuls outils sur lesquels s’appuyer. L’Avicenn a effectué un recensement des principaux inventaires qu’elle vous propose de découvrir. Animés par une logique collaborative, nous vous invitons à nous aider à compléter, mettre à jour et améliorer ce premier travail de recensement, en nous écrivant à [email protected].

NOTES

1 – Voir notamment :

En décembre, le ministère de l’écologie avait également lancé une consultation sur le projet d’arrêté relatif à la déclaration annuelle des substances à l’état nanoparticulaire, qui complète le décret. Nous vous tiendrons informés des suites qui y seront données.

2 – Le Décret n° 2012-233 du 17 février 2012, publié dans le même Journal Officiel, désigne les organismes à la disposition desquels l’ANSES peut mettre les informations obtenues :

  • l’Agence française de sécurité sanitaire des produits de santé ;
  • l’Institut national de veille sanitaire ;
  • l’Institut national de recherche et de sécurité ;
  • l’Institut national de l’environnement industriel et des risques ;
  • les organismes chargés de la toxicovigilance mentionnés à l’article L. 1341-1 du code de la santé publique.

 

Par MD avec l’équipe Avicenn / VeilleNanos

 

 

Pour aller plus loin :

Participez à la formation Techniques de l’Ingénieur : Formation sur les nanomatériaux : évaluer et prévenir les risques HSE

 

 

 

 

 

 

 

 

À lire aussi :

Nanotechnologies et risques : quelles responsabilités ?

La cosmétique séduite par les nanotechnologies

« Les risques nano ne sont pas suffisamment pris en compte »

Nanotechnologies : où sont les ruptures annoncées ?

Débat sur les nanotechnologies : conclusion ou confusion ?

Le casse-tête de l’encadrement juridique des nanotechnologies

 

 


Les impacts environnementaux des TIC (2/3)

En ce qui concerne les requêtes Web, l’étude se fonde sur les estimations suivantes : chacun des 29 millions d’internautes français effectue chaque jour en moyenne 2,6 recherches, soit 949 par an. Les émissions de gaz à effet de serre dûes à ces recherches représenteraient 287 600 tonnes éqCO2 chaque année. Autrement dit, un internaute effectuant cette requête via un moteur de recherche et un mot-clé serait à l’origine de 9,9 kg éqCO2 émis. Par contre, si on compare cette recherche à une autre effectuée via l’outil « Mes favoris », l’étude montre que cette dernière a un moindre impact environnemental dans ses trois indicateurs pertinents retenus, à savoir le réchauffement climatique, l’épuisement potentiel des métaux et celui des ressources fossiles : « Réduire le nombre de pages consultées en utilisant des mots clés précis lors d’une recherche via un moteur de recherche… Saisir directement l’adresse dans la barre de navigation lorsque que l’on connaît un site Internet… Chacun de ces usages permet un gain de 5 kg équivalent CO2 par an. Cette économie représente annuellement les émissions de CO2 équivalentes à environ 40 km parcourus en voiture. »

D’autre part, si l’âge du capitaine n’entre pas en ligne de compte dans ce calcul, celui de l’ordinateur y joue un rôle. Si on effectue la recherche sur un ordinateur récent ou sur un de 7 ans, l’impact est plus faible dans le second cas : en effet, allonger la durée de vie du matériel de 3 ans (7 ans au lieu de 4) évite l’émission de 2,3 kg éqCO2 par an, soit à l’échelle de la France, l’équivalent de 500 millions de kilomètres parcourus en voiture : « En passant de 4 ans à 7 ans d’utilisation, les impacts environnementaux d’une requête Web classique sont réduits d’environ 20 à 35 %. Les scenarii étudiés ont montré que plus la durée de vie de l’ordinateur est longue, plus les impacts de production et de sa fin de vie sont amortis. »

Et quelques nouveaux conseils de l’ADEME s’imposent :

  • Optimiser ses recherches sur Internet ;
  • Faire durer autant que possible la durée de vie des équipements ;
  • Être attentif à la fin de vie de son ordinateur, considéré comme un déchet électronique : le dépôt en déchèterie ou le retour en magasin sont deux options possibles.

Par Claudine / blog EcoCO2

 

À lire aussi :

Les impacts environnementaux des TIC (1/3)

Les TIC sont bonnes pour l’environnement

Plus d’éthique dans les STIC

L’Europe veut doubler ses investissements dans les TIC d’ici 2020

 

Pour aller plus loin : 

15 et 16 mars 2012 : 7es Rencontres Internationales de la Propriété Industrielle

Les Rencontres Internationales de la Propriété Industrielle sont devenues une référence pour les professionnels de la Propriété Industrielle.

En 2012, elles seront rythmées par deux agendas :

  • Politique « L’innovation, un enjeu de campagne » ;
  • Technique « La croissance par l’innovation ».

À un mois du premier tour de l’élection présidentielle, ces Rencontres seront l’occasion de dresser un bilan des politiques d’innovation conduites au cours des cinq dernières années, et de dessiner les contours des réformes d’avenir propices à relancer la croissance. Elles livreront aussi les clefs des pratiques de pointe des entreprises pour mieux protéger, valoriser et développer leurs portefeuilles d’actifs de propriété industrielle.

Le programme des tables rondes permettra de :

  • Mieux comprendre le fonctionnement du Grand Emprunt, des SATT1, des IRT2, du CIR3, des fonds de brevets, … et découvrir quel meilleur parti en tirer pour son entreprise ;
  • Connaître les derniers développements autour du brevet unitaire et du tribunal européen des brevets, et évaluer leurs impacts pressentis sur l’économie ;
  • Renforcer l’innovation dans les technologies vertes, et gagner en compétitivité grâce aux nouveaux modes de création ouverts et participatifs ;
  • Exploiter la propriété industrielle pour conquérir de nouveaux marchés, en particulier aux États-Unis, et en Chine.

Plus de 50 intervenants au plus haut niveau vous répondront au travers de nombreux cas d’entreprises ; plusieurs leaders français et internationaux viendront présenter les stratégies de valorisation de leurs politiques d’innovation :

  • 50 % de grandes entreprises, PME innovantes et centres R&D : directions générales, recherche, PI, juridiques…
  • 40 % de conseils en propriété industrielle, d’avocats, cabinets d’audit et de valorisation, experts, banques…
  • 10 % d’institutionnels : INPI, OEB, CCI, Commission européenne, ministères, parlementaires, juges…

Avec la participation exceptionnelle de :

  • Laurent Wauquiez, Ministre de l’Enseignement Supérieur et de la Recherche

Interventions programmées :

AIR LIQUIDE – ALCATEL LUCENT – CDC ENTREPRISES – CNRS – COMMISSARIAT À L’ ÉNERGIE ATOMIQUE – COMMISSARIAT GÉNÉRAL À L ‘ INVESTISSEMENT – COUR DE CASSATION –  DIVERCHIM

EADS – ESSILOR INTERNATIONAL – EUROPEAN COMMISSION – EUROPEAN INVESTMENT FUND – FRANCE BREVETS – FRANCE TÉLÉCOM-ORANGE – GENERAL ELECTRIC COMPANY – GOOGLE

GROUPE THALES –  HUAWEI TECHNOLOGIES – IFP ENERGIES NOUVELLES – INDOM-NETNAMES – INPI – INSERM-TRANSFERT – INSTITUT PASTEUR –  KENYON & KENYON LLP –  LACOSTE 

LA TUILE DE BOIS – MICHELIN – OSÉO – PERNOD RICARD – PFIZER, INC. – RHODIA – SNECMA-GROUPE-SAFRAN – SOCIÉTÉ GÉNÉRALE – TECHNICOLOR – TOTAL – TOULOUSE SCHOOL OF ECONOMICS

TRIBUNAL DE GRANDE INSTANCE DE PARIS – UNION DES FABRICANTS – USPTO …

 

L’agenda complet de l’événement est disponible sur www.pi2012.fr

Gaz de schiste : ce que révèle l’enquête du New York Times (1/3)

Aux Etats-Unis, les compagnies d’énergie ont travaillé dur pour promouvoir l’idée que le gaz naturel est le combustible fossile de demain, et ils ont trouvé des alliés de circonstance dans le secteur des décideurs politiques à Washington.

Dans un discours cette année, le Président Obama affirmait que « le potentiel pour le gaz naturel est énorme aux Etats-Unis », considérant que cet état de fait devrait faire consensus chez les démocrates comme chez les républicains.

Le ministère de l’Énergie américain se vantait alors dans les médias d’aider les entreprises à se lancer dans l’aventure du forage en finançant les recherches qui ont permis d’exploiter le gaz piégé dans des formations de schiste en profondeur.

Dans ses rapports annuels de prévision, l’United States Energy Information Administration (Agence d’Information sur l’Energie des Etats-Unis), une division du Département de l’énergie, a augmenté de façon constante ses estimations de livraisons intérieures de gaz naturel, et les investisseurs, l’industrie pétrolière et gazière ont répété sans discontinuer que la manne offerte pas les gaz de schiste ne peut être mise à l’écart.

des milliers de mails incriminés

Mais tout le monde, à l’Agence d’Information sur l’Energie (EIA) des Etats-Unis n’accepte pas cette thèse telle quelle. Dans des dizaines de courriels internes et de documents, des fonctionnaires de cette institution font part de leur scepticisme sur l’avenir de l’industrie du gaz de schiste aux Etats-Unis.
Un fonctionnaire affirme par exemple que l’industrie des gaz de schiste est peut être vouée délibérément à l’échec : « Il est fort probable que beaucoup de ces entreprises vont faire faillite », prédit quant à lui un haut conseiller de l’EIA. Même de source officielle, plusieurs échos soulevés par la naissance des « bulles »  précédentes, celles du logement et des valeurs technologiques par exemple, et qui se sont terminées en fiascos financiers, n’entrainent pas à un optimisme démesuré.

Les employés de l’EIA, à travers les copies de mails et de documents obtenus par les journalistes du New York Times lors de leur enquête, évoquent souvent une surestimation de la part de l’industrie gazière quant aux réserves réelles de gaz contenues dans le sous-sol américain. La durée pendant laquelle les puits seront productifs est également évoquée, ainsi que les prix élevés que certaines sociétés ont versé pour acheter des bails de droit minier. Ils soulèvent également des préoccupations au sujet de l’imprévisibilité des forages de gaz de schiste.

Plus dans le détail, un haut fonctionnaire de l’EIA décrit dans ses échanges mails une « exubérance irrationnelle » autour du gaz de schiste. Un document de l’EIA s’inquiète également  de « l’apparence de la bonne rentabilité du gaz de schiste » communiquée par les entreprises ayant partie prenante dans le secteur des schistes. Ainsi, ces dernières se serviraient des chiffres de production et d’exploitation des meilleurs puits pour faire leurs études, et présenteraient ainsi des modèles d’exploitation sur les décennies à venir partiellement tronqués.

Bien qu’il existe des avantages environnementaux et économiques au gaz naturel par rapport à d’autres combustibles fossiles, sa grande popularité en tant que source d’énergie est relativement nouvelle. En conséquence, il n’a pas reçu le même niveau d’examen, selon certains écologistes et économistes de l’énergie.

Par Robbie Brown et Kitty Bennett

Gaz de schiste : ce que révèle l’enquête du New York Times (3/3)

Un certain nombre de facteurs ont également contribué, ces derniers mois, à créer plus d’intérêt envers les gaz de schiste. La catastrophe nucléaire au Japon en Mars a focalisé l’attention sur la promesse du gaz naturel comme une source sûre d’énergie. L’année dernière, pendant que les analystes du marché de l’énergie mettaient en garde au sujet des règlements fédéraux plus sévères sur le pétrole et le charbon, en particulier après la marée noire causée par BP et après l’accident dans les mines de charbon de Massey, ils soulignaient également que le gaz naturel devenait un investissement de plus en plus attrayant.

Seulement, l’analyse des méthodes de l’EIA soulève des questions quant à son indépendance par rapport aux grandes entreprises de l’énergie américaines, depuis que ces dernières travaillent avec le gouvernement à la rédaction de ces rapports remplis d’optimisme.
L’EIA, par exemple, s’appuie sur la recherche de consultants externes ayant des liens avec l’industrie. Et certains de ces consultants extraient les données qu’ils fournissent au gouvernement à partir de résultats fournis par les grandes compagnies énergétiques US, selon des e-mails récupérés par les journalistes du New York Times. Ainsi, les projections sur les approvisionnements futurs de gaz naturel à partir des schistes sont fondées non pas seulement sur la science, mais aussi sur les conjectures et les modélisations fournies par l’industrie.

Deux des principaux entrepreneurs du secteur, Intek et des Advanced Ressources International, ont fourni des estimations sur les gaz de schiste et des données pour la rédaction du grand rapport annuel de prospective sur ressources en pétrole et en gaz domestiques et étrangères du pays. Ces deux entreprises ont bien sûr d’importants clients dans l’industrie pétrolière et gazière, comme l’attestent les registres des impôts sur les sociétés consultés par les investigateurs du New York Times. de l’impôt des sociétés. Le président de la compagnie Advanced Ressources International, Vello A.Kuuskraa, est également actionnaire et membre du conseil de surveillance de Southwestern Energy, société fortement impliquée dans l’exploitation des gaz de schiste du secteur de Fayetteville dans l’Arkansas.

Les entrepreneurs ont dit qu’ils ne voyaient pas de conflit d’intérêts dans ces pratiques : « Tout d’abord, le rapport de l’EIA est une évaluation très transparente », a déclaré Tyler Van Leeuwen, analyste chez Advanced Ressources International, ajoutant que de nombreux experts sont en accord avec ses conclusions et que, par l’identification des domaines prometteurs, le rapport intensifié la concurrence pour Southwestern Energy.

La firme Intek, de son côté, produit des données pour les rapports de l’EIA, mais a refusé de répondre aux questions sur le fait que, compte tenu de ses liens avec l’industrie, il y avait un conflit d’intérêts émergent ou pas. Certains groupes de surveillance du gouvernement, ont, eux, directement reproché à l’EIA de ne pas maintenir une plus grande indépendance vis-à-vis de l’industrie.

« La forte dépendance de l’EIA vis-à-vis de l’industrie pour leur analyse sape fondamentalement la mission première de l’organisme, qui est de fournir une expertise indépendante », a déclaré Danielle Brian, le directeur exécutif du Projet « Government oversight », un groupe qui étudie les organismes fédéraux et du Congrès.

« Aussi, le Bureau de la sécurité chimique et le bureau national de sécurité des transports américains montrent tous deux que les organismes gouvernementaux peuvent effectuer des analyses complexes de niche, sans être prisonniers de l’expertise de l’industrie », déclare Madame Brian, se référant aux informations fournies par deux agences fédérales conduisant les enquêtes sur es risques accidentels.

Ces préoccupations ont même conduit à des plaintes au sein de l’administration elle-même.

Dans un e-mail du 27 avril 2011, un géologue spécialiste du pétrole, travaillant pour l’EIA, a admis que ces supérieurs ont trop fait confiance aux informations fournies par les entrepreneurs de l’industrie des gaz de schiste et ont considéré des données trop souvent fausses voire totalement irréelles fournies par ces entrepreneurs, sans les vérifier : « l’EIA, indépendamment du nombre de spécialistes qu’elle a engagés, reste techniquement incompétente pour estimer les quantités de ressources restant à découvrir dans la nature ».

Les responsables de l’EIA ont également critiqué, dans des courriers internes, le Shale Gas Primer, sorte de manuel des gaz de schiste, ayant notamment pour rôle d’informer le public, et dont le positionnement leurs paraît « un peu naïf ». Ce manuel a été financé par la Ground Water Protection Council, un groupe de recherche financé en partie par l’industrie. Le Ground Water Protection Council a refusé de répondre aux questions des journalistes du New York Times.

Tiffany Edwards, porte-parole du ministère de l’Énergie, a déclaré que le manuel des gaz de schiste n’a jamais été conçu comme un examen complet de la situation et qu’une étude plus poussée est toujours en cours.

Interrogé sur les opinions exprimées dans les courriers électroniques internes, M.Schaal a dit que son administration a été très explicite en reconnaissant les incertitudes qui entourent le développement de l’exploitation des gaz de schiste. Il a affirmé que les informations et les présentations des entreprises ont été inclus parmi un éventail de sources d’informations utilisées dans les études de l’EIA. Bien que l’administration dépende bien évidemment des entrepreneurs possédant des compétences spécialisées, a-t-il ajouté, il est conforme à toutes les règles établies en la matière par le gouvernement fédéral.

« Et tandis que la production des gaz de schiste ne s’est pas ralentie et ne risque pas de ralentir dans les années à venir, le débat prospectif sur l ‘exploitation des gaz de schiste continue au sein de notre administration », conclut M.Schaal.

Par Robbie Brown et Kitty Bennett

News Environnement : février 2012

Pour une alimentation durable

Dans un contexte de défi alimentaire auquel est confrontée l’humanité, qui plus est sur fond de changement climatique, l’alimentation dite « durable » s’inscrit évidemment dans la continuité d’une agriculture elle-même durable. Si cette dernière a fait l’objet de travaux conséquents et de réflexions importantes au cours de ces dernières années, en revanche l’alimentation durable [1], qui constitue pourtant un thème majeur des années à venir, n’a pas encore la notoriété de son « aînée ». D’où l’intérêt de l’ouvrage que publient les Editions Quae. Intitulé Pour une alimentation durable, fruit de la réflexion stratégique d’un travail nommé duALIne (DUrabilité de l’ALImentation face à de Nouveaux Enjeux). Réalisé entre novembre 2009 et juin 2011, celui-ci a mobilisé environ 125 experts au travers de 10 ateliers. Coordonné par Catherine Esnouf, Marie Russel et Nicolas Bricas, cet ouvrage dresse ainsi en dix chapitres un panorama des évolutions des systèmes alimentaires et identifie les points critiques afin de dégager des axes de recherche pour de futurs programmes.

Une partie de ce livre vise à montrer quels ont été les grands déterminants qui ont structuré et organisé la dynamique du système alimentaire plutôt industriel et à identifier les difficultés auxquelles est confronté celui-ci, puis à envisager les pistes de recherche les plus prometteuses qui émergent actuellement. « La logique de départ de l’industrie alimentaire, sa première fonction, c’est la conservation, avec la possibilité d’une consommation retardée dans le temps des aliments », explique Louis-Georges Soler, chercheur en économie qui dirige l’Unité ALISS (Alimentation et Sciences Sociales) au sein de l’INRA et a piloté un atelier dans le cadre de ce travail. Parallèlement à cette fonction de conservation ont émergé deux activités dans cette industrie : d’abord le fractionnement de la matière agricole et ensuite l’assemblage. La première, qui a donné naissance à tout un domaine spécifique de cette industrie, vise à décomposer la matière agricole en composants élémentaires et en ingrédients, au contraire de la seconde dont l’objectif est de formuler et de fabriquer de nouveaux aliments. La dissociation de ces deux fonctions a évidemment entraîner une standardisation de la matière agricole nécessaire à l’optimisation des procédés de fractionnement. « En revanche, la possibilité pour l’industrie d’assembler et de reformuler a conduit à un déplacement des leviers d’action de la création de variétés de produits et à l’ouverture d’un espace des possibles », observe-t-il.

Ce changement de la logique du système industriel alimentaire a eu évidemment des conséquences importantes en particulier au niveau de la diffusion, du rôle de l’innovation et des échanges de matières au sein des filières. Louis-Georges Soler explique qu’à ce stade, duALIne a pu identifier 4 difficultés. La première d’entre elles tourne autour de l’énergie consommée lors des différents changements de la matière, depuis la matière première agricole jusqu’au produit final. La deuxième de ces difficultés est que ce modèle qui s’est progressivement mis en place a intégré peu à peu toute une succession de contraintes : la contrainte microbiologique, la contrainte organoleptique, la contrainte nutritionnelle, enfin la contrainte environnementale et énergétique. D’où aujourd’hui un certain essoufflement des gains de productivité qu’a entraîné cet empilement des contraintes. « Nous ne l’avons pas démontré formellement, mais nous supputons assez fortement que l’empilement des ces contraintes y est pour partie l’un des déterminants », précise Louis-Georges Soler. Troisième difficulté, une plus grande variabilité de la matière première agricole en raison de la multiplication des échanges et de l’instabilité en termes de prix, alors que le système mis en place a conduit à une homogénéisation et une standardisation de la matière première agricole. « Aussi va-t-il falloir réussir à augmenter la flexibilité et la robustesse d’un système qui n’a pas été pensé pour cela », note l’économiste de l’INRA. Quant à la quatrième difficulté, elle vient de la distance qui sépare aujourd’hui un aliment, tel que les consommateurs se le représentent, et celuii qui sort effectivement de l’outil industriel, avec son lot d’additifs et d’ingrédients complémentaires, le tout sur fond de process technologique, un contexte qui pousse tout naturellement les consommateurs à se poser des questions, voire à contester ce modèle de production.

« Peut-on se sortir aujourd’hui de ces difficultés, par de simples ajustements mais en ne touchant pas aux grandes logiques mises en place, ou sommes-nous confrontés à la nécessité de repenser de façon un plus fondamentale le modèle actuel », s’interroge le chercheur de l’INRA ? Certes, il n’est pas question de revenir en arrière. En revanche, plusieurs voies commencent à être explorées par les technologues comme le minimal processing qui vise à réduire les changements d’états tout au long de la chaîne de fabrication pour trouver des solutions permettant de réduire la consommation énergétique. « Sans doute faut-il aussi repenser le fractionnement de manière à générer des co-produits qui vont devenir des substituts à l’énergie fossile carbone et plus généralement, repenser l’interface entre agriculture et industrie », conclut Louis-Georges Soler.

En savoir plus : Bulletins Electroniques

RESIF, une Très Grande Infrastructure de Recherche pour la géophysique

C’est le 8 février dernier qu’a été lancée officiellement la Très Grande Infrastructure de Recherche RESIF (Réseau sismologique et géodésique français) dont la construction sera réalisée avec le soutien financier du programme d’investissements d’avenir dont RESIF est lauréat comme Equipement d’Excellence, à hauteur de 9,3 Millions d’Euros. Son but : créer une antenne d’observation géophysique sur l’ensemble de la France métropolitaine dédiée à l’étude de la Terre interne et des risques telluriques. Placé sous les tutelles du Ministère de l’Enseignement Supérieur et de la Recherche, du Ministère de l’Ecologie, du Développement Durable mais aussi du Bureau Central Sismologique Français, RESIF mobilise une centaine de chercheurs et d’ingénieurs et implique vingt établissements et organismes de recherche, parmi lesquels le CNRS joue le rôle de coordinateur au sein de ce consortium.

Regroupant ainsi 750 instruments permanents (sismomètres large bande, accéléromètres, récepteurs GPS, gravimètres), répartis sur l’ensemble du territoire national, avec une densification dans les zones de forte variabilité du sous-sol et de sismicité plus importante, RESIF apparaît comme une réponse coordonnée de la recherche afin de mieux comprendre la Terre profonde et de mieux évaluer ses ressources et les risques naturels potentiels. D’ici 2020, 150 nouveaux instruments devraient être intégrés à cette Très Grande Infrastructure de Recherche. Parallèlement, une instrumentation géophysique et géodésique mobile permettra de collecter des données sur des zones cibles comme l’outre-mer tropical français, de façon ponctuelle.

Précisons que par la mise à disposition immédiate des données et l’interopérabilité avec les centres européens, RESIF s’intègre totalement dans le dispositif européen et mondial d’observations géophysiques. Aussi est-il d’ores et déjà pressenti comme une contribution française majeure à l’infrastructure de recherche européenne, European Plate Observing System (www.epos-eu.org). Les données de RESIF pourront alors être utilisées par les chercheurs du monde entier, d’autant plus que la France métropolitaine est un exemple typique de pays fortement urbanisé et industrialisé avec une sismicité significative où les grands séismes se sont toutefois produits peu souvent.

En savoir plus : Bulletins Electroniques

Tolérance à la sécheresse des plantes : PhénoArch, une plate-forme unique en France

Face au changement climatique, il est urgent pour l’agriculture de développer des plantes capables de tolérer de plus fortes contraintes environnementales telles que le déficit hydrique, des températures plus élevées ou un air plus sec. Aujourd’hui, les chercheurs de l’INRA de Montpellier disposent d’une plate-forme unique en France. Baptisée PhénoArch, celle-ci a pu être réalisée grâce à un financement exceptionnel de l’INRA et au soutien du Conseil Régional Languedoc-Roussillon et de différents partenaires (CNRS, Cirad, Université de Montpellier 2 et Montpellier SupAgro).

Au sein de cette plate-forme, 1 650 plantes peuvent être analysées simultanément, les conditions climatiques et l’état hydrique du sol y étant mesurés chaque minute. Ici, les plantes, qui peuvent être des céréales, mais aussi de la vigne ou encore de petits arbres, sont cultivés en pots qui se déplacent sur des convoyeurs gérés par informatique. La teneur en eau du sol est automatiquement contrôlée dans chaque pot par pesée et arrosage automatique pour obtenir une humidité cible pour chaque plante étudiée.

Prises à intervalles réguliers, des images en trois dimensions permettent de suivre l’architecture et la surface foliaire de chaque plante. C’est également à l’aide de l’imagerie qu’est estimée l’accumulation de biomasse, la transpiration des plantes quant à elle l’étant par pesées successives. Autant de données grâce auxquelles il est alors possible de calculer l’efficience d’utilisation de la lumière ou de l’eau des différentes variétés et espèces qui sont analysées au sein de cette plate-forme PhénoArch. Reste ensuite pour les chercheurs a analyser génétiquement chacun de ces caractères pour identifier des modalités de gènes (allèles) qui apportent des avantages aux plantes placées en conditions de stress. Précisons que cette plate-forme est couplée avec des modèles permettant la simulation du comportement des génotypes au champ dans un grand nombre de scénarios climatiques, présents ou futurs.

 

En savoir plus : Bulletins électroniques

Publié par P.T

Nitrates : La France traînée en justice par Bruxelles

Entre l’Europe et la France, le feuilleton sur les nitrates continue. Lundi 27 février, la Commission européenne a assigné Paris en justice pour son incapacité à lutter contre la pollution des eaux par les nitrates.

« Bien que la ‘directive nitrates’ soit en vigueur depuis 1991, la France n’a toujours pas désigné un certain nombre de zones vulnérables à la pollution par les nitrates et il lui reste à adopter des mesures pour lutter efficacement contre cette pollution dans ces zones », indique la Commission. Cette décision était attendue.

Au mois d’octobre dernier, le gouvernement avait été sommé par Bruxelles « d’adopter des mesures plus fermes » pour lutter contre la pollution de l’eau causée par ces substances chimiques naturelles. Restrictions insuffisantes Anticipant les semonces européennes, la France avait lancé début octobre une consultation publique pour réformer l’application de ce texte. Elle portait sur les principaux éléments d’un décret publié le 10 octobre, qui instaure un programme d’actions à l’échelle nationale afin de prévenir la pollution par les nitrates d’origine agricole.

Le texte a été critiqué par des associations de protection de l’environnement et des collectivités. Il prévoit un plafond de 170 kg par hectare épandable calculé par rapport à toute la surface agricole de l’exploitation, alors même que certaines parcelles ne peuvent recevoir d’épandage. « Les restrictions concernant l’épandage des effluents d’élevage et des fertilisants sont insuffisantes », a déclaré la Commission dans son assignation.

Selon le groupe des Verts au Parlement européen, cette initiative de Bruxelles concernerait également le plan Algues vertes, jugé faible par les écologistes. « Même si le communiqué de la Commission européenne n’y fait pas référence, ce dossier a été récemment couplé à la procédure d’infraction en cours ». Déjà condamnée en 2007, la France avait échappé à une amende de 28 millions d’euros assortie d’astreinte journalière pour la trop forte présence de nitrates depuis 1975. L’Etat avait alors débloqué 74,4 millions d’euros pour aider les agriculteurs à tenir leurs engagements. Ce dossier qui n’en finit pas pourrait être l’un des cadeaux de bienvenue du futur ministre de l’environnement.

Par Clémentine Forissier

Source : EurActiv.fr

Matières premières : l’UE remporte sa bataille contre la Chine à l’OMC

La Chine déplore et estime qu’elle était dans son droit, mais elle s’y pliera. Ce sont en substance en ces termes que le ministère chinois du commerce a accueilli la décision rendue par l’OMC lundi 30 janvier. Les Etats-Unis, l’Union européenne et le Mexique ont entamé des poursuites contre Pékin en 2009, remettant en question ses restrictions à l’exportation de matières premières telles que le bauxite, le coke, le magnésium, le manganèse et le zinc. De nombreux pays ont par la suite accusé la Chine de limiter l’approvisionnement de ces matières premières essentielles à la production d’appareils de haute technologie, ce qui a entraîné une envolée des prix. Les terres rares ne sont toutefois pas mentionnées dans la décision rendue par l’OMC.

Les restrictions chinoises à l’exportation ont accru l’approvisionnement de matières premières à l’échelle nationale, ce qui a fait chuter les prix sur le marché chinois. En plus de favoriser l’industrie du pays, elles ont encouragé des entreprises étrangères à s’installer en Chine pour tirer parti des prix moins élevés. « Le rapport d’aujourd’hui est une grande victoire pour les Etats-Unis, surtout pour les fabricants et les travailleurs américains », a déclaré dans un communiqué le représentant américain au commerce. « L’administration Obama continuera de s’assurer que la Chine et les autres pays respectent les règles afin que les travailleurs et les entreprises américains puissent être compétitifs et opérer dans des conditions justes. »

L’UE se réjouit Le commissaire européen au commerce, Karel De Gucht, a déclaré que cette décision forcerait la Chine à abandonner ses restrictions à l’exportation pour les matières premières mentionnées, mais aussi pour les terres rares. « Cette décision récompense nos efforts pour assurer un accès juste aux matières premières les plus demandées dans l’industrie européenne », a-t-il affirmé dans un communiqué. Bien que la Chine ait promis d’éliminer ses restrictions à l’exportation lorsqu’elle a rejoint l’OMC il y a une dizaine d’années, elle a cité une dérogation dans les règles de l’OMC lui permettant de restreindre ses exportations pour des raisons environnementales.

L’OMC a cependant estimé que les conditions d’adhésion de la Chine à l’organisation l’empêchaient d’avoir recours à cette dérogation. Les plaintes contre la Chine ont été observées par 13 pays, dont l’Arabie Saoudite, le Brésil, le Canada, la Norvège et le Japon. Tous ont fait montre d’un intérêt particulier pour cette affaire et ont réclamé le statut d’observateur. Bien que les règles de l’OMC ne se fondent pas sur les décisions rendues précédemment, des experts ont expliqué que cette affaire ouvrait de nouvelles voies dans un domaine encore largement inexploré du droit commercial. Selon eux, cette décision pourrait donc menacer les régimes d’exportation similaires dans le monde.

Par EurActiv.com – Rédaction de Bruxelles traduit de l’anglais

Le plus puissant laser à rayons X au monde : la matière, à plus de 2 millions de degrés

Une équipe de chercheurs travaillant au département américain de l’Énergie (DOE) et plus spécialement pour le Stanford Linear Accelerator Center (SLAC National Accelerator Laboratory) s’est servi du plus puissant laser à rayons X au monde afin de créer et de sonder pour la première fois un morceau de matière porté à ultra haute température, et ce d’une façon tout à fait contrôlée.

Afin de pouvoir mieux appréhender la matière se trouvant au cœur des étoiles et des planètes géantes et de mieux comprendre les mécanismes en jeu, l’équipe de chercheurs s’est donc évertuée à reproduire à l’aide de ce laser à longueurs d’ondes ultra-courtes un processus similaire à la fusion nucléaire alimentant le soleil. Les rapides impulsions du laser sont près d’un milliard de fois plus intenses que les sources de rayons X habituelles, permettant de porter un échantillon d’aluminium à l’état de plasma, à environ 2 millions de degrés Celsius en moins d’une picoseconde (10 à la puissance -12, un millième de milliardième de seconde).

« Le laser à rayons X du Linac Coherent Light Source (LCLS) est une machine vraiment épatante », raconte Sam Vinko, chercheur à l’université d’Oxford à l’origine de l’expérience. Bien que déjà capables de créer un plasma (à partir de matière à l’état gazeux), les scientifiques n’ont jamais eu à leur disposition un outil d’étude aussi puissant que le laser du LCLS, à même de pénétrer des solides denses qu’aucun faisceau laser conventionnel n’a jamais pu pénétrer. L’échantillon de plasma ainsi créé, un cube de dix micromètres de côté, est uniforme, et les données mesurées permettront alors d’analyser le processus de fusion nucléaire solaire, ainsi que de mieux comprendre le comportement de la matière au cœur de notre étoile.

Par Moonzur Rahman

 

A lire aussi :

Le laser, futur de l’éclairage automobile

Un internet plus rapide grâce à un nouveau laser

La structure des plumes inspire la conception de nouveaux lasers

Une société intoxiquée par les chiffres

L’auteur traite un sujet original. Il montre que les programmes et les discours néo-libéraux – qu’il qualifie de « politiquement corrects » – reposent souvent sur des prévisions à long ou très long terme généralement cautionnées par des experts. Ces prévisions reposent, selon lui, sur des hypothèses simplificatrices, des paradigmes mythiques (les « facteurs 2, 3, 4… ») ou des scénarios imprudents.

Elles n’intègrent pas – ou insuffisamment – les progrès technologiques à venir, la capacité d’adaptation des acteurs socio-économiques, la complexité des phénomènes et les effets de l’imprévisible. L’auteur montre ainsi que la réforme des universités françaises est porteuse d’effets pervers car elle ne vise que leur promotion dans « le classement de Shanghaï », que le « rapport Charpin » sur les régimes français des retraites repose sur la fausse alarme d’un triplement en 2040 de la population des retraités, que l’urgence climatique trouve sa source dans des données scientifiques contestables  et que les crises agricoles mondiales sont alimentées par la libéralisation des échanges internationaux impulsée par l’OMC.

L’auteur dénonce ainsi les « croyances scientistes modernes », les « mathématiques sorties de leur lit », « l’obscurantisme de certaines expertises »… Il prône une réhabilitation de l’humain, une refondation de la recherche et un déploiement de nouvelles coopérations, afin de mettre fin à l’instrumentalisation et à la manipulation des chiffres.

 

Une société intoxiquée par les chifres, Propositions pour sortir de la crise globale

Marc Delepouve

Ed. L’Harmattan, 2012, 154 pages

 

Jean-Jacques Pluchart

Jean-Jacques Pluchart est professeur des Universités en sciences de gestion et responsable du Master GMDE (Gestion et Méthode de Décision d’Entreprise) à l’Université Paris 1 Panthéon-Sorbonne. Il est co-auteur de nombreux ouvrages d’économie et de gestion dont Master stratégie (Eska,2009), Euro-gouvernance et euro-management (Eska, 2010), Le management durable de l’entreprise (SEFI, 2011), Repenser la planète finance (Eyrolles, 2009) et La confiance en gestion (de Boeck, 2011).

Aux Techniques de l’Ingénieur, il est l’auteur de la base documentaire Management stratégique et gouvernance d’entreprise  :

 

 

 

 

 

 

 

 

 

 

Gaz de schiste : les nouveaux subprimes ?

La rumeur dans le milieu des indépendants est que les grandes zones d’extraction des gaz de schiste ne sont qu’une énorme pyramide de Ponzi et que le modèle économique ne marche tout simplement pas. Ce jugement sans appel n’est pas celui d’un militant écologiste : en bas de ce mail révélé par le New York Times figure la signature du très sérieux cabinet IHS Drilling Data, expert en énergie. Au total, ce sont des centaines de communications internes au secteur de l’énergie que le quotidien américain a publié le 27 juin 2011. Une somme qui restitue un inquiétant constat : l’industrie des gaz de schiste repose sur des évaluations reconnues comme fausses. Un mensonge gros de plusieurs milliards de dollars que les géants du secteurs tentent déjà de dissimuler pour éviter l’effondrement de la bulle.

« Le plus grand secteurs économique à fonds perdus du monde »

Etalés sur trois ans, les échanges portent sur tous les aspects de cette nouvelle industrie, et principalement sur les gisements du Sud-Est Etats-Unis (Barnett shale et Haynesville shale). Premier problème, les réserves semblent avoir été surévaluées dès le départ. Là où les communiqués de presse et déclarations publiques du géant texan Chesapeake revendiquent jusqu’à 50 ans de durée de vie pour les puits de gaz de schiste de la Barnett shale, certains géologues doutent que l’on puisse atteindre les 20 ans. Un géologue tente ainsi de prévenir un cadre de l’entreprise de ses doutes sur les évaluations dans un mail daté du 17 mars 2011 : Vous avez parfaitement raison de mettre en question la durée de vie des puits. Nos ingénieurs évaluent leur potentiel à 20 ou 30 ans de production et, à mon avis, cela reste à confirmer. En fait, je suis plutôt sceptique à propos du pourcentage de déclin de la production après la première année d’exploitation. Dans certains cas, les puits sont excellents et produiront de grands volumes sur la période prévue mais certains s’épuisent rapidement.

Seul problème, « l’argent coule à flot pour profiter de cette nouvelle « nouveauté » que constitue ce secteur de l’énergie qui est fondamentalement non rentable », comme le déclare le responsable du fonds d’investissement PNC dans un mail. En 2009, le leader mondial du pétrole Exxon Mobile déboursait 41 milliards de dollars pour la start up des gaz non conventionnels XTO avant de remettre la main à la poche en juin 2011 pour acheter Philips ressources 1,7 milliards. Pour ne pas rompre le cycle, certaines entreprises usent de ficelles très douteuses pour ne pas éveiller de doutes chez les investisseurs.

Bien côté en bourse, Chesapeake est ainsi identifié pour sa « comptabilité agressive », comme le relève une note de la société d’investissement Argus dans une de ses analyses. Pour se procurer du cash, la compagnie a ainsi recours à des « volumetric production payments », sorte de bons par lesquels elle commercialise sa future production gazière contre paiement immédiat. Or, au lieu de marquer le gaz déjà vendu par ce procédé en dette dans ses bilans comptables, Chesapeake gonfle artificiellement sa production en le signalant comme stock. Un gaz dont certains doutent seulement qu’il soit jamais produit…

Refourguer les puits pour continuer de faire du cash

Selon les données communiquées en interne que s’est procuré le New York Times, des puits très productifs existeraient donc parmi les 10.000 dont Chesapeake est propriétaire, mais ils seraient entourés de puits où la vente du gaz extrait compense à peine le coût des opérations. Au Texas, certaines zones commencent déjà à montrer des signes d’épuisement, comme la région de Fort Worth, à l’Ouest de Dallas. Dans la région, Chesapeake a acheté à tour de bras des droits d’extraction à des particuliers, jusqu’à 27.500 $ par acre (1 acre = 4 000 mª). Si le « boom » des gaz de schiste venait à faire pschit, l’économie locale pourrait s’effondrer plus vite encore que les cours de bourses des géants. D’autant plus que les gaziers préparent déjà des options de repli.

Car la condition sine qua non de la rentabilité de ce business n’a toujours pas été remplie : seule une augmentation conséquente du prix des hydrocarbures permettrait de couvrir les frais d’extraction des gaz de schiste et les rendraient ainsi rentables. Quand nous nous sommes intéressés pour la première fois à la question en novembre 2010, le physicien canadien Normand Mousseau (auteur du livre « La révolution des gaz de schistes ») pointait un écart énorme qui ne s’est toujours pas comblé:

La situation dans les gaz de schiste aujourd’hui est assez comparable à celle de la bulle internet : actuellement, le gaz naturel se vend autour de 4 $ [canadiens] le gigajoule (1 gigajoule correspond à un sixième de baril de pétrole) mais coûte à peu près 6 $ le gigajoule à produire.

Pour masquer ce problème, certaines sociétés ont ainsi envisagé de forer plus de puits pour masquer le manque de rentabilité de ceux déjà exploités. Prévoyant l’effondrement, un cadre de la société de service pétrolier Schlumberger formule une solution encore plus cynique : il suffit de revendre les puits pourris à des « gogos », conclut-il. Aucune hypothèse n’émerge sur l’issue de cette fuite en avant financière et industrielle, sinon celle d’un cadre de Anglo-Energy Corporation : « L’esprit de troupeau qui se manifeste face aux schistes s’achèvera peut-être comme la crise des subprimes ». Avec le SEC (l’autorité des marchés financiers américaines) sur les dents et les démocrates qui exigent désormais des comptes à l’agence de l’énergie sur ses évaluations des réserves, il se pourrait bien que cette dernière prédiction se trouve réalisée.

Par Sylvain Lapoix

A lire aussi :

Les gaz de schiste enflamment l’Assemblée

Gaz de schiste : pour ou contre ?

Gaz de schiste : « Il y a des risques de contentieux »

Gaz de schiste : Fillon veut « tout remettre à plat »

L’exploitation des gaz de schiste plus polluante que celle du pétrole ou du charbon ?

Révélations inquiétantes aux Etats-Unis sur les Gaz de schiste

Le gaz de schiste, au premier plan de l’actualité

Etats-Unis et gaz de schiste : la révolution énergétique ?

Les Etats-Unis ont reçu beaucoup de bénédictions de la nature, et on a jadis vu le peuple s’unir pour profiter ensemble de ces richesses. Mais ce temps-là est révolu. Le pays est plus divisé et sclérosé que jamais par les intérêts particuliers. Aujourd’hui, nous sommes incapables d’être sur la même ligne pour profiter des ressources les plus abondantes.

Il y a quelques années, un génie des affaires du nom de George P. Mitchell a aidé à offrir un tel cadeau. Comme Daniel Yergin écrit dans « La Quête », son histoire de préhension de l’innovation énergétique, Mitchell s’est battu à travers les vagues de scepticisme et surtout l’opposition pour extraire le gaz naturel à partir des schistes. La méthode que lui et son équipe ont utilisée pour libérer le gaz piégé, appelé fracturation hydraulique, a porté ses fruits au delà de toutes les espérances. En 2000, les gaz de schiste ne représentaient que 1% de l’approvisionnement en gaz naturel aux Etats-Unis. Aujourd’hui, il est de 30 %, en augmentation constante.

John Rowe, le directeur général du producteur américain d’électricité Exelon, qui tire la quasi-totalité de sa production de centrales nucléaires, affirme que les gaz de schiste sont l’une des révolutions énergétiques les plus importantes jamais connues. C’est un cliché, Yergin m’a dit, mais la fracturation a changé la donne. Cette technique a transformé le marché de l’énergie.

Les Etats-Unis semblent maintenant posséder, selon les estimations, des réserves de gaz naturel pour une période de 100 ans. Rappelons le : les gaz de schiste constituent à l’heure actuelle les plus propres des combustibles fossiles. Cette énergie « propre » est aujourd’hui une source d’énergie moins chère et qui remplace déjà de plus en plus les vielles et polluantes centrales à charbon. Il pourrait servir d’appoint idéal, affirme par exemple Amy Jaffe, de l’université de Rice, jusqu’à ce que les sources renouvelables comme l’éolien et le solaire soient matures.

Plus d’indépendance énergétique grâce aux gaz de schiste

L’exploitation des gaz de schiste a produit plus d’un demi-million de nouveaux emplois, non seulement dans les Etats traditionnellement riches en ressources naturelles comme le Texas, mais aussi dans des lieux économiquement en grosse difficulté comme la Pennsylvanie occidentale et, bientôt, l’Ohio. Si les tendances actuelles se poursuivent, il y a des centaines de milliers de nouveaux emplois à venir. Les entreprises chimiques s’appuient fortement sur le gaz naturel, et l’abondance de cette nouvelle source a conduit des entreprises comme Dow Chemical à investir aux États-Unis plutôt qu’à l’étranger. 

La société française Vallourec a entamé la construction d’une usine de 650 millions de dollars à Youngstown, dans l’Ohio, pour faire des tubes en acier pour les puits. Des états comme la Pennsylvanie, l’Ohio et New York vont récolter des milliards de dollars de recettes supplémentaires dans les années à venir. Les consommateurs en profitent également : Aujourd’hui, le prix du gaz naturel a baissé de moitié depuis trois ans. Au rayon des avantages, l’Amérique est moins dépendante de fournisseurs étrangers, ce qui stratégiquement n’est pas rien…

Toutes ces bonne nouvelles appellent bien sûr, comme toujours, leur lot d’inconvénients. Les Etats-Unis sont aujourd’hui polarisé entre le « forons et forons encore »  des conservateurs, qui semblent avoir une hantise de toute forme de réglementation, et certains environnementalistes, qui semblent considérer les combustibles fossiles comme « moralement corrompus », imaginant que nous pouvons passer à l’exploitation efficace du vent et l’énergie solaire du jour au lendemain.

La révolution des gaz de schiste met d’autres industries en difficulté : ainsi, l’industrie du charbon est en concurrence directe avec celle des gaz de schiste.  Aussi, la rentabilité des centrales nucléaires est très largement remise en question par celle de l’exploitation des gaz de schiste. Les changements sont aussi considérables en ce qui concerne les modèles économiques des entreprises tournées vers les énergies renouvelables, dont la viabilité se trouve de moins en moins assurée. Des « forces » se sont donc rassemblées, au fur et à mesure, contre les gaz de schiste, avec les conséquences que l’on peut imaginer.

Les militants du « pas de ça chez nous » se battent pour éviter ou faire suspendre les explorations, pendant que les écologistes crient à l’apocalypse pour mobiliser et faire peur. 

Les contaminations causées par des entreprises malhonnêtes

Comme chaque source d’énergie, la fracturation a ses dangers. Le processus consiste à injecter de grandes quantités d’eau et de produits chimiques en profondeur. Si c’est bien fait, cela ne doit pas contaminer les réserves d’eau douce, mais des entreprises malhonnêtes ont réalisé ces fracturations de manière complètement sauvage et on a observé des cas de contamination du sous-sol.

Les puits, qui sont parfois sous des zones résidentielles, sont desservis par de gros camions qui endommagent les routes et dénaturent les quartiers résidentiels. Quelques entreprises peu scrupuleuses pourraient ainsi discréditer l’ensemble du secteur.

Ces problèmes sont réels, mais pas insurmontables. Une étude exhaustive de l’Institut de Technologie du Massachusetts a conclu qu’avec les 20 000 puits de schiste forés dans les 10 dernières années, le bilan environnemental des gaz de schistes est « globalement acceptable ». En d’autres termes, les risques inhérents à l’exploitation peuvent être gérés s’il existe un régime réglementaire raisonnable, et si le grand public a une notion équilibrée et réaliste des coûts et des avantages.

Ce type d’équilibre est exactement ce que notre système politique ne permet pas. Jusqu’à présent, l’administration Obama a fait un bon – et délicat – travail en essayant de promouvoir la fracturation alors qu’il enquêtait par ailleurs sur ses inconvénients. Le grand public, pour sa part, semble porter peu d’intérêt pour la percée, chez les exploitants, de cette technique de fracturation (même si cela pourrait avoir un impact majeur sur l’économie du 21e siècle). 

La discussion est dominée par les intérêts personnels et les positions extrémistes. Il devient une arme dans les guerres politiques, avec les Républicains vantant les mérites de la fracturation hydraulique, et des Démocrates faisant l’objet de pressions pour dénoncer la fracturation comme un procédé dangereux et ultra polluant. Ainsi, dans le Nord-Est des Etats-Unis, les compagnies exploitant les gaz sont diabolisées continuellement et sans relâche.

Il y a quelques semaines, j’ai rencontré John Rowe qui est une des personnes les plus dignes de confiance dans le secteur de l’énergie aux Etats-Unis, pour l’écouter parler de cette manne. Il n’a aucun intérêt personnel à cet égard : en effet, son entreprise pourrait être lésée financièrement par la généralisation de la fracture hydraulique. Mais il sait combien l’exploitation des gaz de schiste pourrait signifier pour l’Amérique. Ce serait un crime pour nous de dilapider cette bénédiction.

Par David Brook

Source : New York Times

Le grand débat sur la fracturation

« L’avenir de la nation en termes d’énergies renouvelables ne proposera jamais pas de repas gratuits ou de gain sans douleur », ont commencé par assurer les deux géoscientifiques, lors d’un débat Université de Tulsa sur le fond de la fracturation hydraulique. 

Le chercheur canadien David Hughes et le professeur de l’université d’état de Pensylvanie, Terry Engelder, ont animé un débat à l’occasion d’une conférence organisée par le groupe d’hydrocarbures gazier Chesapeake Energy. La discussion vive entre Hughes et Engelder, permit, au-delà des points de convergence, plutôt rares,  de constater les contrastes existant entre le deux orateurs quant au potentiel des gaz de schiste en termes d’indépendance énergétique.

Hughes affirme que l’industrie pétrolière et gazière a trop surestimé le potentiel de réserves de gaz de schiste, alors qu’ Engelder soutient que l’état a pour le moment minimisé les « actifs » gaz de schiste. « Il est clair que le gaz naturel va être une ressource très importante dans l’avenir », affirme de son côté Hughes, qui est aussi président du cabinet de conseil mondial de développement durable Research Inc.

« Je pense juste que le battage médiatique est exagéré » à propos des gaz de schiste offrant une réserve de 100 ans, ajoute-t-il : « Je ne pense pas que nous puissions augmenter la production autant que nous pensons que nous le pouvons ».

Le symbole Marcellus

« Barnett Shale of north Texas, une formation pionnière dans la fracturation et la production de gaz de schiste, a réussi à développer une production importante, mais seulement quelques comtés », poursuit Mr Hughes. Ce dernier affirme que le prix actuel du gaz naturel au comptant, d’environ 90 à 100 $ pour 1 000 mètres cubes, pèsera sur les niveaux de production et, éventuellement, conduira à des prix plus élevés. Engelder, de son côté, voit dans l’exploitation des gaz de schiste une évolution d’importance mondiale. Un expert sur les gisements du site géant de Marcellus, situé en Pennsylvanie et dans l’état de New York, se référent à des rapports fédéraux, a affirmé que les réserves de ce gisement, initialement estimées à 11 milliards de mètres cube, atteignaient en réalité à peine 4 milliards de mètres cube. Engelder remet donc ici expressément en cause les données la Commission géologique des États-Unis.

« L’Energy Information Administration a cédé à la pression de l’USGS (United States Geological survey), », soutient quant à lui Engelder. Revenant avec humour sur son étiquette d’« ami des industriels » (Engelder fait ici référence à la réputation qui lui colle à la peau auprès du grand public), en dépit de son statut académique et d’être une voix pro-forage via le New York Times, Engelder poursuit : « La droite fédérale est aujourd’hui trop conservatrice ». 

La seule question qui compte vraiment aujourd’hui, à savoir – est-ce que la fracturation hydraulique est sûre ? – n’est revenu que trop peu souvent au cours du débat. Engelder a concédé que l’industrie a fait quelques erreurs en termes de relations publiques en défendant aveuglément la fracturation hydraulique. C’est à peu près tout.

De son côté, Hughes affirme que cette pratique est nécessaire, mais doit être tenu à des normes strictes : « la controverse sur le site de Marcellus est un exemple clé de la politique éclipsant la science, fait valoir à ce propos Engelder.  La migration du méthane naturel et seulement quelques cas d’erreurs de forage ont causé des problèmes avec la qualité observée des eaux souterraines ».

Améliorer les procédés ou les remettre en cause ?

Le professeur Engelder est persuadé que l’industrie devrait accepter le fait que le risque est impliqué dans les opérations de fracturation et d’assurer le public que les entrepres sont aussi sûres que possible : « L’industrie n’est pas monolithique. Elle se compose de gens qui sont eux-mêmes conscients de l’empreinte écologique dont ils sont responsables ».

Hughes, lui a ajouté que l’industrie doit être plus transparente dans la façon dont fonctionne la fracturation hydraulique, et réaliser un meilleur travail dans l’élimination des fluides qui sont utilisés pour briser la roche de schiste et aider à libérer le gaz et l’huile dans les puits de forage. Il dit qu’il croit que les puits d’injection, qui disposent des fluides, ont probablement causé les tremblements de terre dans l’Arkansas. « Mais nous avons besoin des gaz de schiste », a-t-il dit. 

« Nous allons avoir à examiner les meilleures pratiques et réduire les impacts, a repris le professeur Hughes. Le gaz naturel est irremplaçable pour certaines tâches dans les industries pétrochimiques et d’engrais, mais il est peu probable qu’il devienne une source de combustible importante pour les camions long-courriers, par exemple ».

Hugues a enfin préconisé le charbon comme combustible de source primaire dans la production électrique. Engelder, pour conclure, a convenu qu’à long terme, le forage des schistes est coûteux et doit gérer des risques majeurs pour l’environnement. Dans le même temps, il confesse qu’il croit qu’il n’y a pas pour l’heure d’autre choix. « Il n’y a pas de gain sans douleur », a-t-il répété, fataliste… « Ce sont des investissements qui se font sur le long terme ».

Par Rod Walton

Source : Tulsaworld.com

News Informatique : février 2012

Premier logiciel chinois d’interaction vocale homme-machine pour smartphone

L’Académie Chinoise des Sciences, l’université Jiaotong de Shanghai et l’entreprise Shenzhou Tuji Geographic Name Information Technologies Stock Company Limited ont annoncé avoir terminé le développement d’un logiciel d’interaction vocale homme-machine baptisé  » 009  » pour smartphone, après deux années de développement.

Le logiciel, le premier de ce type en Chine, fonctionne sous Android, le système d’exploitation développé par l’entreprise américaine Google. Lancé dans la ville de Kunshan (province du Jiangsu), il est capable d’interagir textuellement, tactilement et vocalement avec un utilisateur et de donner des informations culturelles ou géographiques sur son environnement proche. Communiquant en mandarin, 009 peut apprendre de façon autonome de nouvelles fonctions et mémoriser les habitudes de l’utilisateur. Selon Wang Xiaoqing, le président du conseil de Shenzhou Tuji, le logiciel n’est pas seulement une application d’interaction vocale mais peut-être utilisé comme secrétaire numérique grâce à son système informatique d’analyse intelligent.

Selon le Ministère chinois de l’Industrie et des Technologies de l’Information (MIIT), le secteur du logiciel en Chine représentait pour les trois premiers trimestres de 2011 un marché de 1300 milliards de yuans (157 milliards d’euros). Le Conseil des Affaires d’Etat avait annoncé en 2011 une série de mesure pour accélérer le développement des logiciels et des circuits intégrés en Chine et encourager la R&D dans ces secteurs.

En savoir plus : Bulletins Electroniques

La vision des robots désormais en trois dimensions

Des chercheurs de l’Université technique de Prague (CVUT) [1] mettent au point un engin destiné non seulement à se déplacer sur Mars, mais également à aider des secouristes lors de leurs opérations. Le robot sera doté d’une vue en trois dimensions afin de déterminer, par exemple, la localisation de blessés.

C’est en coopération avec la NASA [2] que des scientifiques du Département de Cybernétique [3] de la Faculté d’électrotechnique [4] de la CVUT développent ce robot à même d’intervenir aux côtés d’équipes de secours dans des situations aussi variées que celles provoquées par un tremblement de terre, un accident nucléaire ou un accident de la circulation. Tomas Pajdla [5], à la tête du projet du côté tchèque, explique qu’il concerne notamment le domaine du traitement des images. Il s’agit d’enseigner à la machine à retranscrire en trois dimensions les images transmises par les caméras qu’elle porte.

La porte-parole des services pompiers tchèques, Ivana Svitakova [6], précise que pour l’heure, un tel mécanisme n’existe pas : en cas d’accident automobile dans un tunnel, par exemple, on utilise des caméras thermiques ou bien un système d’écholocalisation, mais les espaces confinés ne peuvent être explorés que par des êtres humains. D’où l’intérêt du robot en cours de conception, ajoute Vit Pernica [7], directeur du département du système intégré de secours : remplacer les hommes par une machine afin de ne pas risquer des vie dans des circonstances dangereuses.

Karel Zimmermann [8], du Département de Cybernétique de la CVUT, souligne que le robot sera autonome, c’est-à-dire capable de dresser automatiquement la carte de son environnement, et de trouver de lui-même des objets potentiellement dangereux, des victimes ou des restes de véhicules. Il diffèrera en cela des engins existant déjà ; ceux-ci nécessitent d’être téléguidés par un être humain, qui, ne pouvant appréhender visuellement la totalité de l’espace, est susceptible d’ignorer la présence d’éléments importants. De fait, l’idée est de construire une machine dont les capacités de recherche surpasseraient celles des hommes.

En savoir plus : Bulletins Electroniques

Stabiliser l’état magnétique des surfaces semi-conductrices à l’aide de graphène

Des chercheurs du Helmholtz Zentrum de Berlin (HZB) ont élaboré des méthodes pour produire des surfaces électroniques à l’aide de graphène dont l’état magnétique serait stable dans le temps. Pour cela, ils scellent la surface du matériau semiconducteur (ici de l’iridium) avec une couche de carbone dont l’épaisseur n’est que d’un seul atome, définition même du graphène.

Les chercheurs appellent cette manipulation « modification par graphène ». Dans cette configuration, la capacité de créer un état électronique stable à la surface du matériau est préservée dans le temps, ce qui est d’un grand intérêt pour la spintronique. Leurs conclusions ont été publiées le 10 février dans la revue « Physical Review Letters » (DOI: 10.1103/PhysRevLett.108.066804).

En effet, la problématique de cette recherche est que la spintronique utilise le moment magnétique (ou « spin ») des électrons pour traiter l’information. A la surface des matériaux, des électrons avec des spins différents peuvent être facilement distingués les uns des autres, car il existe une différence de symétrie. Cependant, ces électrons de surface sont rapides et très actifs. Un certain état de spin ne pourrait être atteint que dans des conditions extrêmes, telles que sous ultravide.

Des chercheurs du HZB ont, dans leur objectif de conserver intactes les structures électroniques de surface, utilisé une structure en iridium. « Nous avons traité et catalysé le métal avec du gaz propylène, un hydrocarbure, » explique le chef de projet, Andrei Varykhalov, du Département des dynamiques de l’aimantation du HZB. Selon l’équipe, il se se produiraient en surface deux réactions chimiques concurrentes, mais dont la « graphénisation » serait la plus forte : il se forme sur l’iridium une seule couche d’atomes de carbone.

Les chercheurs du HZB ont ensuite analysé ces couches de graphène et les états de spin de la couche métallique supérieure en utilisant des méthodes analytiques sophistiquées dans l’anneau de stockage d’électrons BESSY II. A l’aide de cet instrument, les chercheurs développent une méthode de détection et caractérisation de spin unique, et progressent ainsi dans la physique des particules. La spintronique porte notamment de grandes promesses en termes de performance dans la codification et la mémorisation de l’information.

En savoir plus : Bulletins Electroniques

Publié par P.T

Dassault Systèmes et SFR, associés sur le Cloud

Dassault Systèmes, qui avait annoncé sa sortie du projet de Cloud Computing français « Andromède » en décembre dernier, a décidé de faire un nouveau pied de nez à ses anciens partenaires du consortium public-privé, en s’associant à l’opérateur de téléphonie SFR dans un projet concurrent. Le consortium d’État, dont les bases avaient été posées dès 2009 dans le cadre du Grand emprunt, unissait au départ Dassault avec l’opérateur Orange, le groupe électronique Thales et l’État français. Il avait pour but avoué de gérer les données informatiques des administrations et des entreprises nationales, en toute sécurité, grâce à la mise en place de gigantesques data-centers présents sur le territoire français.

Des tensions étaient vite apparues entre Dassault Systèmes et Orange, en raison des prix pratiqués par Orange jugés trop élevés, d’un désaccord quant au choix du futur dirigeant et de la mise en place d’une clause de non-concurrence (qu’Orange refusait catégoriquement, disposant déjà d’une offre Cloud Computing, « Cloud Pro »). Depuis la défection de Dassault Systèmes, les noms des groupes Atos et Capgemini n’ont cessé de circuler.

L’annonce du projet de partenariat Dassault-SFR « est une bonne nouvelle. C’est un signe de mobilisation des entreprises françaises sur l’enjeu stratégique du Cloud Computing. Le Fonds national pour la Société Numérique (FSN) peut tout à fait apporter son appui à plusieurs projets », a indiqué le ministre de l’industrie Éric Besson, bien qu’aucun projet n’ait encore été déposé devant la Commission.

L’État devait apporter une participation dans le consortium public-privé à hauteur de 135 millions d’euros par le biais de la Caisse des Dépôts. La participation de Dassault Systèmes et Orange s’élevait quant à elle à 60 millions d’euros chacun, et celle de Thales à 30 millions d’euros, pour un total de 285 millions d’euros d’investissement.

La France a accumulé près de dix ans de retard par rapport aux hébergeurs américains de Cloud Computing. Le projet de consortium français a pour but de se faire une place, à terme, dans un marché estimé à plus de 177 milliards d’euros à l’horizon 2020, tout en garantissant que les données des grands groupes français et des administrations restent sur le territoire français.

On peut par contre émettre des doutes quant à l’argument de sécurité avancé par l’État français, les données ne nécessitant pas vraiment d’être sur le territoire pour être sécurisées. Certaines PME innovantes, présentes dans le secteur depuis de nombreuses années, auraient pu voir d’un très bon œil l’arrivée dans leurs caisses d’une partie de ces investissements.

Par Moonzur Rahman

 

À lire aussi :

 

Les neutrinos n’auraient pas dépassé la vitesse de la lumière

Les résultats de l’expérience Opera (« Oscillation Project with Emulsion-tRacking Apparatus »), qui avaient ébranlé le monde scientifique en mesurant fin septembre des neutrinos à une vitesse plus rapide que celle de la lumière, seraient en réalité dus à un mauvais branchement, a assuré mercredi 22 février la revue Science sur son site Internet.

L’expérience OPERA repose en réalité sur 20 cm par rapport à une distance parcourue de 732 km (entre le CERN et le laboratoire de Gran Sasso en Italie). Néanmoins, les chercheurs du CERN précisent qu’ils sont capables de mesurer le moment où les neutrinos sont créés et celui où ils sont détectés à leur « arrivée » grâce à deux horloges distinctes.

L’origine de l’erreur proviendrait de ces deux horloges. Elles doivent être parfaitement synchronisées. Elles le sont grâce à des satellites GPS qui émettent un signal d’horloge parfaitement précis aux deux horloges. Mais dans une expérience de cette précision, le temps nécessaire aux ondes provenant des satellites pour atteindre le sol doit être pris en compte. Et surtout, il faut prendre en compte que les satellites se déplacent durant l’expérience. Il y a donc deux systèmes référentiels : celui au sol et celui des « horloges » en orbite.

Une erreur de débutant ?

Et c’est précisément là où le bât blesse. Si on examine l’opération depuis un satellite : les positions respectives des émetteurs de neutrinos et de leur détecteur changent. Selon Ronald van Elburg, de l’université de Groningen aux Pays-Bas : « D’un point de vue de l’horloge, le détecteur se déplace vers la source et par conséquence, la distance parcourue par les particules observées depuis le référentiel horloge est plus courte. » Comprenez bien : plus courte vue de l’horloge qu’elle ne l’est vue du sol.

Le CERN n’a pas pris en compte le fait que les horloges (les sources des horloges, les satellites donc) étaient en orbite. Ils ont négligé cet aspect dans leur mesure.

Et d’après les calculs du physicien, cette erreur se quantifie à 32 nanosecondes. Mais il faut la doubler à 64ns car la même erreur se produit des deux côtés de l’expérience (aux deux instants de mesure).

Et 64 nanosecondes, c’est pour ainsi dire ce que le CERN a mesuré. Mais cette explication fait déjà débat. En effet, certains commentateurs s’étonnent et rejettent même l’hypothèse selon laquelle les scientifiques du CERN aient pu commettre une telle erreur. D’autres voies s’élèvent pour affirmer quecette erreur n’a pas pu être commise, puisque le différenteil obtenu via les données GPS affecterait aussi bien la vitesse des neutrinos que celle de la lumière.

Nous aurons donc probablement vite l’occasion de reparler de cet « excès de vitesse » !

par P.T

Sources : Lemonde.fr, Gizmodo.fr

Après celui de Safari, Google contourne le Do Not Track d’Internet Explorer

La technique de Google pour Safari était relativement simple. Quand le tracking publicitaire est bloqué, le navigateur n’accepte des cookies que des sites expressément visités par l’utilisateur.

Pour contourner cette barrière, Google crée sur une page un élément iFrame équipé d’un formulaire invisible. Ce dernier est renvoyé à Google et Safari considère alors que c’est une action de l’utilisateur, ce qui autorise un cookie en retour.

Le Wall Street Journal, qui avait révélé le problème, indique que Google a immédiatement réagi en supprimant ce comportement, et Apple travaille à colmater cette brèche dans sa cuirasse.

Une barrière encore plus simple à contourner que pour Safari

Dans le cas de Microsoft, c’est le directeur de la division Internet Explorer lui-même, Dean Hachamovitch, qui révèle comment Google a procédé. La technique est différente car IE9 s’appuie sur les paramètres P3P (Platform for Privacy Preferences Project) dans lesquels un site ou un annonceur déclare qu’il n’utilisera pas le cookie pour du tracking. Cette déclaration volontaire porte en elle sa propre faiblesse, qui permet à Google de la contourner.

Les cookies créés par Google annoncent en effet qu’ils ne vont pas servir à effectuer du tracking alors que c’est précisément ce qu’ils font. De fait, Microsoft a officiellement demandé à Google de cesser cette pratique tandis que la liste interne de protection d’IE9 est mise à jour. Mais pour Google, la situation est loin d’être aussi simple.

Pas de problème, tout le monde le fait

Dans une réponse fournie à Ars Technica, la firme de Mountain View expose sa ligne de défense : les déclarations P3P sont totalement dépassées. Le protocole a été créé en 2002 et n’est plus capable de prendre en charge toutes les améliorations faites sur les technologies du web. Pour Google, Microsoft est parfaitement au courant de la situation, et il est impossible de répondre dans ces conditions.

Il s’agit d’un carrefour intéressant : il existait donc des consensus recouverts d’une loi du silence. Depuis les révélations du Wall Street Journal, les techniques sont exposées au grand jour, comme une guerre de voisins où chacun accumule des informations pour le jour où les hostilités seront déclarées. Évidemment, dans le cas de Google et Microsoft, l’ensemble revêt un aspect stratégique, ce qui rappelle l’affrontement récent sur la politique de vie privée de Google.

Google va d’ailleurs plus loin. La firme évoque une étude menée par l’université de Carmegie Mellon en 2010. Elle révélait que sur les 33 000 sites analysés, environ un tiers d’entre eux contournaient sans vergogne la protection d’Internet Explorer. L’explication ? Toujours la même chose : des fonctionnalités comme le bouton « J’aime » de Facebook ne pourraient pas fonctionner sur une base aussi simple.

Et pour rendre définitivement la monnaie de sa pièce à Microsoft, Google souligne un passage bien particulier de l’étude : les propres sites de Redmond msn.com et live.com s’appuient eux aussi sur de fausses déclarations P3P pour leurs propres besoins.

Le problème est qu’une solution pratique n’est pas abordée. Le constat est que chacun crée ses propres formules dans son coin selon ses besoins et le tableau général n’est guère reluisant. On rappellera ici les demandes de l’EFF (Electronic Frontier Foundation) qui souhaitait que Google respecte enfin les choix de l’utilisateur en matière de blocage du tracking publicitaire. Car si Google estime que la protection d’Internet Explorer est dépassée, pourquoi faire semblant de la respecter ?

Par Vincent Hermann

Sourcespcinpact.com

 

Déjà paru :

Découvrez les innovations lauréates des trophées Expobois !

Les entreprises concouraient dans trois catégories : procédés de transformation, matériaux et services liés au secteur bois. Et les vainqueurs sont :

Dans la catégorie « Procédés » :

Pour la 1ère transformation :

EWD, pour le Flying BandSaw (guide-lame pour scies à ruban) : Ce système permet d’atteindre un niveau de précision équivalent à celui de la coupe circulaire, tout en conservant les avantages du sciage ruban, c’est-à-dire de faibles traits de scie et une grande hauteur de coupe. Le principe est simple : remplacer le guidage pression par deux paires d’aimants, placés de part et d’autre de la lame. Celle-ci, attirée des deux côtés, se trouve ainsi maintenue au centre. La force de chaque aimant est ensuite déterminée par ordinateur, en fonction de la tendance générale de déplacement et des écarts ponctuels de la lame. Cette analyse et l’ajustement qui en découle se fait en quelques millisecondes.

Pour la 2ème transformation :

  • Leuco, pour le p-System (fraise diamant pour usinage par fauchage) : La spécificité de cette fraise réside dans un angle d’axe supérieur à 55°, une première ! qui permet de faucher le bois au lieu de le racler. La dent agit ainsi comme une lame de couteau et enlève vraiment de la matière. Cette technique permet de diviser par 5 les efforts de coupe et augmente la durée de vie de l’outil. De plus, l’état de surface est nettement amélioré, sans qu’il y ait besoin de recourir à un autre traitement (ponçage, toupillage).

  • Weinig, pour le Cube (corroyeuse) : Le principal atout de cette machine « plug and play » est sa simplicité. Elle doit en effet pouvoir être utilisée par n’importe qui, n’importe où, facilement et en toute sécurité. Pour cela, plusieurs caractéristiques ont été combinées : le système peut être transporté à l’aide d’un transpalette, branché à une simple prise de courant et raccordé au système d’aspiration existant. De plus, la machine à proprement parler étant encapsulée, la nécessité d’intervention est réduite au minimum. Concernant l’aspiration, la forme des capots et des outils génère à elle seule l’extraction des copeaux, ce qui permet une économie d’environ 60 % en termes de puissance. Finalement, un montage des outils sans jeu sur les arbres permet une rotation sans faux rond, ce qui garantit une grande qualité de surface.

Dans la catégorie « Services et logistique » :

  • IBAG, pour le Clever Spindle Repair (service de réparation de broches) : Une maintenance efficace est assurée grâce à une analyse minutieuse et exhaustive des broches : tests de fonction et sur banc d’essai, démontage et expertise des pièces, analyse de la cause du dysfonctionnement, propositions d’amélioration technique et recommandations d’utilisation, montage de la broche, rectification du cône, contrôles, rodage et équilibrage dynamique.
  • Auwärter et A2C, pour le Transmob (ensemble logistique complet facilitant le transport des ossatures bois) : Les semi-remorques à plateaux amovibles et châssis surbaissé conçues par Auwärter facilitent le transport et le stockage des ossatures bois. Toutefois, il manquait encore un maillon à la chaîne logistique, afin de permettre la récupération des plateaux quel que soit l’encombrement. Le Transmob, nouveau transpalette géant et télescopique, a donc été imaginé à cet effet. Introduit sous le plateau puis dirigé à l’aide d’un chariot élévateur, il peut déplacer jusqu’à 24 tonnes à différentes hauteurs, grâce à ses vérins hydrauliques.

Les Coups de cœur Expobois, des innovations au service de la santé et de la sécurité des hommes :

  • Pharaon, pour le DG retour basse pression (appareil d’aspiration des poussières) :

Développé avec la Chambre de Commerce et d’Industrie de Valenciennes, ce système conçu spécialement pour la menuiserie doit améliorer les conditions de travail dans les ateliers. Comment ? Grâce à un débit pouvant atteindre plus de 3000 m3/heure, une dépression comprise entre 4500 et 6000 mm H2O, un décolmatage paramétrable, un piège à déchets lourds, un évent d’explosion très résistant, sans oublier la possibilité d’adapter la puissance électrique au nombre d’opérateurs.

  • Charpenet, pour le concept évolutif MOB (système complet pour panneaux à ossature bois) :

C’est un ensemble cohérent de solutions qui est récompensé ici, de la fabrication au chargement, permettant de simplifier les opérations tout en intégrant une réelle dimension de protection et d’ergonomie tout au long du processus.

Le faible nombre de participants n’ayant pas permis au jury de désigner un vainqueur dans la catégorie « Matériaux », il invite les acteurs de la filière à profiter du prochain salon pour présenter leurs innovations !

Par Alexandra Chavarot

Revue du Web #20 : les vidéos de la semaine

Cette semaine dans la revue du Web :

  • Une vidéo en timelapse de la construction en Chine d’un hôtel de 30 étages en 15 jours ;
  • « Three Tubes Colliding » : une structure volante tétraédrique au charme poétique ;
  • Des gouttes d’eau en orbite autour d’une aiguille à tricoter, à bord de la Station Spatiale Internationale ;
  • Le monde à travers les yeux d’un robot, ou plus précisément à travers un algorithme ;
  • Un fabuleux « ornithoptère », aéronef imitant le vol de l’oiseau, machine vieille de près de 20 ans ;
  • Un robot tout terrain hybride, dont les roues peuvent se transformer en « whegs » ;
  • Le gadget (inutile ?) de la semaine : « Kissenger », le simulateur de baiser à distance.

Construire un hôtel de 30 étages… en 15 jours :

Pour débuter cette vingtième revue du Web, voici une vidéo en timelapse de la construction d’un hôtel de 30 étages, près du lac de Dongting, dans la province chinoise du Yunan. La construction aura pris plus de… 360 heures, soit 15 jours ! Capable de résister à des secousses sismiques allant jusqu’à 9 sur l’échelle ouverte de Richter, cet hôtel d’une surface de 17 000 mètres carré est toutefois plus « assemblé » que construit en 15 jours, les modules préfabriqués ayant été assemblés dans une usine non loin du site de construction, puis disposés sur des structures portantes en acier.

Signalons tout de même que l’excavation avait déjà été réalisée, ainsi que les fondations du bâtiment et une partie du sous-sol. L’entreprise chinoise Broad Sustainable Building est coutumière de ce genre de coups d’éclats : elle a en effet déjà construit, plus ou moins dans les mêmes conditions, un hôtel de 15 étages à Changsha, en seulement… 6 jours.

Une structure volante étonnante :

Les artistes Heather Peak et Ivan Morison ont développé une structure volante tétraédrique, en collaboration avec l’architecte Sash Reading et le studio de design Queen and Crawford. Baptisée « Three Cubes Colliding », cette structure en fibre de carbone est formée de modules composés de quatre triangles équilatéraux, reliés entre eux par leurs arêtes, permettant une prise au vent maximale pour un poids minimal, ainsi qu’une rigidité optimale.

Cette structure au rendu poétique, composée de plus de 23 000 petits modules, n’est pas sans rappeler les différents « Cygnet », aéronefs avortés du célèbre inventeur américain Graham Bell, ou encore les itérations de fractales du mathématicien polonais Sierpinski.

Little Shining Man from Jimandtonic on Vimeo.

Gouttes d’eau en orbite autour d’une aiguille à tricoter :

L’astronaute américain Donald Pettit, actuellement en orbite autour de la Terre à bord de la Station Spatiale Internationale (ISS), a pris l’habitude de partager avec le grand public quelques-unes de ses expériences réalisées en orbite, à travers de nombreuses vidéos qu’il poste assez régulièrement en ligne.

Sa dernière expérience est centrée autour… d’une aiguille à tricoter en nylon. Car oui, Donald Pettit tricote dans l’espace, lorsqu’il dispose d’un peu de temps libre. L’astronaute américain réussit à faire danser de petites gouttes d’eau autour d’une de ses fameuses aiguilles, préalablement chargée électriquement. Les gouttes d’eau entrent littéralement en orbite autour de l’aiguille…

Le monde à travers les « yeux » d’un robot :

Directement inspirée par l’essai de Matt Jones « Robot Readable World », cette vidéo du chercheur, designer et artiste norvégien Timo Arnall, spécialisé dans les nouvelles technologies, présente de manière simple la façon dont les robots équipés d’un système vidéo perçoivent le monde, à travers le prisme d’un algorithme ou d’un logiciel qui leur est propre. Les évènements, les objets, les visages et les mouvements sont décortiqués, afin d’être analysés et compris par la machine.

Robot readable world from Timo on Vimeo.

Timo Arnall était déjà à l’origine d’une installation de light-painting censée matérialiser un réseau wifi, matérialisation tenant compte de la force du signal et du débit, à l’aide de LED s’allumant de manière sporadique.


Découvrez les ondes WiFi photographiées en vidéo by jacq35

L’incroyable ornithoptère :

Le principal protagoniste de la vidéo suivante est un ornithoptère, objet volant dont la sustentation est assurée par des battements d’ailes, imitant le vol des oiseaux, et dont l’une des premières esquisses a été réalisée au XVe siècle par Léonard de Vinci. Bien que la vidéo soit récente, le modèle présenté est un modèle original d’aigle « Sean Kinkade Park » datant, lui, de 1993.

L’ornithoptère télécommandé est d’une maniabilité remarquable, battant des ailes et fendant le ciel avec aisance. L’aéronef est contrôlé à l’aide de la queue de l’oiseau, faisant office de gouvernail, et est aussi bien capable de battre des ailes que de planer. La version la plus récente de l’engin coûte un peu moins de 300 dollars, et est disponible ici.

Robot tout terrain, de la roue aux « whegs » :

Des chercheurs et étudiants du laboratoire de robotique inspiré par la nature (BioRoLa), affiliés à l’université nationale de Taïwan, sont partis d’un constat simple : les roues sont parfaites pour se déplacer de manière efficace et rapide, mais peu adaptées lorsque le terrain est difficile ; de même, les « pattes » robotiques sont efficaces pour arpenter un terrain difficile, mais sont très lentes sur un terrain plat et dégagé.

Désireux de créer un robot polyvalent faisant le trait d’union entre ces deux modes de locomotion, le groupe de chercheurs a décidé de couper la poire en deux, en développant « Quattroped », petit véhicule hybride dont les roues se transforment… en pattes.

Plus qu’en pattes, les roues se transforment en fait en « whegs » (mot valise crée à partir de « wheel », roues et de « legs », jambes), sortes de lames combinant la simplicité des roues avec les avantages des « pattes » lorsqu’il s’agit de se débarrasser d’un obstacle, empruntant ainsi la rotation de la roue plutôt que le va-et-vient d’une jambe.

Pour ce faire, les roues sont articulées en leur milieu, permettant à l’une des moitiés de se rabattre sur l’autre, laissant apparaître les fameux « whegs » en forme de demi-cercles. Quattroped est équipé d’un GPS, d’un système vidéo ainsi que d’une batterie de capteurs améliorant la perception du petit robot.

Le gadget (inutile ?) de la semaine : Kissenger, le simulateur de baiser à distance :

Pour conclure cette vingtième revue du Web, rien de tel que le gadget (inutile ?) de la semaine : Kissenger, un simulateur de baiser à distance, censé pallier la frustration d’un couple se trouvant séparé par de trop nombreux kilomètres.

Le principe est simple : il suffit que les deux conjoints esseulés décident d’embrasser, chacun de leur côté, le petit robot servant d’intermédiaire et simultanément émetteur et récepteur. Le robot transmettra alors les caractéristiques du baiser en temps réel d’une interface vers l’autre se trouvant chez l’autre conjoint.

Le robot est pourvu d’une grosse bouche en mousse de silicone, dont les capteurs (en mode émetteur) transmettent les informations du baiser prises en compte et jugées nécessaires, telles que la pression dans le temps et la position des lèvres. Une fois les lèvres du conjoint posées sur les lèvres du second robot, une batterie de moteurs se met en route, censés reproduire le baiser et ses sensations, mais en « négatif ». Peu de chance que ce système rencontre le succès escompté…

 

Par Moonzur Rahman

 

Plus de Revues du Web :

Revue du Web #19 :

Revue du Web #18

Revue du Web #17

Revue du Web #16

Revue du Web #15

Gaz naturel – Énergie fossile

Le gaz naturel est à la fois une énergie fossile dont les ressources sont importantes et un carburant pour les applications industrielles et le transport. Quel que soit son champ d’application, cet hydrocarbure présente des avantages spécifiques qui en font une alternative stratégique tant pour une recherche de diversification énergétique viable, que pour élargir l’offre que constituent les carburants liquides conventionnels.

Cet exposé divisé en deux parties étudie ici le gaz naturel en tant que carburant pour les véhicules de transport terrestres. L’objectif est de donner un éclairage suffisamment large pour aborder les principaux éléments nécessaires à estimer le potentiel de ce gaz. Par souci d’honnêteté, les avantages et les inconvénients ont été systématiquement présentés, cet article n’ayant pas pour vocation la promotion de la filière du gaz naturel véhicule, même s’il y contribue, mais, encore une fois, d’en donner les éléments d’appréciation les plus pertinents.

Après une brève présentation dans ce fascicule du gaz naturel en tant qu’énergie fossile, la composition du gaz naturel et les caractéristiques physico-chimiques qui en découlent seront analysées et confrontées aux attentes des motoristes.

Une analyse des différentes approches technologiques aujourd’hui mises en œuvre et des pistes d’évolution est ensuite présentée dans l’article Gaz naturel- Carburant pour véhicule [Gaz naturel- Carburant pour véhicule] en tenant compte des contraintes propres à l’utilisation de carburant gazeux sur un véhicule. Les contextes normatifs et fiscaux seront partiellement abordés en documentation.

En savoir plus

Purification des gaz par le procédé PSA – Fondamentaux et cycles en pression

La purification des gaz a pris, avec le temps, une place très significative dans le monde industriel puisqu’elle est devenue indispensable pour tout professionnel devant employer au moins un gaz dans son procédé de production ou de transformation. En effet, avec le renforcement des réglementations de protection de l’environnement et l’importance croissante du contrôle des émissions de gaz à effet de serre, les rejets à l’atmosphère doivent être de plus en plus sélectifs et maîtrisés. Nombre d’exemples ont depuis démontré que ces « contraintes » peuvent au contraire être une réelle valeur ajoutée pour l’industriel en raison d’une meilleure gestion de sa matière première représentant souvent une part très significative de ses coûts de production ou de transformation. Bien sûr, investir pour mettre à niveau ses installations n’est pas toujours une décision facile, tant d’un point de vue économique que technique mais, lorsqu’il s’agit d’un nouveau projet, il est souvent possible de développer une solution technique harmonieuse et économiquement viable.

Quatre technologies sont aujourd’hui couramment employées pour purifier les gaz :

  • les procédés de distillation, cryogéniques ou pas ;
  • les procédés de perméation par membranes ;
  • les procédés d’absorption chimique (MEA, DEA, MDEA…) ou d’absorption physique (alcools, glycols…), voire une combinaison des deux selon le solvant choisi ;
  • enfin les procédés d’adsorption auxquels appartiennent les procédés modulés en pression PSA, RPSA, VSA, VPSA, que nous traitons dans ce dossier, et ceux modulés en température TSA.

Ce dossier [J 3 606] « Purification des gaz par le procédé PSA –Fondamentaux et cycles en pression » est la première partie d’une suite normale au dossier « Adsorption – Procédés et applications » [J 2 731] ; il a pour objectif d’apporter au lecteur des informations complémentaires concrètes nécessaires à une bonne compréhension des critères fondamentaux à maîtriser en adsorption ainsi que des contraintes liées à la mise en œuvre de cycles en pression.

Ainsi, après lecture de ce dossier, le lecteur sera à même d’évaluer les conditions d’emploi de la technologie de purification par PSA ainsi que d’intégrer les éléments fondamentaux nécessaires à la conception de cycles PSA via une connaissance :

  • des conditions de faisabilité d’une purification gazeuse par PSA ;
  • des adsorbants, de leurs propriétés d’adsorption et de leur ordonnancement ;
  • des étapes élémentaires du cycle PSA, de leur choix et de leur ordonnancement ;
  • de la méthodologie de représentation des cycles PSA ;
  • de méthodologies d’évaluation du nombre d’adsorbeurs à installer.

Une illustration de certains de ces fondamentaux est également présentée pour la mise en œuvre d’unités VSA et PSA de purification d’oxygène, d’azote et d’hydrogène.

Le lecteur trouvera une suite logique à ce dossier dans la lecture d’une seconde partie [J 3 607] « Purification des gaz par le procédé PSA –Dimensionnement et perspectives ».

Lire la suite

Fissures dans les matériaux fragiles : elles sont moins rapides que prévu !

Prévoir le comportement à la rupture de matériaux fragiles tels que le verre qui se cassent par propagation de fissures nécessite en particulier de connaître la vitesse d’avancée de la fissure et de comprendre les facteurs dont elle dépend. Jusqu’à présent, les connaissances théoriques se fondaient sur une vitesse maximale égale à celle des ondes acoustiques de surface dans le matériau, dite « vitesse de Rayleigh ».

Or des chercheurs du CEA-IRAMIS (Institut Rayonnement Matière de Saclay), en collaboration avec leurs collègues de deux autres laboratoires, le Laboratoire « Surface du Verre et Interfaces » ou SVI (CNRS/Saint-Gobain), et le Laboratoire de Tribologie et Dynamique des Systèmes ou LTDS (CNRS/Ecole Centrale de Lyon/Ecole Nationale d’Ingénieurs de Saint-Etienne), travaillant sur des échantillons de plexiglas qu’ils ont cassé en faisant varier la force appliquée pour ouvrir la fissure, viennent de démontrer qu’il n’en est rien et que la vitesse des microfissures engendrées sur des défauts du matériau et observées à une échelle suffisamment fine pour pouvoir être isolées les unes des autres est quatre fois plus faible qu’attendu. Et ce n’est que par un effet géométrique de rencontre de ces multiples microfissures que la fracture globale est finalement si rapide.

Vue au microscope (lumière polarisée) d’un exemple de marque laissée par une microfissure sur une surface de rupture rapide d’un échantillon de Plexiglas. Dimensions de l’image : 128 micro-m – 137 micro-m

Les résultats de ces travaux, publiés dans la revue PNAS (Proceedings of the National Academy of Sciences of the United of America), remettent donc en cause la vision classique de la rupture. En effet, ils montrent que toutes les microfissures se propagnent à la même vitesse d’environ 200 m/s, indépendamment du niveau de force appliquée pour ouvrir la fissure principale.

Un comportement observé à l’échelle microscopique très différent de celui observé à grande échelle, où la vitesse de fracture augmente avec la force, celle-ci pouvant atteindre 500 m/s. La prise en compte du rôle important joué par les défauts microscopiques présents dans un matériau sur le comportement en rupture de ce dernier devrait permettre ainsi de mieux apprécier, voire à terme d’améliorer, la résistance à la rupture des matériaux.

Qui plus est, la méthodologie développée au cours de cette étude pourrait par exemple fournir des indications sur les causes de l’effondrement d’une structure uniquement à partir de l’analyse des empreintes laissées sur les surfaces de rupture.

 

  • En haut : vue au microscope du réseau d’empreintes laissées par la nucléation, croissance et coalescence des microfissures, lors de la fracture rapide d’un échantillon de Plexiglas. Dimensions de l’image : 2,5 mm x 3,5 mm.
  • En bas : reconstruction numérique du réseau observé.

 

Source : Bulletins électroniques

Participez à la formation Techniques de l’ingénieur Tribologie : diagnostic et solutions techniques