Un groupe chimique australien veut envoyer en France ses déchets toxiques

Le groupe possède 15.000 tonnes d’hexachlorobenzène, un produit soupçonné d’être cancérogène pour l’homme et dont l’utilisation est interdite dans la communauté européenne depuis 1981. Il est parfois incinéré pour être détruit.

L’Australie ne dispose d’infrastructures permettant la destruction de ces déchets et des demandes déposées en Allemagne (2007) et au Danemark (2010) ont été refusées par les gouvernements de ces deux pays, après les protestations de groupes de défense de l’environnement, dont Greenpeace.

Orica a produit ces déchets de 1963 à 1991.

Le groupe a indiqué avoir déposé une demande auprès du groupe français Tredi SA, qui dispose des infrastructures nécessaires à la destruction de ces déchets. Quelque 132 tonnes de HCB seraient envoyées dans un premier temps. Si l’opération réussit, le reste de la cargaison suivrait.

« Si la réponse à la demande d’Orica est positive, le groupe pense avoir identifié les moyens de résoudre un leg industriel et envionnemental qui date de plusieurs années », a déclaré Gavin Jackman, en charge des questions de responsabilité sociale au sein de la compagnie.

L’Australie est signataire des conventions de Bâle (1989) et de Stockholm (2001). La première réglemente les transports de déchets dangereux et la seconde vise à éliminer les polluants organiques persistants. Orica indique que sa demande auprès de la France respecte ces deux conventions.

« Il n’y a pas de méthode de destruction viable alternative en Australie et il ne semble pas qu’il y en aura dans un avenir proche », a ajouté Gavin Jackman.

« La seule solution est le stockage à long terme sur le site du parc industriel de Botany (en Australie), ce qui n’est pas acceptable par la communauté ».

Greenpeace a indiqué par le passé être opposée au transport de ces matériaux, en raison des risques d’accident en mer, et à leur incinération, en raison des risques de pollution de l’air.

La quantité de déchets est telle qu’Orica peut construire les infrastructures nécessaires pour la destruction de ces matérieux, autrement que par l’incinération, a estimé Adam Walters, chargé de la recherche au sein de Greenpeace pour la région Asie/Pacifique. « Mais ils veulent juste envoyer tout ça à l’étranger ».

L’hexachlorobenzène découle de plusieurs procédés industriels de chloration, souvent associés aux usines de production de chlore et de soude caustique. Il peut persister longtemps dans l’environnement.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

News informatique : mai 2014

La 5G en préparation au Pays du Matin Calme

Tandis qu’en France le réseau de quatrième génération fait tout juste son apparition, en République de Corée où celui-ci est présent depuis plusieurs années, on prépare déjà la cinquième génération. En effet, le gouvernement coréen entend mettre en place, d’ici 2020, pour la première fois au monde, un réseau de téléphonie mobile 5G. Pour cela, 1,1 milliard d’euros (1 600 milliards de wons) seront investis conjointement par le gouvernement et le secteur privé. Cet investissement visera à créer un marché de 235 milliard d’euros (331.000 milliards de wons) pour une valeur de production de 392 milliard d’euros (552.000 milliards de wons).

Selon le Ministère des Sciences, des TIC et de l’Avenir (MSIP), la technologie 5G permettra des vitesses de transmission de 1 Gbps pour les particuliers, 100 Gbps pour chaque antenne-relais et 1 msec pour un accès 1.000 fois plus rapide que la 4G. Il sera possible de télécharger en moins d’une seconde un film de 800 Mo, contre 40 secondes pour la 4G LTE-A actuelle, communément présente sur le territoire coréen. Le MSIP prévoit une présentation du prototype pré-5G en décembre 2015. Le principal service 5G sera mis en place en décembre 2017 et une démonstration sera faite aux JO d’hiver de 2018, qui seront organisés par la République de Corée dans la ville de Pyeongchang.

Des recherches seront lancées afin de trouver une nouvelle bande 5G dans la bande de fréquence supérieure à 6 GHz. Le MSIP projette de faire du pays le numéro un mondial des appareils mobiles d’ici 2020, pour une part de 20% sur le marché mondial des équipements, et le numéro un mondial en termes de brevets liés aux standards internationaux.Par souci de standardisation de la 5G, des échanges technologiques avec l’Europe et la Chine auront lieux. Il prévoit en outre de créer 16.000 emplois au cours de la période citée. Le ministère projette également le développement et la commercialisation de cinq grands services : réseaux sociaux du futur, images en 3D sur appareils mobiles, services intelligents, services ultra-rapide et hologrammes ultra haute définition (UHD). Cette démarche s’inscrit dans un grand plan stratégique pour le projet 5G appelé « Stratégie de développement industriel pour les télécommunications du futur ». Ce plan compte quatre pillier : l’actualisation avancée du marché 5G, la standardisation mondiale de la 5G, la recherche & développement et la création d’une nouvelle écologie intelligente.

Source : bulletins-electroniques.com

Vers des superordinateurs économes en énergie ?

Les superordinateurs actuels les plus performants, ceux figurant dans la liste dite Top 500, ont une vitesse d’exécution de l’ordre du pétaflop/s (1015 opérations par seconde) et nécessitent une puissance de l’ordre du mégawatt. On atteint les limites permises par la conception actuelle de ces machines : en extrapolant, le passage à une vitesse de l’ordre de l’exaflop/s (1018 opérations par seconde) nécessiterait une puissance de l’ordre du gigawatt, soit un réacteur nucléaire par ordinateur…

Des recherches sont donc menées dans le monde entier pour améliorer la conception des ordinateurs et les rendre plus économes en énergie. Du point de vue théorique, le principal problème a été identifié en 1961 par R. Landauer : l’irréversibilité logique entraîne une irréversibilité physique et donc une dissipation de l’énergie sous forme de chaleur. En d’autres termes, le fait de ne pas pouvoir retrouver les données d’un calcul à partir de son résultat se traduit par un gaspillage d’énergie, indépendamment de la nécessité de refroidir les circuits. Une réversibilité parfaite étant inatteignable, selon le second principe de la thermodynamique, la seule issue est de s’en approcher autant que possible.

La technologie actuellement envisagée pour les microcircuits d’un tel ordinateur « quasi-réversible » est appelée SQUID, pour Superconducting Quantum Interference Device, et utilise l’effet Josephson – apparition d’un courant entre deux matériaux supraconducteurs faiblement couplés. Les premières expérimentations suggèrent que la puissance nécessaire au fonctionnement d’un ordinateur utilisant cette technologie pourrait être un million de fois inférieure aux puissances utilisées actuellement.

La Russie participe à cette quête technologique. Une équipe de l’Institut de Physique Nucléaire Skobeltsyn de l’université d’état de Moscou (MGU) a récemment développé un nouveau microcircuit, dit biSQUID, utilisant notamment un matériau ferromagnétique et envisagent de le tester dès cette année. Cela permettrait de confirmer (ou d’infirmer) les espoirs mis dans cette technologie en vue d’une réduction très importante de la dépense énergétique des grands moyens de calcul.

Source : bulletins-electroniques.com

La crypto monnaie bitcoin pourrait participer à la sécurisation des transactions financières

La récente faille de sécurité de l’entreprise Target, exposant les informations bancaires de 110 millions de clients, illustre l’enjeu technologique actuel que représente la sécurisation des transactions financières. Les crypto monnaies comme bitcoin pourraient offrir une réponse à ce défi par leur « technologie prometteuse ».

Le potentiel des crypto monnaies

Bitcoin est un logiciel open source rendu public en 2009. Ses utilisateurs peuvent transférer des unités de valeur, les « bitcoins », entre comptes du réseau. Chaque transaction est vérifiée par les autres ordinateurs du réseau en échange de nouveau bitcoins, opération appelée « minage ». Il y a aujourd’hui 12 millions d’unités en circulation, 25 sont produites toutes les 10 minutes.

Bitcoin présente plusieurs avantages sur une transaction traditionnelle : l’opération s’effectue de façon décentralisée, avec un coût faible et le système offre de bonnes garanties de sécurité. Pourtant l’extrême volatilité des cours et la limite fixée à 21 millions d’unités permettent de douter de la valeur de cette monnaie. Certains détracteurs y voient même un schéma de Ponzi, où les nouveaux entrants rétribuent les utilisateurs antérieurs.

La vigilance des autorités fédérales

Le congrès américain, inquiet de l’impact sur les monnaies nationales, de l’utilisation criminelle potentielle, et des implications en terme d’impôts, a sollicité l’analyse des agences fédérales. En novembre 2013, le congrès menait une série d’auditions des acteurs du secteur et une analyse comparative des législations mondiales. Plusieurs affaires ont en effet alerté l’opinion publique sur les utilisations criminelles potentielles comme le blanchiment d’argent ou l’achat de biens et services illégaux. De plus, bitcoin est l’objet de fraude interne avec des vols de bitcoins et l’utilisation d’ordinateurs tiers pour les opérations de minage. Pourtant l’enjeu pour le régulateur est d’encadrer ce système sans nuire au développement de ce nouveau secteur économique.

L’intégration du bitcoin dans l’économie

Le cadre juridique de bitcoin a gagné en clarté au cours du deuxième trimestre 2014. La Federal Election Commission (FEC) a autorisé l’utilisation des bitcoins pour le financement des campagnes électorales ouvrant un important marché aux entreprises effectuant ces transactions. Par ailleurs, l’administration des impôts (IRS) a précisé les règles d’impositions. Le bitcoin n’est pas reconnu comme une monnaie mais les conséquences patrimoniales des échanges sont imposées selon les règles en vigueur.

Dans ce contexte, le plus grand investissement dans une entreprise bitcoin fut réalisé le 12 mai 2014 pour 30 millions de dollars. La startup Bitpay, basée à Atlanta, est spécialisée dans les transactions de bitcoins. Parmi ses investisseurs se trouvent le fondateur de Paypal, Peter Thiel, et Richard Branson qui avait déjà annoncé en 2013 que son entreprise Virgin Galactic accepterait les paiements en bitcoins.

Source : bulletins-electroniques.com

News environnement : mai 2014

Impact économique des biocarburants

D’après une étude publiée par Fuels America fin avril, une organisation qui milite pour le développement des carburants alternatifs, l’industrie des biocarburants a créé près de 500.000 emplois dans le Middle West et injecte environ 100 milliards de dollars dans l’activité économique de la région. Le rapport, publié fin Avril, a retenu comme biocarburant les additifs issus de plantes pour le diesel et l’essence conventionnelle. C’est-à-dire principalement l’éthanol issu du maïs, ainsi que l’éthanol cellulosique obtenu à partir de déchets d’usine (tiges de maïs et autres résidus de plante).

L’étude a estimé que 174.000 emplois sont directement impliqués dans l’industrie des biocarburants dans le Middle West, avec plus de 80% d’entre eux dans l’agriculture et le reste dans le secteur manufacturier, commerce de détail et de gros. Le montant total des salaires directs s’élève à 11 milliards de dollars. Les emplois induits par cette activité biocarburant chez les fournisseurs et les biens et services sont également très importants puisque près de 290.000 emplois supplémentaires sont ainsi générés. Les deux poids lourds du secteur sont l’Illinois et l’Iowa avec respectivement 75.000 emplois et 19 milliards de dollars injectées dans les économies locales.

L’étude intervient alors que l’industrie des biocarburants subit une pression croissante. L’agence américaine de protection de l’environnement EPA a radicalement baissé ses objectifs pour l’éthanol cellulosique quand seulement environ 810.000 gallons ont été produits contre les 6 millions attendus, selon Bloomberg News. D’autres réductions sont encore possibles alors que la production totale se rapproche de la « limite de mélange », ce qui signifie que la production de biocarburants atteint les 10% de la consommation d’essence. Les combustibles à plus de 10% de biocarburants ne sont pas autorisés aux Etats-Unis, même si certains pays permettent des mélanges avec des teneurs plus élevées. Les biocarburants sont également menacés sur la colline du Capitole. Un projet de loi été déposé le 10 avril 2014 par le républicain Bob Goodlatte. Selon cette proposition de loi, l’EPA ne pourrait plus approuver de carburants avec plus de 10% d’éthanol. Ce projet de loi a été transmis au sous-comité sur l’énergie et l’alimentation.

Les adversaires des biocarburants affirment qu’ils faussent le marché libre et augmentent le coût des céréales pour la consommation humaine et animale. Des études récentes ont également suggéré que l’utilisation de biocarburants pourrait avoir des conséquences imprévues sur l’environnement, comme encourager les agriculteurs à utiliser les terres protégées pour la culture du maïs, ce qui augmente la pollution par l’utilisation des engrais et met en péril l’habitat des animaux. Jon Doggett, vice-président pour la politique publique de la « National Corn Growers Association », a fait remarquer que ces critiques ne tiennent pas compte d’éléments importants tels que la réduction des importations de pétrole, ce qui réduit la pollution et le déficit commercial. Les biocarburants permettent aussi une agriculture économiquement viable pour les jeunes qui, autrement, se tourneraient vers des emplois urbains. Et beaucoup de fermiers sont très attachés au fait de voir leurs enfants prendre leur suite dans les exploitations.

Adam Monroe, président de la société de biotechnologie Novozymes, a souligné que les sociétés comme la sienne créent des emplois de haut niveau en recherche et développement dans le secteur des biocarburants. Il pense que l’industrie pétrolière se sent menacée par les progrès des biocarburants car ils réduisent la demande en carburants fossiles. Et on sait combien le lobby des pétroliers est puissant aux Etats-Unis.

Il n’en reste pas moins que les biocarburants issus de l’agriculture, biocarburant de première génération, représentent une menace pour l’environnement, mais ils génèrent par ailleurs une activité économique importante qui présente les avantages d’être décentralisée et non délocalisable. Il est donc important de conserver le bénéfice économique mais d’éliminer la menace écologique. La solution pourrait voir le jour avec l’arrivée des biocarburants de deuxième génération, pour lesquels les plantes non alimentaires et les déchets végétaux sont utilisés. L’exploitation de cette ressource présente en plus l’avantage de contenir de nombreuses molécules d’intérêt pour la chimie verte et la pharmacie. Ces molécules sont très importantes car elles permettent d’une part d’augmenter le rendement économique du procédé de production de biocarburants, et d’autre part elles permettent de rendre moins polluantes les voies de synthèse utilisées par les industries chimiques et pharmaceutiques. Le bénéfice écologique s’étend donc bien au-delà de la simple production de carburant alternatif.

Les biocarburants de première génération ont permis la mise en place d’une filière industrielle viable économiquement, comme nous l’avons vu précédemment. Mais il est temps maintenant d’évoluer vers un modèle durable.

Source : bulletins-electroniques.com

Les technologies à base de biomasse pour une production électrique adaptée à la demande

La chaleur produite à partir de biomasse est généralement générée suivant la demande, ce qui n’est pas le cas actuellement pour la plupart des installations de production d’électricité : les installations à bois et de biogaz produisent en général de l’électricité de façon constante et permanente. Cette capacité de production de base est considérée comme l’un des avantages de l’électricité à partir de biomasse par rapport aux autres sources d’électricité renouvelable. Néanmoins, si on souhaite voir la bioélectricité être produite également en fonction de la demande, par exemple pour compenser les fluctuations des énergies éolienne et solaire, un effort doit être fait.

Le Centre allemand de recherche sur la biomasse (DBFZ) de Leipzig (Saxe) a présenté sur ce sujet l’étude intitulée « Utilisation de la biomasse pour une production d’énergie en fonction de la demande », menée avec le soutien financier du Ministère fédéral de l’alimentation et de l’agriculture (BMEL) via l’Agence des matières premières renouvelables (FNR), porteur de projet du ministère pour le programme de financement « Matières premières renouvelables ». Au cours de trois séries de travaux, les chercheurs du DBFZ ont étudié les options technologiques existantes ainsi que l’intégration de l’électricité produite en fonction de la demande dans le réseau électrique, et ont évalué les différentes variantes.

L’étude a analysé à cet égard toutes les approches technologiques commercialisables, et fait ressortir leurs avantages et inconvénients spécifiques. Dans le même temps, des critères ont été élaborés, qui ont permis de comparer et d’évaluer les différentes technologies. Des options technologiques dans le domaine de la conversion thermochimique (par exemple : centrales à cogénération flexibles, installations de gazéification, piles à combustible…), de la production de biogaz (y compris en tenant compte du stockage de gaz et de la gestion de l’alimentation animale), ainsi que dans le domaine des bio-raffineries (en particulier pour la synthèse flexible de carburants et d’autres produits chimiques de base) ont été prises en compte dans cette étude. Un aperçu des technologies de de stockage de l’électricité et de la chaleur a également été donné, afin d’évaluer au mieux les technologies bioénergétiques flexibles. Enfin, l’examen des marchés pertinents et du cadre juridique parachève cette étude.

Bien que les installations au biométhane puissent être dès aujourd’hui considérées comme suivant la demande, tous les autres concepts nécessitent des ajustements techniques individuels, qui se répercutent sur leur rentabilité économique. Cependant, les chercheurs concluent que l’électricité à partir de biomasse est une énergie flexible disponible, qui peut faire coïncider l’offre et la demande avec relativement peu de difficultés techniques. En particulier, les technologies à base de gaz, qui tablent sur des gaz de synthèse ou du biogaz avec de préférence du stockage de gaz naturel dans le réseau, permettent une utilisation très flexible à démarrage rapide. Des variantes de combustibles solides répondent également aux exigences d’une production orientée vers la demande.

Source : bulletins-electroniques.com

Des panneaux solaires qui deviennent panneaux lumineux

Des scientifiques de la Nanyang Technological University (NTU) ont développé une nouvelle génération de matériau photovoltaïque qui, en plus de transformer la lumière en électricité, peut aussi émettre de la lumière. Cela a été développé à partir de pérovskite, un matériau très prometteur pour le développement de panneaux solaires ayant une grande efficacité et un coût très réduit . Ces nouvelles cellules photovoltaïques peuvent briller lorsque de l’électricité les traverse mais elles peuvent également être modifiées pour émettre différentes couleurs.

Les applications seraient d’un très grand intérêt, on peut imaginer un téléphone qui se recharge lorsque son écran est au soleil, ou encore une façade de bâtiment qui génère de l’électricité le jour et se transforme en panneau publicitaire la nuit.

Cette découverte, publiée dans la revue scientifique renommée Nature Materials, s’est faite presque par hasard lorsque le physicien Sum Tze Chien de NTU a demandé à son post-doctorant Xing Guichuan de pointer un laser sur la nouvelle cellule photovoltaïque hybride à base de pérovskite. Ce fut alors une surprise pour le Professor Sum et son équipe de voir briller cette cellule photovoltaïque, car ces matériaux ne font en général qu’absorber la lumière et non la générer. Ce nouveau matériau est donc également adapté à la fabrication de lasers. L’équipe de chercheurs précise également qu’en ajustant la composition de ce nouveau matériau, on peut le faire émettre de très nombreuses couleurs, ce qui le rend aussi utilisable pour des dispositifs émettant de la lumière, comme des écrans plats.

Le professeur Nripan Mathews, également impliqué dans ces recherches, était le premier à avoir expliqué le comportement des cellules photovoltaïques en pérovskite. Il considère aujourd’hui que ces nouvelles propriétés devraient permettre à l’industrie d’utiliser facilement ce matériau dans des technologies existantes. Il s’agit donc de cellules photovoltaïques qui peuvent être semi-transparentes et être ainsi utilisées comme du verre teinté afin de remplacer des fenêtres et générer de l’électricité grâce au soleil. De plus, ce nouveau matériau est cinq fois moins cher que les panneaux solaires à base de silicium, un avantage non négligeable.

Source : bulletins-electroniques

Du carbone enfoui dans le sous-sol, une menace de plus pour le climat (étude)

A partir d’analyses menées aux Etats-Unis, au Nebraska dans la région des Grandes plaines, une couche souterraine pouvant atteindre jusqu’à six mètres de profondeur, enfouie sous des sédiments, s’est ainsi révélée être particulièrement riche en carbone, rapportent des chercheurs dans la revue scientifique Nature Geoscience.

Cette découverte à une telle profondeur est « significative » car elle impliquerait que l’on sous-estime actuellement la quantité de carbone stocké dans les sous-sols de la planète, disent-ils. Or ce carbone, à travers l’érosion, l’agriculture, les activités minières ou la construction de routes, est susceptible d’être mis au jour, de se transformer en dioxyde de carbone (CO2) et donc de contribuer au changement climatique.

« Il y a beaucoup de carbone à des profondeurs où personne ne le mesure », estime Erika Marin-Spiotta, chercheuse à l’Université de Wisconsin-Madison et principale auteur de l’étude, soulignant que la plupart des recherches en la matière se cantonnent généralement aux trente premiers centimètres sous la surface.

La couche de sol à laquelle se sont intéressés les chercheurs s’est formée il y a entre 15.000 et 13.500 ans. Cette couche alors en surface est aujourd’hui située à une profondeur allant jusqu’à six mètres sous la surface actuelle après avoir été recouverte par une vaste accumulation de sédiments il y a quelque 10.000 années.

Un changement assez brutal de climat à cette époque a provoqué un dépôt croissant de sédiments qui a conduit à la séquestration du carbone présent dans la végétation et issue d’incendies.

De telles couches souterraines riches en carbone peuvent potentiellement exister ailleurs dans le monde, enfouies sous plusieurs types de sédiments, explique Erika Marin-Spiotta.

Une partie de ce carbone n’atteindra jamais l’atmosphère et ne jouera donc aucun rôle dans le réchauffement de la planète. Mais certaines couches souterraines peuvent potentiellement être de nouveau exposées, à travers la construction d’une route ou des activités minières, des modifications susceptibles d’apporter vers les profondeurs des microbes ou des nutriments à même de stimuler la dégradation de ce carbone en CO2.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

400 000 autos électriques dans le monde, et moi et moi et moi

Selon l’analyse menée par le ZSW, le Centre de recherche sur l’énergie solaire et l’hydrogène du Baden-Württemberg, le nombre de voitures électriques dans le monde a doublé en 12 mois. Et il y en avait seulement 100 000 en 2012. Ce qui est équivalent à un taux de croissance annuel de 100% depuis 2 ans. Bien mieux que les 0,1% du taux de croissance du PIB français en 2013.
 
Les marchés leaders sont les USA (174 000 unités), le Japon (68.000) et la Chine (45 000). L’Europe traine derrière, avec néanmoins des niveaux honorables pour la France, l’Allemagne, les Pays-Bas et la Norvège.
 
Ce pays scandinave représente aujourd’hui 12% du parc automobile électrique européen alors qu’il ne pèse que 1% au niveau démographique. Oslo est devenue la capitale mondiale de l’électro-mobilité. Le groupe français Renault a annoncé début avril 2014 qu’il lance sa citadine Zoé 100% électrique en Norvège.
 
Les marques de véhicules électriques qui se vendent le mieux dans le monde sont japonaises. Nissan avec la Leaf et Toyota avec la Prius Plug in. Et aussi américaines avec General Motors et ses modèles Ampera et Volt. 
 
Les batteries proviennent principalement d’Asie, surtout du Japon et de Corée du sud. Un marché où, comme dans le solaire photovoltaïque, l’UE et les USA ne sont pas encore parvenus à s’imposer. L’Asie prend chaque année qui passe de l’avance dans le domaine des écotechnologies d’avenir. Les européens y pensent, et puis l’oublient.
 
Par Olivier Danielo

Revue du web #60 : les vidéos étonnantes de la semaine

Cette semaine dans la revue du Web

  • MorpHex, le robot hexapode modulable et télécommandé, est de retour ;

  • Le bras bionique ultra-rapide et attrape-tout de l’école polytechnique fédérale de Lausanne ;

  • Palpitant : du nouveau pour l’expérience la plus longue du monde ;

  • Le gadget (inutile?) de la semaine : Pringles et la machine de Rube Goldberg ;

  • Et en bonus : battre le record du monde de vitesse d’écriture sur smartphone.

MorpHex, le robot hexapode modulable et télécommandé, est de retour

Il avait promis qu’il reviendrait, Kare Halvorsen a tenu parole. Pour débuter notre soixantième Revue du Web, jetons un œil à la version améliorée de MorpHex, le robot sphérique hexapode mis au point par un ingénieur norvégien plutôt débrouillard et touche-à-tout. Conscient des faiblesses de la précédente version – qui lui a tout de même permis de participer à un concours d’innovation organisé par la société Boca Bearing, le « Boca Bearings 2012 Innovation Competition » – Kare Halvorsen a pris le temps de fignoler sa bestiole télécommandée à six pattes pour enfin pouvoir rouler des mécaniques à ses côtés.

MorpHex a pour principal atout de pouvoir prendre différentes formes en fonction de l’usage qui lui est destiné, ou du terrain qu’il devra parcourir. Capable de se transformer en sphère, puis de retrouver sa forme de robot hexapode à l’envi, le bruyant avorton polymorphe (en cause, les servomoteurs) réussit la prouesse de pouvoir se déplacer sur ses six pattes, tel un insecte, ou de pouvoir rouler lorsqu’il adopte sa forme sphérique. La structure centrale du robot est modulable, permettant au robot d’occuper plus ou moins de surface lorsqu’il est en mouvement.

Si l’on se fie au perfectionnisme de notre méticuleux ingénieur norvégien, il ne reste plus qu’à attendre une nouvelle mouture de MorpHex, d’ici un ou deux ans.

Le bras bionique ultra-rapide et attrape-tout de l’école polytechnique fédérale de Lausanne

Il cache bien son jeu, le grand bras orange mis au point par l’école polytechnique fédérale de Lausanne. Ce bras bionique d’environ 1m50 de long, impressionne peu au premier abord, lorsqu’il semble se trouver en position d’attente. Mais qu’on lui lance une raquette de tennis, une balle, ou encore une bouteille, et on se rend vite compte que le membre robotique est plutôt habile et toujours en alerte.

Armé d’une main sophistiquée ne comprenant que quatre doigts, la bestiole dégingandée a été conçue et programmée par le Learning Algorithms and Systems Laboratory (LASA) de l’école polytechnique fédérale de Lausanne, afin de tester certaines solutions robotiques pour la capture d’objets en mouvement. Réussir à attraper des objets volants nécessite l’intégration de nombreux paramètres, ainsi que la capacité à faire face à des événements imprévus, en un temps record.

Pour arriver à ses fins, l’équipe de chercheurs est passée par une première phase d’apprentissage (baptisée « Programmation par démonstration »), phase durant laquelle différents objets sont lancés à plusieurs reprises en direction du robot, alors que le robot est guidé manuellement par l’un des vigoureux laborantins. Aidé par une série de caméras placées tout autour, le robot analyse les données de trajectoire, de vitesse et de rotation, afin de créer le modèle cinétique d’un objet. Le robot apprend alors à se positionner très rapidement et de manière adéquate pour attraper le projectile. Le bras bionique est d’autant plus efficace qu’il bénéficie des petits soins d’un contrôleur qui couple et synchronise les mouvements de la main avec ceux des doigts.

Les concepteurs ne s’y sont pas trompés : ce petit joujou pourrait potentiellement trouver sa place dans l’espace, et permettre de ramasser certains débris spatiaux orbitant autour de la Terre.

Palpitant : du nouveau pour l’expérience la plus longue du monde

L’expérience de la goutte de poix n’a pas fini de nous tenir en haleine. Commencée en 1927 à l’université du Queensland de Brisbane, en Australie, cette expérience scientifique est la plus longue expérience encore en cours du monde. Elle a pour but de mesurer la viscosité de la poix, à l’aide de l’écoulement d’un de ses fragments.

Le protocole expérimental est relativement simple : le professeur Parnell a fait remplir un entonnoir (dont l’extrémité a été préalablement bouchée) avec du goudron chaud qu’il a laissé reposer trois ans, avant de retirer le bouchon de manière à ce que la poix puisse (ou non) s’écouler. Il aura fallu pas moins de huit ans pour que la première goutte ne tombe de l’entonnoir, et à peu près autant pour voir la seconde goutte tomber, comme nous vous en parlions déjà ici.

Critiquée pour son manque de rigueur scientifique – il n’y eut, jusqu’en 1988, aucun contrôle des conditions atmosphériques – quelques efforts ont néanmoins été réalisés pour pallier ces « menus » problèmes, avec notamment l’arrivée de la thermorégulation et l’installation de la climatisation.

Dans un suspense des plus palpitants, la neuvième goutte est enfin tombée, le 24 avril dernier, près de treize ans et demi après la chute de la huitième goutte qui, ironie de l’histoire, ne put être enregistrée en raison d’une avarie vidéo. La neuvième goutte ne s’est pas réellement détachée, mais elle est entrée en contact avec la huitième goutte… cette fois-ci sous les yeux de près de 25 000 internautes, certainement médusés devant ces images « à couper le souffle ».

Le vidéo qui suit est un time-lapse des deux dernières années de l’expérience.

Le gadget (inutile?) de la semaine : Pringles et la machine de Rube Goldberg

Pour venir conclure cette soixantième Revue du Web, invoquons une fois de plus le génie de Rube Goldberg et l’une des fantastiques machines qu’il a inspiré, abonnées aux coups de pubs et aux gadgets (inutiles?) de la semaine. Ici, c’est le géant américain de la chips reconstituée Pringles qui est aux commandes, dans une opération de marketing croisé avec la franchise X-Men. Le but : parvenir à récupérer la dernière chips au fin fond de la boite, opération particulièrement délicate lorsqu’on oublie qu’il suffit de retourner le cylindre droit qui sert d’emballage.

L’installation, comportant exceptionnellement assez peu d’étapes, met en scène les caractéristiques principales de trois des principaux héros de l’univers Marvel : les griffes rétractiles de Wolverine, un aimant pour figurer les pouvoirs de Magnéto, ainsi qu’un tube d’aspirateur amélioré pour évoquer les pouvoirs de Tornade. Avec un sens de la mise en scène un tantinet exagéré, les trois jeunes larrons récupèrent alors l’objet tant convoité, le fameux dernier Pringles, sorte de sot-l’y-laisse de la chips reconstituée.

Ce type d’installation s’inspire, on le rappelle, de l’œuvre prolifique et inventive de Rube Goldberg, un dessinateur et artiste américain mort en 1970, dont les installations avaient pour leitmotiv la transformation d’une tâche excessivement simple en une série de tâches complexes, impliquant la plupart du temps une réaction en chaîne. Chaque élément de la machine vient se frotter d’une manière ou d’une autre à l’élément suivant, remplissant humblement sa fonction, jusqu’à déclencher de fil en aiguille l’action finale, le but initial de la machine de Rube Goldberg.

Bonus : battre le record du monde de vitesse d’écriture sur smartphone

Pour obtenir son ticket d’entrée dans le livre Guinness des records, pas besoin d’avoir des prédispositions particulières : il suffit généralement de se trouver une catégorie totalement loufoque pour pouvoir passer à la « postérité ». Notre bonus de cette semaine vient couronner le travail d’un jeune Brésilien de 16 ans, nouveau détenteur du record du monde d’écriture sur smartphone.

Armé de son seul téléphone intelligent, Marcel Fernandes est parvenu à écrire un petit texte de 25 mots en 18,19 secondes, battant ainsi le précédent record de 18,44 secondes, détenu par un adolescent américain de 15 ans. Pour ce faire, il fallait taper le plus rapidement possible « Les piranhas aux dents aiguisées comme des rasoirs, du genre Serrasalmus et Pygocentrus, sont les poissons d’eau douce les plus féroces du monde. En réalité, ils s’attaquent rarement aux humains. » (texte traduit en français).

Ce record n’est pourtant pas la lubie du seul Brésilien : c’est l’équipe derrière l’application Fleksy – un clavier virtuel amélioré pour smartphone – qui a vu dans ce record l’opportunité d’un petit coup de publicité pour leur clavier virtuel. Mission accomplie.

Par Moonzur Rahman

eBay terrassé par une cyber-attaque

Nom, adresse mail, coordonnées postales, numéro de téléphone, date de naissance et mot de passe, voilà ce que les pirates informatiques ont réussi à dérober à eBay. Face à cette fuite massive des informations sur  leurs clients, eBay leur conseille de changer de mot de passe, et vite ! Le géant américain, qui vient seulement de découvrir l’affaire,  est en train d’en informer sa clientèle par mail et via un message publié directement sur le site. Les hackers auraient agi entre fin février et début mars, dérobant, en plus des fichiers clients, les mots de passe des salariés d’eBay.  Ce butin représente environ 140 millions de comptes clients, de quoi se créer une impressionnante base de données. eBay alerte d’ailleurs tous ceux qui utilisent la même combinaison login/mot de passe pour d’autres services tels que les messageries et les réseaux sociaux afin de tous les modifier. Dans le cas contraire, les pirates pourraient s’introduire dans tous les comptes utilisant ces codes. 

eBay tente toutefois de rassurer en indiquant qu’a priori, car ce n’est pas certain non plus, aucune donnée bancaire n’a été volée, ajoutant dans son communiqué : « Quant aux données PayPal, elles sont stockées et cryptées sur un autre serveur sécurisé ». De plus, aucune activité frauduleuse des informations personnelles n’a encore été détectée. eBay précise que les mots de passe sont cryptés et que les hackers ne disposent pas  des codes bruts mais de séries de chiffres. Une sécurité bienvenue qui laisse espérer que les mots de passe restent confidentiels, leur modification étant une mesure de précaution.

Les pirates ont réussi à accéder à ces données confidentielles en passant par quelques login de certains employés de la firme. Ceux-ci leur ont procuré un accès  au réseau de l’entreprise, et donc aux fichiers clients. Simple et terriblement efficace. 

eBay a annoncé collaborer avec des experts de la sécurité informatique pour renforcer la sécurité et empêcher qu’un tel évènement ne se reproduise.

Par Audrey Loubens, journaliste scientifique

Gaz de schiste : Royal ne ferme pas la porte

« Compte tenu des incertitudes, la France a raison d’appliquer le principe de précaution », insiste-t-elle, rappelant que « pour extraire le gaz, il faut en effet provoquer des explosions souterraines dont on ne maîtrise pas l’impact ».

« On ne sait pas si ces fracturations hydrauliques ne risquent pas de provoquer des fuites de gaz dans les nappes phréatiques et de contaminer l’eau potable », ajoute Mme Royal.

Toutefois, poursuit-elle, « moi, je ne suis pas dogmatique et si de nouvelles technologies non dangereuses apparaissent, pourquoi pas ? »

Déjà en 2011, l’ancienne candidate à la présidentielle de 2007 avait jugé « nécessaire de poursuivre la recherche sur les procédés d’extraction propres à long terme ».

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Real Humans : la contamination reprend !

Dans un monde qui pourrait très (trop) rapidement devenir le nôtre, les hubots (human robots) sont des robots ressemblant de façon troublante aux êtres humains qu’ils remplacent dans leurs tâches domestiques. Mais les « tâches » et la ressemblance ne semblent pas s’arrêter là. 

On savait déjà qu’ils pouvaient servir à d’autres « besoins », et que certains commençaient à légitimer leur existence depuis les expériences encore troubles d’un savant fou dénommé David Eischer. Mais qui est-il ? Comment a-t’il permis aux hubots de se libérer de leur condition de machine ? Quel en est le code ?

Démarrage troublant de cette saison 2 ou l’on découvre dans ces tous premiers épisodes qu’un virus semble avoir affecté les hubots les rendant dangereux et incontrôlables. Puis une organisation « Real Humans » (100% Humain) se met en place avec une jeunesse militante aux arguments plus que convaincants pour certains.

Malgré l’intégration presque « normale » des hubots dans la vie quotidienne des humains, le fossé semble se creuser de façon irrémédiable. 

La famille Engman après s’être assurée que ses hubots (Mia et Vera) ne sont pas infectés, semble toujours touchée par la confusion des sentiments.

Tobias est toujours fou amoureux de « Mimi », et la famille semble perturbée par la réception du hubot de Inger Engman, le grand-père décédé.

Bea blessée, et après plusieurs mois d’inactivité, sème la mort sur son passage sans aucun remord. Elle se lance à la recherche du code de David Eischer avec un certain acharnement, et aimerait récupérer son clone. Elle essaie aussi de regrouper les hubots de David dans sa quête.

Jonas, l’homme brulé, lance son Hub Battle Land, en s’associant avec Silas. Une sorte de grand laser-game version hubots contre humain qui charme Roger, qui était justement à la recherche d’un nouveau travail.

Florentine quand à elle, après sa quête d’une vie parfaitement humaine, réussit à conquérir le cœur de Douglas.

 

 

 

Par Lalie

L’ANSES s’alarme de la toxicité des nanoparticules

Très investie dans l’étude de la toxicité des nanomatériaux, l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (ANSES) vient de rendre publique son avis suite à son travail d’actualisation des connaissances sur les nanomatériaux et leur éventuelle nanotoxicité. Pour l’Agence, la littérature est suffisamment riche en éléments à charge pour se doter d’outils performants pour le suivi et le contrôle des nanomatériaux. Et bien qu’aucune donnée impliquant l’homme de façon directe n’existe, les effets sur la santé observés in vitro ou sur l’animal sont interprétés comme la preuve de leur toxicité, et a minima comme suffisants pour justifier un certain nombre de précautions. L’Anses rappelle que  les recherches effectuées ont montré « la capacité des matériaux à franchir les barrières physiologiques ». Parmi les dangers on retrouve des  effets cancérogènes, génotoxiques, une persistance et donc une accumulation dans le corps,  ainsi qu’un impact sur le système nerveux.

En janvier 2013, la France mettait déjà en place une déclaration obligatoire pour les industriels de déclarer les nanoparticules utilisées. L’Anses veut aller plus loin en durcissant le Reach, notamment en l’étendant aussi aux substances utilisées dans des quantités  inférieures à la tonne, une sorte de nano-Reach.  Une recommandation qui fait grincer des dents l’Union des industries chimiques, très concernées par l’utilisation des nanomatériaux et qui juge un tel renforcement comme un frein au développement des entreprises.

Une deuxième recommandation concerne  « la mise en œuvre de projets pluridisciplinaires permettant de développer les connaissances sur les caractéristiques des nanomatériaux et de leurs dangers, tout au long du cycle de vie des produits ». Une démarche délicate puisque tester la toxicité de tous les nanomatériaux connus prendrait un demi-siècle, selon l’estimation du Centre stratégique français. En 2009, l’Anses avouait son incapacité à conclure dans un sens ou dans l’autre sur la dangerosité des nanoparticules, et déplorait qu’en 2009 seulement 2% de la recherche concernaient leurs effets sur la santé. Un chiffre en nette hausse puisque ce sont désormais 8% des travaux qui s’y intéressent. Une évolution clairement encouragée par l’Anses.

Lire l’avis : www.anses.fr

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Le management sans manager, une pratique novatrice dans les entreprises françaises ?

« Il vaut mieux avoir des idées que l’entreprise peut nourrir que des idées pour nourrir l’entreprise ». La phrase est de Jim Collins, consultant en management américain dont les travaux ont beaucoup inspiré la méthode de management pratiquée chez Sogilis, ainsi que sa vision de la croissance. Un parti-pris plutôt disruptif dans un environnement high-tech où traditionnellement le risque humain (recrutement) ou financier (investissement) est pris dans la perspective d’une réussite basée sur des tableurs ou des niveaux de diplômes et de grilles prédéfinies par poste.

Autodidacte, passionné d’informatique et entrepreneur dans l’âme, Christophe Baillon a mis en place le management cellulaire au sein de Sogilis dès les premiers pas de son entreprise en 2008. « Geek moi-même, j’ai centré la méthode de recrutement sur ce type de profil, a la fois atypique, enthousiaste, créatif et passionné. Et même au-delà, c’est toute l’entreprise qui a été organisée dans cette vision. » explique-t’il.

Faire confiance, responsabiliser, partager

Ne cherchez pas de cadre dirigeant ou de management intermédiaire chez Sogilis : il n’y en a pas.

Tous les collaborateurs sont mis sur un même pied d’égalité. Ils sont répartis en cellules, chacune ayant sa propre fonction : cellules métiers, commerciales, administratives. Chaque cellule avance sur ses différentes missions avec un objectif simple : la rentabilité de l’activité qu’elle gère. A partir de cela, les contraintes horaires n’existent pas, les ressources et outils employés sont choisis par les équipes dans un esprit d’atteinte de cet objectif, en totale autonomie. Chaque cellule dispose d’un référent qui fait le lien avec les autres cellules.

Lors d’un recrutement, ce sont d’abord les membres de l’équipe qui voient le candidat et qui évaluent son potentiel a intégrer la structure. Cela garantit une meilleure intégration et une prise en main de poste beaucoup plus rapide.

Cette rapidité est renforcée par le principe de travail en binôme notamment sur les parties les plus complexes des projets (codage par exemple).

La cellule commerciale renverse l’approche métier : on reproche souvent dans les sociétés de service aux commerciaux, de vendre l’entreprise et son offre sans concertation préalable avec les équipes techniques. Chez Sogilis la pratique est radicalement différente.

  • Le commercial est avant tout un coach : en étroite collaboration avec les équipes techniques il participe à l’élaboration d’une offre pertinente vis à vis de son marché avec chaque cellule. Il va ensuite proposer cette offre, puis participer à son adaptation jusqu’à ce qu’elle soit parfaitement en phase avec les attentes des clients ou prospects. ​​​
  • Ce sont ensuite les équipes techniques qui décident d’accepter ou non les projets, elles font la qualification technique et prennent les engagements. 

Résultat : des clients enthousiastes, des salariés engagés, épanouis, qui se sentent acteurs.

Heureux au travail, entreprise prospère ?

« Le premier principe chez nous, c’est que nous faisons confiance au collaborateur par défaut » affirme Christophe Baillon. « Il n’y a ni horaire ni contrainte. Seuls comptent la qualité du service rendu en interne comme à l’externe chez nos clients, et le respect des objectifs. A la quantité, nous préférons la qualité.»

Et ça fonctionne : en 5 ans, Sogilis est passé à un effectif de 3 à 20 collaborateurs pour un CA de 1 million d’euros. Elle poursuit sa croissance , avec comme clients majeurs Thales Avionics, STMicroelectronics et de nombreuses startups du web. Très récemment, Sogilis a été identifiée comme l’une des 5 pépites innovantes à suivre au sein de AEROSPACE CLUSTER.

Pour Christophe Baillon, ce modèle peut contribuer à transformer l’économie, en complément des modèles plus classiques : «  La crise du marché de l’emploi contient une grande part d’inadéquation entre les besoins des entreprises et les profils des personnes disponibles. Ajoutons a cela une génération de jeunes actifs qui attendent de l’épanouissement et de l’accomplissement de soi dans leur mission et on fait le tour d’une bonne partie de la question. En recrutant sur la passion des personnes pour une activité, en leur donnant de l’autonomie, en leur faisant confiance et en les responsabilisant sur les contraintes économiques de l’entreprise, on peut changer les choses, et rendre les gens heureux de travailler. Et le tout en rendant l’entreprise plus efficiente.»

Depuis Janvier 2014, Sogilis va encore plus loin, et accompagne même certains salariés qui ont la fibre entrepreneuriale, à créer leur start-up et leur donne du temps et des moyens pour avancer sur leur projet.

Source : Sogilis
Fondée en 2008 par Christophe Baillon,  lauréat du Réseau Entreprendre Isère. Sogilis est une société d’ingéniérie informatique qui conçoit et développe des logiciels infomatiques sur mesure.

L’ingénieur geek #1 : le Viboomer

Elle s’appuie sur un système de haut parleur à résonance qui utilise la surface d’un objet, d’un meuble, d’une porte ou d’une vitre pour diffuser votre musique à 360°C.

Ici, ce ne sont plus les membranes d’une enceinte qui vibrent, mais la surface elle-même ! Basé sur un mécanisme de résonance ultrasonique, le haut parleur intégré propage le son à travers tous les matériaux courants : verre, métal, bois, plastique, carton, etc.

Pour ce faire, il suffit de déposer le ViBoomer sur la surface désirée. Le ViBoomer crée autant de rendus sonores qu’il y a de matériaux et de formes disponibles autour de vous. En fonction de la surface utilisée, le son sera différent (voir ci-dessous), à vous de choisir votre préféré !

L’enceinte peut être connectée via Bluetooth à votre téléphone, ordinateur ou tablette ou avec une prise mini-jack à tous les appareils compatibles.

  • De 5 à 26 watts
  • Disponible à partir de 49 euros

En savoir plus : http://www.viboomer.com

Par Matthieu Combe

Une première depuis Fukushima: un tribunal nippon maintient l’arrêt d’une centrale nucléaire

Le jugement du tribunal régional de Fukui (ouest du Japon) est une première depuis l’accident de la centrale de Fukushima, provoqué par le séisme et le tsunami de mars 2011, et constitue un sérieux revers pour le gouvernement qui s’efforce, malgré une opinion devenue sceptique voire très réticente, de relancer la filière nucléaire. 

La société exploitante, Kansai Electric Power, a aussitôt indiqué qu’elle ferait appel de ce jugement.

Le gouvernement du Premier ministre Shinzo Abe a indiqué pour sa part que cette décision ne changerait rien à sa politique de relance du secteur nucléaire.

Nous redémarrerons les réacteurs si leur sûreté est établie de manière strictement objective, a déclaré le porte-parole du gouvernement, Yoshihide Suga.

Actuellement, la totalité des 48 réacteurs japonais est à l’arrêt à la suite de la fermeture pure et simple de centrales ou de la mise en oeuvre de contrôles de sécurité.

Les conclusions des contrôles effectués à la centrale d’Oi ont conduit le tribunal à trancher pour le statu quo en raison des risques spécifiques qu’induirait une remise en service pour les populations installées autour du site dans l’hypothèse d’un nouveau séisme.

L’interdiction imposée par le tribunal de Fukui répond ainsi à une plainte collective de 189 personnes, dont 166 vivent dans un rayon de 250 km de la centrale.

Après la mise à l’arrêt des 48 réacteurs que compte le Japon, l’Autorité de régulation nucléaire (NRA) doit confirmer la sûreté des unités jugées exploitables dans le pays avant qu’un feu vert politique ne soit donné à une reprise des installations.

En mars, l’Autorité de régulation nucléaire japonaise (NRA) avait indiqué qu’elle allait s’occuper en priorité de la validation de sûreté de deux réacteurs du sud-ouest du Japon, Sendai 1 et 2, qui pourraient être les premiers à redémarrer

 

(©AFP / 21 mai 2014 15h54)

La production de biocarburants et d’intermédiaires de plus en plus sophistiqués révolutionne l’industrie de la biologie synthétique

Dans les faits, une recherche attentive  montre que l’équation technologique et économique dans ce domaine est beaucoup plus complexe. Elle comporte deux grands volets : l’un, largement commenté dans les médias, qui consiste à diversifier et élargir les ressources de biomasse à divers résidus lignocellulosiques tels que les déchets issus de l’industrie du bois, l’autre, moins grand-public, qui consiste à obtenir des produits finis de plus grande valeur ajoutée qui permettent de financer des projets beaucoup plus sophistiqués que de simples distilleries cantonales que sont les raffineries de bioéthanol actuelles. 

Une remarque préalable importante : toutes ces recherches, ces développements, ces industrialisations sur les biocarburants, quoiqu’en pensent ou déclarent certains,  n’ont pas pour objet premier de réduire de quelques misérables tonnes les émissions mondiales de CO2, ce qui serait un objectif ridicule par rapport aux milliards de tonnes relargués annuellement dans le monde. Elles ont pour objet essentiel de produire des ersatz ou des additifs aux produits pétroliers dont les prix sont appelés à poursuivre leur inexorable progression, sous la pression d’une demande mondiale croissante, tirée essentiellement par la progression des transports routiers, maritimes ou aériens, composants de la croissance des échanges économiques dans le monde.

L’apport à bons prix de biocarburants ou d’intermédiaires de la pétrochimie participe au bilan onéreux de consommation d’énergie de la planète et limite l’appel aux dérivés du pétrole.

Si les industriels en France disposaient de la capacité de produire de façon rentable des biocarburants à partir de cultures locales ou de résidus forestiers, ils participeraient au bien-être des habitants de ce pays grâce aux emplois créés et surtout grâce à la réduction de la facture énergétique portant sur les importations de pétrole et de produits pétroliers.

Je voudrais ici illustrer ces propos à l’aide de quelques exemples des progrès industriels les plus significatifs, qui viennent bien-sûr des Etats-Unis,  pays où l’avance des sciences et des technologies a encore et plus que jamais, son mot à dire.

Le premier exemple, le plus original et le plus avancé, concerne la société californienne Amyris dans laquelle le pétrolier Total est actionnaire et partenaire industriel. Cette société, à l’aide d’une plateforme de biologie synthétique a su sélectionner des souches de microorganismes capables de transformer du sucre de cane en farnésène (FIG.) qui est un produit chimique insaturé (oléfine)  en C15 (sesquiterpène insaturé vous diront les vieux chimistes, isoprénoïde vous diront les adeptes plus jeunes du « globish » scientifique international).

  • Figure 1 : structure du farnésène (nommé biofene chez Amyris) et de ses dérivés (Remarque : les stéréochimies de l’artémisine et de son ester présentées ici ne sont pas homogènes sur un carbone lié au groupe peroxyde, l’une des représentations stériques, au moins, risque d’être erronée) 

Cette molécule de Farnésène présente l’intérêt d’être un intermédiaire de synthèse de l’artémisine qui est un médicament très efficace contre le paludisme, parfois associé  à son éther méthylique (voir fig.1).

Le farnésène peut être également hydrogéné pour conduire au farnésane saturé, alcane en C15, qui peut entrer dans la composition de kérosène ou de gazole. 

Formidable exemple de biologie synthétique qui conduit à un produit intermédiaire très précis qui peut, à son tour, conduire à diverses gammes de médicaments, de produits chimiques complexes comme les parfums ou des carburants. Pour en savoir plus sur cette aventure industrielle on pourra se reporter aux pages très-bien faites du site Total sur le sujet

Un autre exemple plus simple mais tout aussi intéressant est celui de l’entreprise américaine de biotechnologie Genomatica. Cette société a développé un procédé de biologie synthétique capable de produire à partir de nombreuses ressources de biomasse ou de gaz de synthèse du butanediol : 

HO-CH2-CH2-CH2-CH2-OH

Qui peut être utilisé dans la synthèse de nombreux polyester  ou  en passant par le butadiène dérivé CH2=CH-CH=CH2, dans la composition de nombreux élastomères dont les monomères proviennent bien souvent de la pétrochimie ou de la carbochimie. Cette entreprise a lié des relations de collaboration industrielles avec de nombreux chimistes et utilisateurs dans le monde. 

Citons également l’américain GEVO qui sur les unités de production de bioéthanol propose de produire de l’isobutanol qui peut être utilisé comme solvant ou comme biocarburant et qui transformé en isobutylène peut être utilisé dans de nombreuses synthèses de polymères.

  • Figure 2

Les affaires pour GEVO semblent être difficiles puisque dans sur son unité de Luverne (Minnesota) cette société aurait repris les anciennes productions d’éthanol.

En conclusion, ces quelques exemples montrent que la biologie synthétique, science encore jeune, va nous conduire vers la production de produits chimiques de plus en plus complexes et dont la valorisation sera suffisamment élevée pour pouvoir amortir les investissements de recherches, de développements et d’industrialisations. Les cas examinés ici montrent que la réussite de ces projets repose sur des adossements des structures innovantes à des entreprises industrielles solides. L’association du pétrolier Total au californien Amyris illustre parfaitement ce propos.

Les positions critiques de la Commission Européenne sur les biocarburants, qui voudraient en limiter l’usage, ignorent cette partie innovatrice de la biologie synthétique…et c’est bien dommage.

Par Raymond Bonnaterre

 

EDF déclare une anomalie sur la tenue au séisme de matériaux dans plusieurs centrales

Selon cette note, des analyses ont révélé que « la tenue au séisme de certaines protections n’a pas pu être démontrée de manière satisfante ».

44 réacteurs sont concernées, selon EDF, qui précise qu' »un risque d’endommagement des matériels importants pour la sûreté situés à proximité existe, plus spécifiquement sur le circuit permettant de faire des prélèvements sur le circuit primaire ».

Ces protections sont des matelas en plomb et servent à « protéger les personnels réalisant des interventions » à proximité du circuit primaire, précise EDF dans sa note.

D’abord détecté en 2012 dans 7 centrales (Chinon, Cruas, Dampierre, Gravelines, Le Blayais, Saint-Laurent et Tricastin), cet « écart de conformité », concerne finalement 44 réacteurs, indique la note datée du 19 mai.

Il a été signalé à l’Autorité de sureté nucléaire (ASN) et EDF a déclaré le 15 mai cet évènement comme « évènement significatif sûreté » dit « générique » de niveau 1 sur les 7 que compte l’échelle internationale INES.

EDF précise que « cet évènement n’a aucune conséquence réelle sur la sûreté et le fonctionnement des installations » et que « l’ensemble des écarts sera résorbé d’ici la fin de l’année 2015 ».

Pour l’association Sortir du nucléaire, « cette anomalie ne saurait être minimisée » car selon elle, « le bon fonctionnement de la centrale nucléaire risquerait d’être perturbé » en cas de chute de ces matériaux de protection.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

La Suède poursuit l’UE qu’elle juge soumise au lobby des chimistes

« Tout cela est dû au lobby européen des chimistes qui a exercé des pressions sur différents commissaires », a affirmé à l’AFP la ministre de l’Environnement, Lena Ek.

La Commission devait définir en décembre au plus tard des critères sur l’identification de ces éléments, présents dans des milliers de produits antibactériens, que l’on retrouve dans des vêtements, des chaussures ou encore des produits d’hygiène.

Ces produits sont soupçonnés de perturber le système endocrinien et de provoquer cancers, malformations congénitales et retards de développement chez les enfants.

Ils « sont en train de devenir un gros problème. Dans certains endroits en Suède on voit des poissons hermaphrodites. Il existe des études scientifiques concernant leur impact sur la fertilité des jeunes filles et garçons, et d’autres effets graves », a ajouté Mme Ek.

La Suède et le Danemark avaient déjà insisté auprès de Bruxelles pour hâter ce travail, en vain, tout comme des groupes de défense de l’environnement ou des consommateurs, ainsi que des scientifiques.

« Ce qui me met le plus en colère, c’est qu’en faisant cela ils font courir un risque aux gens et en particulier aux enfants […] La Commission nous empêche d’améliorer les choses », a estimé la ministre.

Interrogé par l’AFP, Joe Hennon, porte-parole du commissaire à l’Environnement Janez Potocnik, a répondu que les retards se justifiaient par « la complexité du problème, l’évolution de la science et les points de vue divergents entre scientifiques et entre parties prenantes ».

« Nous prenons la question très au sérieux et faisons de notre mieux pour la régler », a-t-il insisté, rappelant les mesures de santé publique provisoires mises en place par l’UE.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Les abeilles meurent dans toute l’Europe

Chacun des 17 pays européens a suivi quelques centaines de ruches, selon un protocole reprenant les lignes directrices émises par le laboratoire Anses de Sophia Antipolis. Au total, ce sont 31 832 colonies provenant de 3 284 ruchers qui ont été suivies entre l’automne 2012 et l’été 2013. L’objectif de ce programme de surveillance était de relever les taux de mortalités des colonies d’abeille et la prévalence des principales maladies infectieuses et parasitaires en hiver et en saison des colonies d’abeilles dans l’ensemble des pays participants. Les scientifiques disposent désormais de chiffres fiables représentatifs de la situation obtenus pour la première fois à l’aide d’un protocole harmonisé à l’échelle européenne.

Les résultats sont importants pour mieux comprendre le déclin des abeilles: les taux de mortalité hivernaux, basés sur des mesures avant et après l’hiver 2012-2013, varient considérablement. Ils s’échelonnent suivant les pays de 3,5 % à 33,6 %. Les taux de mortalité des colonies pendant la saison apicole sont  quant à eux plus faibles et sont compris entre 0,3 % et 13,6 %.

Des différences géographiques importantes

Le taux de mortalité hivernale considéré comme acceptable et normal par la communauté scientifique en Europe est de 10 %. Il a été déterminé par des études scientifiques publiées sur le sujet. Les résultats montrent que ce taux est largement dépassé dans les pays du Nord de l’Europe, pays connaissant la plus forte mortalité des abeilles en hiver. La mortalité hivernale est particulièrement importante au Danemark (20,2 %), en Finlande (23,3%), en Estonie (23,4 %), en Suède (28,7 %), au Royaume-Uni (28,8 %) et en Belgique (33,6 %).

A l’opposé, les pertes hivernales sont les plus faibles dans les pays du Sud de l’Europe : en Grèce, en Hongrie, en Italie, en Lituanie, en Slovaquie et en Espagne, les pertes sont inférieures à 10 % et donc acceptables. Une zone de transition, avec des taux  de mortalité variant de 13,6 à 15,3 % se dessine. Elle comprend la Lettonie, la Pologne, la France, l’Allemagne et le Portugal. 

Néanmoins, durant la saison apicole le tableau devient beaucoup plus flou, avec des mortalités très différentes : 2,4 % en Norvège, 9,7 % au Royaume-Uni, 2,3 % en Italie et 6,8 % en Espagne. Alors que l’ensemble des pays présente un taux de mortalité inférieur à 10 %, la France remporte la triste palme d’or avec son taux de 13,6 % ! Notons que pour la mortalité des colonies au cours de la saison, il n’existe pas de taux considéré comme acceptable par les scientifiques.

En additionnant la mortalité hivernale à la mortalité de la saison apicole, c’est la Belgique qui arrive en tête de ce lugubre classement, avec un taux de mortalité de 42,5 %. Viennent ensuite le Royaume-Uni (38,5 %), la Suède (31,1 %), la Finlande (29,8 %) et la France (27,7 %). Ainsi, chaque année, près d’une abeille domestique sur trois mourra dans les ruches de ces pays.

Les principales maladies suivies

Le projet a également étudié la prévalence des principales maladies infectieuses et parasitaires des abeilles. Les principales maladies des abeilles ont été diagnostiquées dans l’ensemble des ruches à chaque visite. La prévalence clinique de la varroase (due au parasite Varroa destructor), de la loque américaine, de la loque européenne, de la nosémose et de la paralysie chronique a été enregistrée. 

La varroase a été observée dans presque tous les pays. Les résultats montrent que la loque américaine et la loque européenne ont peu d’impact sur la mortalité. Par ailleurs, seuls quelques cas cliniques de paralysie due au virus de la paralysie chronique ont été observés dans 5 des 17 Etats membres et seul un pays avait un taux atteignant plus de 2 % des abeilles. Enfin, le taux de colonies touchées par la nosémose a dépassé 10 % dans 4 Etats membres.

Au cours du projet, les analyses montrent l’absence de deux arthropodes exotiques, responsables de maladies en dehors de l’Europe: le petit coléoptère de la ruche (Aethina tumida) et l’acarien parasite de la ruche (Tropilaelaps).

Quelles sont les causes de mortalité ?

« Cette étude ne permet pas d’établir de lien de causalité direct entre des agents pathogènes et des mortalités observées, mais elle identifie des facteurs de risque », précise Magali Chabert, chef d’unité Pathologie de l’Abeille du laboratoire de l’Anses de Sophia-Antipolis et Responsable du laboratoire de référence de l’Union européenne pour  la santé des abeilles. Une analyse statistique sera réalisée pour dégager ces facteurs de risques. « Les maladies font évidemment partie de ces facteurs mais elles ne sont pas seules. Les conditions environnementales parmi lesquelles l’exposition à des facteurs toxiques (les pesticides, médicaments, …), les conditions climatiques mais aussi la gestion apicole des colonies et les ressources alimentaires sont autant d’autres facteurs de risques. » ajoute la chercheuse. 

De nombreuses autres informations ont été collectées durant le projet, notamment concernant l’environnement des ruchers, les traitements vétérinaires et les actions conduites par l’apiculteur pour maintenir son cheptel (achat ou production de reines, d’essaims …). L’analyse de ces données sera conduite et permettra de suivre les actions sur le cheptel et la force des colonies notamment leur évolution entre la visite de printemps et celle d’été. Cela permettra d’estimer, au-delà de la mortalité, l’affaiblissement potentiel des colonies.

Et les pesticides dans tout ça ?

Suite à la publication de ce rapport, de nombreuses voix se sont élevées pour dénoncer l’absence de suivi des pesticides et notamment le fait que le mot « pesticide » est totalement absent du rapport. Nous ne saurons pas, par exemple, quels résidus de pesticides se trouvaient dans les colonies les plus touchées. Et ce, alors même que plusieurs études montrent les effets délétères de plusieurs pesticides la santé des abeilles.

« La question de la détection des pesticides a été envisagée par l’Anses et la Commission européenne. Mais il a été jugé techniquement difficile et coûteux d’intégrer ce paramètre dans le premier volet de cette étude, les méthodes de recherche des résidus de pesticides n’étant pas harmonisées au sein des pays européens participant à l’étude. Ce paramètre sera donc traité dans un autre volet du programme, lorsqu’une une méthode harmonisée aura pu être développée et mise en place dans tous les pays participants. », affirme Magali Chabert.

Le Laboratoire de référence de l’Union européenne de l’Anses-Sophia-Antipolis développe  d’ailleurs actuellement des méthodes de détection et de quantification des pesticides dans les différentes matrices apicoles (abeilles, larves, pain d’abeille, pollen, miel). « Une fois développées et validées, ces méthodes seront transférables aux autres laboratoires européens », insiste Magali Chabert.

Parallèlement à cette étude, l’Anses s’est auto-saisie de la problématique des abeilles et a chargé un groupe de travail d’établir un bilan sanitaire du rucher en France métropolitaine. L’agence sanitaire veut notamment dresser un état des connaissances sur les « co-expositions des abeilles aux facteurs de stress » : agents pathogènes, produits phytosanitaires, médicaments vétérinaires, etc.), et aux possibles conséquences de ces co-expositions et interactions sur la santé des abeilles. De plus, des résultats sur la prévalence des agents biologiques et des pesticides issues de  plusieurs études françaises, ainsi que leur lien éventuel avec des mortalités d’abeilles, seront analysés. Les conclusions seront rendues d’ici la fin de l’année 2014.

Par Matthieu Combe, journaliste scientifique

Et aussi dans l’actualité :

Consommation en carburants des voitures neuves commercialisées aux Etats-Unis ou en Suisse

Par exemple, les véhicules légers américains dont chaque conducteur parcourt 12500 miles par an, ont consommé en 2012 l’équivalent de 8,4 millions de barils de carburants par jour, soit plus de 9% des consommations mondiales de produits pétroliers.

L’université du Michigan, par l’intermédiaire de son Transportation Research Institute (UMTRI) publie chaque mois le résultat du calcul des consommations nominales moyennes des véhicules neufs commercialisés aux Etats-Unis, exprimées en autonomie, selon l’unité courante américaine que sont les miles par gallon. C’est son « eco-driving » index.

Pour une meilleure compréhension, j’ai transformé ces miles/gallon en litres aux cent kilomètres par la formule : 

Consommation = 235/ Autonomie

La consommation étant exprimée en litres aux cent kilomètres et l’autonomie en miles/gallon.

La consommation moyenne nominale des véhicules neufs commercialisés aux Etats-Unis était de 11,7 litres/100 en Octobre 2007, elle était de 9,3 litres/100 en Avril 2014. Ceci correspond à une réduction moyenne des consommations de 3,2% par an en moyenne (Figure ci-dessous).

Il est intéressant de comparer cette performance à celle des consommations moyennes des véhicules commercialisés en Suisse dont l’Office Fédéral de l’Energie tient à jour des statistiques annuelles de ce type. Les consommations des véhicules neufs helvétiques  ressortaient en moyenne en 2012 à 6,21 litres/100, contre 6,39 litres en 2011, soit une baisse de 2,8%.

Une voiture neuve américaine consomme en moyenne 50% de plus de carburant en volume qu’une voiture Suisse.

Les données détaillées de l’OFEN montrent que ces consommations sont étroitement liées à la masse du véhicule et à la cylindrée du moteur. 

Cette comparaison, entre deux populations aux niveaux de vie voisins,  illustre combien peuvent être lents les progrès d’amélioration d’efficacité énergétique des processus dans le domaine grand-public. La tradition américaine de possession d’un véhicule imposant et lourd, réputé plus sûr et affichant ouvertement le profil statutaire de son propriétaire, prime sur la réduction des consommations en carburant du véhicule. Le véhicule « smart & green » n’a pas encore une image assez virile.

Ce résultat doit nous convaincre qu’un éventuel doublement ou un triplement des prix des carburants aux Etats-Unis, durant la décennie à venir, sera économiquement supportable. Il suffira pour cela, que chaque citoyen américain réduise le gâchis énergétique en place pour accroitre l’efficacité des processus, à qualité de prestations conservées.

L’exemple de sobriété des véhicules modernes hybrides nous montre que les technologies existent et que c’est la grille de choix du consommateur qu’il reste à faire évoluer avec l’aide bienvenue des constructeurs et de leurs puissantes équipes de marketing.

Par Raymond Bonnaterre

Puissance électrique intermittente éolienne et photovoltaïque en Allemagne : Simulation simplifiée d’écrêtage des pointes

Les deux générations combinées conduisent à un profil de puissance à très forte variabilité (FIG.I) qui est amorti aujourd’hui lors des pointes de génération par de très fortes exportations (7,5 TWh au mois de Janvier 2014) vers les pays limitrophes ou directement connectés (Autriche, Suisse, Tchéquie, Danemark,  France, Lituanie, Pays-Bas, Pologne, Suède) et, lors des creux de production et de fortes demandes, par de copieuses importations d’énergie (3,2 TWh au mois de Janvier 2014).

L’Allemagne, bien implantée au sein du réseau électrique ouest-européen, met à profit sa situation géographique pour réguler ses excès de productions électriques intermittentes et subventionnées par le consommateur allemand. Les centrales nucléaires locales (12GW), les centrales au lignite (21,5 GW), celles au charbon (27,8 GW) ou au gaz naturel (27,9 GW) en concurrence directe avec les générations solaires (37,5 GW) et éoliennes (33,3 GW) prioritaires à l’emploi, assurent la stabilité du réseau allemand de façon, bien souvent, économiquement non satisfaisante, situation qui conduit certains à envisager de subventionner à leur tour ces centrales en secours (« subventions de capacités »).

Les acteurs allemands concernés (producteurs, régulateurs, consommateurs) mesurent les conséquences, pas toujours agréables, de règles de gestion du réseau anticoncurrentielles et subventionnées.

Les dispositifs de pompage-turbinage allemands qui pourraient efficacement réguler cette génération par écrêtage des pointes et apport de puissance à la demande présentent aujourd’hui une puissance limitée à 8,8 GW qu’il faut comparer aux puissances maximales générées qui dépassent parfois les 30 GW. Nul doute que les stations de pompage helvètes ou autrichiennes (3,1GW) doivent profiter de l’aubaine d’une puissance disponible à bon prix. Ceci justifie par exemple, la construction de la station de Nant de Drance dans le Valais pour un budget de 2 milliards de CHF, avec une puissance de pompage-turbinage de 900 MW (Ce qui conduit à mémoriser un investissement nécessaire autour de 1,8 milliard d’euros par GW). Elle sera opérationnelle en 2018 et délivrera sa pleine puissance électrique 7 à 8 heures par jour (2,5 GWh/an), aux heures de pointe. Cependant l’effondrement observé des prix de gros de l’électricité en Europe risque de refroidir nombre de projets d’investissements à venir dans ce genre de station. 

La demande de capitaux en infrastructures (réseau renforcé, stations de fortes puissances), comparée au prix de gros du MWh, nécessaire pour réguler les puissances des énergies intermittentes et assurer la pérennité de l’offre sera la principale limitation de montée en puissance de ces énergies en Europe.

Curieuse Europe, en surcapacité de production d’énergie électrique, continuant malgré-tout à investir massivement dans les énergies renouvelables subventionnées, où les prix de gros de l’électricité baissent et les prix de détail augmentent pour financer les subventions tarifaires aux énergies renouvelables de plus en plus abondantes, faisant fuir les entreprises électro-intensives utilisatrices et créant de ce fait encore plus de surcapacités. Boucle destructrice, inhérente à une règlementation qui méprise les règles élémentaires d’un marché concurrentiel.

L’utilisation prioritaire par le réseau ouest-européen, des ressources intermittentes subventionnées incite les acteurs financiers à investir sans se soucier des besoins d’un marché en déclin et met en péril les modes de générations traditionnelles d’électricité ; formes bannies et pourtant indispensables, là réside tout le paradoxe germanique de la primauté proclamée des énergies intermittentes subventionnées.

  • Figure1

Pour illustrer ces propos il est utile d’examiner les profils de puissance électrique générés en Allemagne durant le mois d’Avril, publiées quotidiennement par EEX (Fig.1).

La variabilité des puissances générées atteint les 81% (sigma/moyenne = 8,1 GW/ 10 GW) alors que celle des seules générations éoliennes dépasse les 100% (sigma/moyenne = 5GW/4,9GW). Procédé industriel diabolique dont l’écart type peut être supérieur à la moyenne.

Afin de simuler l’effet tampon de dispositifs de turbinage-pompage et en l’absence de la connaissance heure après heure des consommations allemandes, j’ai supposé un écrêtage systématique des pointes de puissance examinées ici à partir de 18 GW et une utilisation de cette énergie en stock pour combler les creux de puissance, avec pour contrainte, tenant compte de rendements de pompage et de turbinage de 95%, que le bilan énergétique en fin de mois soit nul. Il apparaît alors un minimum de puissance disponible de 5,1 GW pour une puissance installée théorique de 70 GW (Fig.2).

Bien sûr, cette simulation simplifiée d’une Allemagne isolée électriquement et disposant de puissance de pompage illimitée est assez théorique, mais je crois qu’elle donne une idée assez proche de ce qui se passerait si ce grand voisin germanique assurait lui-même la mise en stock et la régulation de ses productions anormales de puissances électriques, en investissant dans le doublement des dispositifs de pompage-turbinage. 

Bien-sûr, grâce à la solidarité du réseau électrique ouest-européen, il est pour l’Allemagne, moins onéreux aujourd’hui d’exporter ses surproductions aléatoires chez ses voisins. Ceci mériterait d’être plus souvent rappelé.

Par Raymond Bonnaterre

Un homme devient un génie des maths suite à une violente agression

Touché par le syndrome du savant, il observe des formes géométriques dans tous les objets qui l’entourent, des lignes reliées entre elles, il voit des fractales dans les écoulements d’eau ou encore des triangles dans des cercles. En plus de cette nouvelle façon de voir le monde, Jason se retrouve avec des capacités mathématiques décuplées.

Alors que s’est-il passé ? Pour tenter de comprendre comment un individu  n’ayant pas fait d’études scientifiques pouvait se retrouver avec des telles compétences, une équipe de neuroscientifiques lui a fait passer une IRM. Celle-ci a révélé que l’hémisphère gauche, celui où siègent les capacités mathématiques, était très actif. Idem pour  son cortex pariétal, partie du cerveau investie dans la gestion des informations provenant des différents sens.  Ce dont « souffre » Jason s’appelle de la synesthésie, la capacité d’associer plusieurs sens entre eux. Ce phénomène neurologique est finalement assez répandu, touchant environ 4% de la population. Mais la forme la plus commune consiste à associer les lettres et les nombres à des couleurs. En revanche, la capacité de Jason est extrêmement rare, seule une vingtaine de cas ont été recensés par la littérature scientifique. Car Jason a développé un don exceptionnel. Les mesures effectuées sur son cerveau ont aussi montré que deux autres parties du cerveau sont très actives, il s’agit du lobe temporal, mis en jeu dans le mémoire visuelle et les émotions, et le lobe frontal, gérant la planification et l’attention.

Si dans la majorité des cas une commotion cérébrale nuit à nos capacités, cette fois le coup porté à la tête de cet américain l’a doté d’un super pouvoir. Pour tenter de le contrôler, les neuroscientifiques ont stimulé de façon magnétique son cortex cérébral, ce qui a eu pour conséquence de faire varier l’importance de sa synesthésie. De telles mesures suggèrent qu’il serait possible d’activer de telles compétences pour n’importe quel individu, et qu’un génie sommeille en chacun de nous. Reste à frotter au bon endroit…

Pour en savoir plus sur l’histoire de Jason Padgett : struckbygenius.com/

Par Audrey Loubens, journaliste scientifique

Reach/CLP : toute l’actualité de mai 2014 1/2

Modification du règlement REACH

09/05/2014

Le règlement européen n°474/2014 du 8 mai 2014 modifie l’annexe XVII du règlement REACH concernant l’enregistrement, l’évaluation et l’autorisation des substances chimiques ainsi que les restrictions applicables à ces substances, en ce qui concerne le 1,4-dichlorobenzène.

 

Modèle de lettre pour la présence/absence des SVHC

12/05/2014

Deux modèles de lettres attestant de la présence ou d’absence de SVHC dans les articles sont mis à votre disposition. Les fournisseurs peuvent les compléter et les envoyer à leurs clients. Les clients peuvent également les envoyer à leurs fournisseurs pour que ces derniers s’engagent par écrit (sur la présence ou l’absence de SVHC).

 

Protocole d’entente avec l’Agence européenne des médicaments

14/05/2014

L’ECHA a signé un protocole d’entente avec l’Agence européenne des médicaments. Le protocole définit les modalités de collaboration visant à assurer la cohérence et l’uniformité des avis scientifiques des agences à travers l’échange d’information.

 

Consultation publique sur les alternatives à l’hexabromocyclododécane (HBCDD)

14/05/2014

L’ECHA a lancé une consultation publique sur les alternatives à l’hexabromocyclododécane (HBCDD). Les parties intéressées sont invitées à soumettre leurs commentaires et ce avant le 9 juillet 2014.

 

Nouvelle consultation pour éviter les tests sur les animaux

16/05/2014

L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. 45 propositions sont concernées. Les informations relatives à ces substances sont à soumettre pour le 30 juin 2014.

Par Céline GABORIAUD, Ingénieur Environnement aux Ateliers d’Orval

 

Et aussi dans les
ressources documentaires :

Royal lance un parc solaire produisant de l’électricité à prix garanti pendant 30 ans

« Nous avons là une réalisation exemplaire que je vais pouvoir généraliser à l’échelon national », a-t-elle déclaré lors d’un discours sur place en estimant que le projet permettrait à terme de produire une « électricité propre, de proximité et abordable ».

Selon la ministre, le projet Tiper-3 est « unique en France » car l’un de ses piliers est la « vente de gré à gré d’électricité solaire à un prix très compétitif et garanti sur trente ans ».

Le parc solaire, qui devrait être achevé en octobre, couvre une surface de 16 hectares, un ancien terrain militaire, et ses panneaux photovoltaïques permettront la production de 10.300 MWh/an soit la consommation électrique de quelque 2.360 foyers, hors chauffage.

A terme, il devrait s’étendre sur 30 hectares, et produire le double d’électricité, à un prix (105 euros par MWh) « inférieur au coût de la plupart des autres sources de production d’électricité renouvelable », explique la Région Poitou-Charentes dans un communiqué. Le solaire est environ à 11 centimes et le nucléaire à 10,5 le KWh, ils sont donc en parité, nous on reste à 12 centimes, mais nous n’irons pas au-delà », a expliqué à l’AFP Georges Stupar, vice-président de la région, en charge de la maîtrise de l’Energie et du Développement des énergies renouvelables. Il a rappelé que la hausse du prix de l’électricité devrait atteindre 35% d’ici à 2015 par rapport au début des années 2000.

Le projet est le fruit d’un partenariat entre la région, deux entreprises locales de distribution d’électricité et d’un producteur d’énergie solaire. Il comprend aussi une unité de méthanisation et deux parcs éoliens.

« Ce modèle est parfaitement généralisable au niveau des territoires », a déclaré la ministre en précisant qu’elle lancerait à terme, dans le cadre de la loi sur la transition énergétique, « un label de transition énergétique ».

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Développement Durable et Equation de Kaya

Le responsable « santé+sécurité+environnement » de mon employeur nous a présenté les 3 piliers du « développement durable » (Ecologique, Economique et Social) avec ce joli graphique :

J’ai trouvé très judicieux d’intégrer ainsi le développement durable aux logiques économique et sociale plutôt que de le promouvoir dans un cadre purement écologiste.

En y réfléchissant, je me demande s’il n’existe pas un parallèle avec la fameuse équation de Kaya dont j’ai déjà parlé et que je rappelle ci-dessous :

En effet, minimiser le facteur CO2/TEP représente le souci écologique de limiter la pollution. Réduire TEP/PIB est un objectif économique : rendre la production moins coûteuse en énergie. PIB/POP est lié à l’objectif social de répartir les richesses, si possible plutôt en enrichissant les pauvres que le contraire …

Reste le 4ème facteur de Kaya : la POPulation. Ne manquerait-il pas dans le joli diagramme coloré du développement durable ? A quoi ressemblerait ce diagramme si nous étions beaucoup plus ou beaucoup moins ?

Plus j’y pense plus je suis persuadé que la distance entre les 3 piliers dépend de la population : avec quelques millions d’humains, le monde serait plus facilement viable et vivable, et peut-être même plus équitable. Mais avec des milliards, existe-t-il encore une intersection entre les 3 piliers qui permette un « développement durable » ? Et les intersections « viable, vivable et équitable », à quels niveaux de population disparaissent-elles ?

En plus de nos louables efforts sur les 3 piliers, ne devrions-nous pas favoriser une importante baisse de la population mondiale (progressive, non violente et contrôlée, je le précise…) ?

Dr Goulu (blog Pourquoi Comment Combien)

Et aussi dans les
ressources documentaires :

Gaz de schiste : dédommagement de 3 millions de dollars

La famille Parr vivait tranquillement dans son ranch jusqu’au jour où des entreprises ont installé des puits pour extraire des gaz de schiste à côté de chez eux. En quelque temps, pas moins de 62 puits creusés à moins de 3 kilomètres du ranch ont vu le jour. 21 de ces puits étaient exploités par Aruba Petroleum, les autres étant la propriété de diverses entreprises.

En 2008, la mère de famille et femme de foyer, Lisa, commence à développer les premiers signes cliniques dus à une pollution de l’air par ces puits. Ce sont d’abord des saignements de nez, des maux de têtes et d’estomac, des vomissements, puis des éruptions cutanées, des vertiges et des pertes de mémoire. En 2009, son mari Bob et sa fille Emma développent les mêmes symptômes. C’est ensuite au tour des veaux de naître avec des malformations, et aux animaux domestiques de tomber malades avant de mourir. Ces phénomènes ont poussé la famille à quitter le ranch pendant plusieurs mois.

Prouver que la fracturation hydraulique est le problème

Des prélèvements d’air ont alors été réalisés sur la propriété. De nombreux composés toxiques liés à l’exploitation gazière, tels que le benzène, le toluène et le xylène, ont été décelés. La famille a alors décidé de porter plainte en septembre 2011 contre neuf sociétés exploitant des gaz de schiste dans la région. En avril 2013, les Parr ont trouvé des accords avec toutes les sociétés, à l’exception d’Aruba Petroleum.

La famille demandait à l’entreprise 8 millions de dommages et intérêts. Le 22 avril 2014, le jury de la cour de justice du comté de Dallas a finalement condamné Aruba Petroleum à leur verser 2,925 millions de dollars. Cette condamnation comprend 2 millions de dollars pour compenser les souffrances physiques endurées par les membres de la famille entre 2008 et 2011, 250 000 dollars pour celles à venir, 400 000 dollars pour les souffrances psychologiques et 275 000 dollars pour la dévaluation de la valeur de leur propriété. Cela en fait le premier jugement rendu sur la fracturation hydraulique aux Etats-Unis.

Mais la bataille judiciaire n’est pas finie : Aruba Petroleum a fait part de son intention de faire appel. Selon l’entreprise, il est impossible de prouver qu’elle est à l’origine des problèmes de la famille, vu qu’il y a plusieurs dizaines d’autres puits dans la région.

Malgré tout, cette action pourrait faire des petits. Elle montre que les entreprises gazières et pétrolières peuvent être condamnées pour pollution et intoxication. A travers le pays, plusieurs class actions pourraient éclore vu que les contestations contre la fracturation hydraulique sont nombreuses.

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Et aussi dans l’actualité :

Des astronomes réalisent une mesure de référence du taux d’expansion de l’univers

Une équipe internationale incluant des chercheurs du CEA et du CNRS vient de réaliser la mesure la plus précise à ce jour du taux de l’expansion de l’Univers. En combinant deux analyses, l’une portant sur la distribution de gaz d’hydrogène d’où découle la mesure des distances dans l’Univers jeune et l’autre comparant la répartition des quasars avec cette distribution du gaz d’hydrogène, les scientifiques ont établi que l’expansion de l’univers il y a 10,8 milliards d’années possédait un taux équivalent à celui d’aujourd’hui.

Ce résultat, qui vient d’être présenté lors de la précédente réunion de la société américaine de physique, prouve que la décélération de l’expansion de l’Univers dans sa jeunesse a été compensée par une accélération.

Les astronomes ont utilisé comme outil d’observation le baryon oscillation spectroscopic survey (BOSS), grâce auquel l’analyse de 14 000 quasars avait abouti à des cartographies 3D de l’Univers, puis celle de 48 000 quasars avait révélé l’existence d’inhomogénéités de l’Univers primordial. En considérant 140 000 quasars, les scientifiques ont franchi une étape de plus dans la connaissance de notre passé. Le principe de la mesure repose sur le fait que la lumière des quasars très éloignés est absorbée par les régions de l’Univers  les plus denses en hydrogène gazeux. L’instrument BOSS est alors capable de détecter les pics d’absorption correspondants pour déterminer la position des nuages d’hydrogène et ainsi définir une carte. En répétant cette mesure pour différents âges de l’Univers, il devient possible de calculer les taux d’expansion.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Comment infecter un ordinateur à l’aide des ondes sonores

Des chercheurs allemands ont présenté une méthode pour espionner  des ordinateurs  et récupérer des données sensibles comme des codes, mots de passe et autres informations confidentielles. L’originalité de leur méthode réside dans l’utilisation du réseau acoustique. En effet, les informations piratées sur le terminal sont envoyées via les haut-parleurs à l’aide d’ondes sonores. Ce signal est ensuite récupéré par le microphone d’un ordinateur voisin. Les données peuvent ainsi se transmettre d’ordinateur en ordinateur sans jamais utiliser le réseau ! De quoi pénétrer n’importe quel ordinateur, même s’il n’est pas connecté à internet. L’utilisation de sons situés en dehors de la gamme de fréquence audible par les hommes assure la furtivité de la méthode.

Rien d’étonnant à ce que Michael Hanspach, coauteur de l’étude, tire la sonnette d’alarme : « Le réseau acoustique utilisé comme technologie de communication furtive représente une menace considérable pour la sécurité informatique ». Pour démontrer la faisabilité d’une telle méthode d’espionnage, les chercheurs de l’Institut Frauhofer ont fabriqué un virus  spécifique, un keylogger capable d’enregistrer tous ce qui est tapé sur le clavier, qui a contaminé un ordinateur isolé de tout réseau. Une fois les données voulues récupérées, elles ont été transmises par la voie des airs à un ordinateur voisin. Ce dernier a servi d’intermédiaire en retransmettant à son tour les informations, toujours à l’aide de sons. Et ainsi de suite sur près de 20m de distance, jusqu’à atteindre un ordinateur relié à internet capable d’envoyer les informations n’importe où dans le monde. 

Publiés dans la revue Journal of Communications, cette pratique est néanmoins soumise à plusieurs contraintes. Tout d’abord, pour assurer la transmission d’un ordinateur à un autre, il faut que ceux-ci soient en vis-à-vis. Dans le cas contraire, le signal n’est pas assez performant pour survivre à des rebonds contre le mobilier, les portes ou mêmes des individus. Cela sous-entend que cette méthode ne peut être appliquée dans un open space où les bureaux sont séparés par des  cloisons. De plus, pour l’instant le taux de transfert reste bas avec 20 bits par seconde.

Néanmoins, une telle approche n’en reste pas moins une menace sérieuse. D’autant que si le virus permet de pénétrer un ordinateur, il est aussi capable d’en prendre le contrôle. Un espion malveillant serait alors en mesure d’infliger des dégâts  physiques à une installation.

Alors un conseil, n’oubliez pas d’éteindre les haut-parleurs de votre ordinateur, seule façon sûre de se prémunir de ce type d’attaque !

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Airinov, le drone au service de l’agriculture de précision

Afin d’aider les agriculteurs à traiter au mieux leurs cultures, la start-up Airinov a conçu un drone de 2 mètres d’envergure et de moins de 2kg.

En 2013, 1000 agriculteurs ont utilisé le drone sur une surface d’environ 10 000 hectares. Si pour l’instant, 10 drones font le tour des exploitations, progressivement, Airinov’ espère équiper ses clients pour ne plus avoir à se déplacer à chaque vol et gagner ainsi en puissance.

A quoi sert ce drone ?

Lancé à la main, le drone va commencer son vol automatique et est programmé pour photographier et enregistrer la lumière reflétée par le feuillage (réfléctance). Pour ce faire, il est équipé d’un capteur quadri-bandes qui mesure le pourcentage d’énergie solaire réfléchie par la culture par rapport à l’énergie solaire incidente. 

Une fois ces données enregistrées, elles sont entrées dans un modèle agronomique qui va les traduire en cartographie de besoins de la culture. Ce modèle varie en fonction de la culture. La carte est délivrée en 3 jours maximum, après analyse et vérification par un ingénieur agronome. Elle résume les mesures et constitue un véritable « scan » de l’exploitation. Elle fournit des préconisations pratiques pour traiter au mieux les cultures et éviter faire ainsi des économies d’engrais. Cela permet de répondre au mieux à la Directive Nitrates.

En 2014, le diagnostic de besoins en azote (et donc en engrais) pour les agriculteurs sur colza est proposé pour la deuxième année consécutive. Pour la première fois, le même diagnostic sera proposé sur blé dès fin mars.

Ce drone est également utilisé par les chercheurs, notamment en collaboration avec l’Inra, des coopératives et des semenciers. « Pour les chercheurs, on travaille sur plus de cultures [Colza, Blé, Orge et Maïs], avec des résultats qui ne sont pas directement exploitables par les agriculteurs : le taux de chlorophylle, la surface de feuilles, des paramètres de stress hydrique de la végétation », explique Florent Mainfroy, Président d’Airinov.

Quel avantage par rapport aux satellites ?

Les satellites ne voient pas à travers les nuages, ce qui peut empêcher certaines cartographies, lorsque les nuages sont persistants. De plus, ils font le tour de la terre et ne passent pas toujours au-dessus de la parcelle lorsque l’agriculteur en a le plus besoin. « Les avantages du drone par rapport au satellite sont que le drone vole en dessous des nuages et qu’il peut être sur la parcelle à n’importe quel moment et surtout au moment le plus propice pour l’analyse de la végétation en vue de la définition des apports azotés », confie Florent Mainfroy.

Un autre avantage notable est à noter pour les chercheurs : c’est la résolution des photos. Si la résolution des images satellites ne permet pas de différencier les pousses, le drone le permet pour les chercheurs, avec une résolution qui peut atteindre 1,5cm par pixel. Néanmoins, « pour l’agriculteur, on va travailler à une résolution de 1 m2 par pixel, c’est largement suffisant pour ses besoins », note Florent Mainfroy.

Enfin, la solution est abordable. « Le prix est de 15€ par hectare pour l’agriculteur sur le colza. On fait deux cartographies : une en décembre et une en janvier, qui vont donner une cartographie de préconisations d’engrais à apporter ». Du côté des économies réalisées, Airinov soutient un gain financier de 73 €/ha. L’agriculteur serait donc à un gain net d’environ 58 €/ha.

Et en plus, le drone peut être utilisé sur toute taille d’exploitation. « On regroupe les agriculteurs par coopératives ou par Chambres d’agriculture, donc la taille d’exploitation importe peu. On regroupe les parcelles proches ensemble pour les analyser dans un même vol », précise Florent Mainfroy.

Comme toute bonne start-up, Airinov mise sur l’innovation. Si l’optimisation des traitements phytosanitaires est encore en recherche et développement, l’entreprise espère pouvoir proposer rapidement une offre commerciale pour optimiser également l’épandage de ces produits.

Par Matthieu Combe, journaliste scientifique

Nouvelle croissance du marché automobile européen en avril

Le mois dernier, 1.089.226 voitures neuves ont été immatriculées dans l’Union européenne (hors Malte), ce qui reste un niveau bas, a précisé l’ACEA dans un communiqué.

Les constructeurs français profitent de cette situation. Les ventes du groupe Renault ont bondi de 16,1%, grâce à sa marque à bas coûts Dacia, tandis que celles de PSA Peugeot Citroën sont en hausse de 5,2%.

Certains groupes connaissent des taux de croissance supérieurs à 20%, à l’image de Mazda (+30,1%), Jaguar Land Rover (+27,7%) ou Nissan (+22,1%). Les ventes de Ford sont en hausse de 9,1%, tandis que celles du groupe Toyota (+4,8%) ou du groupe Volkswagen (+4,4%) sont dans la moyenne européenne.

Le groupe GM en revanche voit ses ventes baisser de 5,2%, essentiellement du fait de sa marque Chevrolet (-75,3%), qu’il retire du marché européen. L’objectif, avait-il annoncé en décembre, est de supprimer la concurrence entre ses marques, et donc de laisser le champ libre en Europe à ses filiales allemande Opel et britannique Vauxhall.

La croissance des ventes du mois d’avril, qui restent à un niveau faible, s’explique par la bonne tenue des principaux marchés européens. Seule l’Allemagne connaît un recul de ses immatriculations neuves (-3,6%).

La croissance est de 1,9% en Italie, de 5,8% en France, de 8,2% au Royaume-Uni, et jusqu’à 28,7% en Espagne, grâce à la prime à la casse.

Sur les quatre premiers mois de l’année, par rapport aux quatre premiers mois de 2013, la hausse des ventes de voitures dans l’Union Européenne est de 7,4%.

Là aussi, les principaux marchés tirent cette croissance: +2,9% en Allemagne, +3,7% en France, +5% en Italie, +12,5% au Royaume-Uni et +16,2% en Espagne.

Après une mauvaise année 2013, le marché automobile européen est reparti, s’accordent à dire constructeurs. Mais depuis 2007, il a fondu de plus de 3 millions de voitures. Par conséquent, les marques devraient continuer à faire des promotions très importantes pour pousser leurs ventes.

jul/fga/php/fw

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Les contrecoups de l’affaire Snowden sur le cloud !

Les contrecoups de l’affaire Snowden : Comment le scandale sur la NSA a modifié l’attitude des décideurs envers le cloud !

Cette enquête est basée sur une étude menée auprès de 1 000 décideurs informatiques d’Allemagne, de France, d’Hong Kong,du Royaume-Uni et des Etats-Unis. L’étude met en évidence neuf contrecoups suite à ces révélations, qui obligent les entreprises à sérieusement revoir leurs positions vis-à-vis du cloud.

  • Près de neuf dixième (88 pour cent) des décideurs IT sont en train de changer leur comportement d’achat de solutions de cloud, avec plus d’un tiers (38%) qui modifient les modalités de passation de marchés auprès des fournisseurs de cloud,

  • Seulement 5%des répondants pensent que la localisation du stockage des données n’est pas cruciale,

  • Plus de 30% (31%) des décideurs IT ont déplacé leurs données à des endroits, où l’entreprise sait qu’elles seront en sécurité,

  • Autour de 60% (62 %) de ceux qui n’utilisent pas encore actuellement des solutions cloud affirment que ces révélations les ont empêchés de migrer leur informatique vers le cloud, 

  • Les décideurs IT préfèrent maintenant acheter une solution cloud qui se trouve dans leur propre région, en particulier les européens (97 %) et les américains (92 %),

  • Un peu plus de la moitié (52 %) exigent plus de leurs fournisseurs de cloud,

  • Une personne sur six (16%) annule – ou retarde – la signature des contrats avec des fournisseurs de cloud computing,

  • Plus des quatre cinquièmes (84 %) estiment qu’ils ont besoin de plus de formation sur les lois de protection des données,

  • 82 % de ces décideurs IT approuvent les propositions d’Angela Merkel pour séparer les réseaux de données.

Len Padilla , vice-président de la stratégie Produit chez NTT Communications en Europe , a déclaré: « Nos résultats montrent que les allégations d’Edward Snowden concernant la cyber-surveillance de la NSA ont entaîné de la part des décideurs IT envers le cloud computing un durcissement des politiques d’achat , une hausse des exigences envers les fournisseurs potentiels et une attention très forte porté sur les lieux de stockage des données ».

Len Padilla ajoute : « Malgré ce scandale « NSA »et malgré les menaces de sécurité, les dirigeants d’entreprises doivent se rappeler que les plates-formes de cloud computing aident les entreprises à devenir plus agiles et à favoriser  l’innovation technologique, même dans les sociétés les plus réticentes au risque. Les DSI travaillent dur pour trouver des moyens de conserver ces avantages tout en protégeant les entreprises contre tous les types d’attaques et de risques. Il y a lieu de rester optimiste car l’industrie IT va résoudre ces problèmes en permettant la localisation des données et le cryptage des données. »

Pour télécharger le rapport « Les contrecoups de l’affaire Snowden ou comment le scandale de la NSA a changé l’approche des décideurs envers le cloud », allez sur le site : http://bit.ly/ContrecoupsaffaireSnowden.

Cliquez sur cette infographie des répercussions de l’affaire Snowden pour la visualiser en grand format :

Méthodologie :
NTT Communications a commandité une enquête auprès de la société d’études de marché Vanson Bourne pour mener à bien une vaste enquête auprès de 1000 décideurs informatiques d’Allemagne ( 200 répondants ), de France (200 répondants) ,d’Hong Kong ( 100 répondants ), des Etats-Unis (300 répondants ) et du Royaume-Uni ( 200 répondants ) en Février et Mars 2014. Soixante pour cent des répondants ont été choisis parmi les entreprises de 1000 salariés et plus, représentant les secteurs de la finance, de la distribution, de l’industrie, des services, de l’informatique et de l’énergie.

À propos de NTT Communications :
NTT Communications fournit des services de conseils, d’architecture , de sécurité et de cloud computing pour optimiser l’ informatique et les télécoms des environnements d’entreprises.

Les gens aimables et consciencieux se soumettent plus facilement à l’autorité (étude)

Les auteurs de l’étude ont interrogé 66 participants du « jeu de la mort », un documentaire diffusé en mars 2010 sur France 2, qui avait transposé à l’écran l’expérience menée à Yale par Stanley Milgram en 1963 pour sonder les mécanismes de la soumission aux nazis.

Pour ce documentaire, les volontaires avaient été recrutés pour, leur a-t-on dit, tourner l’émission test d’un nouveau divertissement, « La Zone Xtrême ».

Le but était de soumettre un candidat – en fait un comédien – à une série de questions. La punition se traduisait par une décharge électrique allant crescendo, de 20 à… 460 volts. A certains moments, le public, également recruté sans avoir été prévenu de l’expérience, exhorte au « châtiment » pour inciter le questionneur à administrer une décharge.

Le faux candidat, invisible aux yeux des questionneurs, exprime sa douleur au fur et à mesure de la gradation du dispositif, d’abord par des cris modérés, puis des hurlements, des supplications demandant de cesser le jeu, avant de ne plus donner signe de vie.

80% des questionneurs sont allés jusqu’au bout du jeu malgré la violence des décharges électriques qu’on leur demandait d’infliger au cobaye. Seulement 16 des candidats ont abandonné le jeu.

Huit mois plus tard, les participants ont été soumis par téléphone à un test de personnalité validé scientifiquement au niveau international, et présenté comme un sondage d’opinion sans rapport avec l’expérience. Leur orientation politique a aussi été mesurée à cette occasion.

Les chercheurs ont montré que l’intensité des décharges électriques administrées par les participants ne variait pas significativement en fonction de leur religion, leur classe sociale, leur sexe ou leur âge.

En revanche, les résultats de l’étude ont montré que les participants administrant les chocs électriques les plus élevés étaient aussi ceux qui étaient considérés comme les plus consciencieux et les plus aimables dans le test de personnalité.

A l’inverse, les participants se définissant comme le plus à gauche sur l’échiquier politique étaient aussi ceux qui avaient tendance à davantage contrecarrer l’ordre en infligeant des décharges électriques moins fortes.

« Le paradoxe, c’est que ce sont des traits de personnalité considérés comme socialement désirables qui conduisent à des comportements socialement indésirables dans les circonstances de l’expérience », a commenté Laurent Bègue, professeur de psychologie sociale à l’Université Pierre-Mendès-France de Grenoble et coauteur de l’étude.

Par ailleurs, l’étude tend à montrer qu’au-delà d’un environnement particulièrement contraignant, les traits de personnalité des participants ont eux aussi de l’importance dans la soumission à l’autorité.

L’étude doit être publiée dans la revue scientifique américaine Journal of Personality.

L’étude en intégralité (en anglais):

http://www.researchgate.net/publication/262077560_Personality_Predicts_Obedience_in_a_Milgram_Paradigm

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »