Production de graphène : une drôle de tambouille

Ultra-résistant, ultra-stable et ultra-conducteur, le graphène est considéré comme le matériau du futur pour l’électronique et les nanotechnologies.

Il est présent à l’état naturel dans le graphite qui compose les mines de crayon.

Le problème est que sa production à l’échelle industrielle est à la fois difficile et coûteuse.

En 2004, Andre Geim, récompensé en 2010 par le Prix Nobel de Physique avec le Russo-Britannique Konstantin Novoselov, avait réussi à l’isoler en pelant des cristaux de graphite à l’aide d’un simple ruban adhésif.

Les méthodes de fabrication développées depuis butent soit sur la quantité, soit sur la qualité.

Une équipe de chercheurs explique dimanche dans la revue Nature Materials comment ils ont obtenu des feuilles de graphène en mélangeant à grande vitesse de la poudre de graphite avec un « liquide exfoliant « .

L’équipe a utilisé pour cette opération un équipement industriel, mais a répété l’expérience avec succès avec un simple mixeur de cuisine vendu dans le commerce.

Les chercheurs ont obtenu des feuilles de graphène d’environ un nanomètre (un milliardième de mètre) d’épaisseur et 100 nanomètres de longueur , en suspension dans un liquide. La structure bidimensionnelle du graphène n’a pas été endommagée par l’opération, assurent-ils.

Le liquide ainsi obtenu peut être étalé sur des surfaces comme de la peinture, ou mélangé avec des matières plastiques pour produire des matériaux composites renforcés.

« Nous avons développé une nouvelle façon de faire des feuilles de graphène », a déclaré à l’AFP un des auteurs de l’étude, Jonathan Coleman (Trinity College, Dublin). Cette méthode « peut être adaptée à l’échelle industrielle », a-t-il souligné.

« La production en laboratoire se mesure en grammes. Mais, à plus grande échelle, ce sont des tonnes qui seront produites », a ajouté le chercheur.

Le graphène possède des propriétés multiples, notamment électriques (il est plus conducteur que le cuivre) et mécaniques (il est 100 à 300 fois plus résistant à la rupture que l’acier). Il est de plus imperméable à tous les gaz.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Un pas vers la reconstruction dans la zone de Fukushima avec une ferme solaire

Pour le moment, les ex-habitants de Tomioka ne peuvent revenir que ponctuellement la journée afin d’effectuer diverses tâches de rangement, nettoyage et décontamination.

Y dormir la nuit est encore interdit, mais les autorités de l’agglomération espèrent que cela ne durera pas et surtout que les entreprises et particuliers reviendront un jour.

La nouvelle ferme solaire sera construite par le groupe nippon Sharp sur un terrain de 3,1 hectares. Elle délivrera une puissance de 2,19 mégawatts et pourra en théorie alimenter 600 foyers.

C’est la première fois que Sharp installera une telle centrale solaire dans la région du Tohoku (nord-est) ravagée par le tsunami du 11 mars 2011 à l’origine de la catastrophe atomique de Fukushima.

Une zone de vingt kilomètres de rayon et plusieurs autres villes ont été évacuées et le séjour prolongé y reste interdit, hormis dans une petite portion de la ville de Tamura.

Traumatisée par le drame du 11 mars 2011, la préfecture de Fukushima ne veut plus entendre parler d’énergie nucléaire et veut être un fer de lance dans l’exploitation de ressources propres et durables, dont les énergies éolienne et solaire.

La première phase de la construction d’un important parc d’éoliennes au large de cette province a été inaugurée en novembre dernier par la mise en marche d’une première éolienne géante de 106 mètres de haut (par rapport au niveau de la mer) et 80 mètres de diamètre, d’une puissance de 2 mégawatts. Elle doit permettre de vérifier les conditions de fonctionnement avant l’installation de plusieurs autres.

kap/emb

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Des hydroliennes pour protéger l’humanité des effets de la montée des mers

Mark Jacobson de l’université Stanford et initiateur de « The Solution Project » a montré dans un article publié dans la revue scientifique Nature que les parcs éoliens offshore peuvent protéger les littoraux contre les tempêtes. Mais la solution proposée par l’ingénieur français François Lempérière a un potentiel de protection encore plus élevé.

Selon les scientifiques du programme Ice2sea (2013), le niveau marin pourrait monter entre 16,5 et 69 centimètres d’ici 2100. Les Hollandais ont montré qu’il est possible de protéger de grands espaces littoraux grâce aux polders. Une montée du niveau marin de 100 centimètres aurait par exemple en Pologne, du fait des terres immergées, un impact évalué par les études gouvernementales du pays à entre 28 et 46 milliards de dollars. Une protection complète contre ce risque coûtera 6,1 milliards, c’est à dire bien moins cher.

Des champs d’hydroliennes boostées par des digues concentratrices (« Tidal Gardens »)

Mais il existe peut-être une façon encore plus pertinente de protéger ces espaces littoraux. François Lempérière, lauréat de l’Académie des Sciences et ancien président de comités au sein de la Commission Internationale des Grands Barrages, propose de construire de longues digues en mer, digues qui laissent passer l’eau au niveau de chenaux équipés de cohortes d’hydroliennes.

Le courant de marée est concentré par ce dispositif baptisé « Tidal Garden » (jardin d’hydroliennes, jardin marémoteur) et passe à une vitesse augmentée et relativement constante à travers les chenaux. Les digues agissent comme des concentrateurs d’énergie marémotrice, de la même manière que les miroirs concentrent les rayons du soleil dans le cas du solaire à concentration thermodynamique (CSP) ou photovoltaïque (CPV). Et de la même manière que le courant de marée est amplifié dans la Manche du fait de la présence de « digues naturelles », les littoraux français et britanniques et une profondeur réduite.

Une vitesse augmentée signifie une plus grande quantité d’électricité délivrée pour chaque hydrolienne installée. Cela a  une conséquence positive sur le prix de revient du kWh hydrolien délivré, y compris en intégrant le coût des digues. Il est alors possible d’installer des hydroliennes sur des sites à amplitude de marée (marnage) relativement faible ceci tout en ayant une équation économique intéressante. Grâce à cette approche concentratrice, à la capture de l’énergie des courants grâce aux digues qui fonctionnent comme de grands filets de pêche, le potentiel mondial de l’hydrolien est alors très sérieusement augmenté.

Sur chaque cycle de marée de 12 heures (6 heures montante et 6 heures descendante) seules les deux heures de l’étale de pleine mer et  de basse mer ont une production nulle. Cela signifie que l’on peut produire de l’électricité hydrolienne 16 heures sur 24.

Un impact écologique, économique et social positif

Contrairement aux digues complètement hermétiques elles sont ici ouvertes par les chenaux. Les oscillations naturelles du niveau marin sont préservées dans le bassin intérieur d’où un impact limité sur la biodiversité littorale. Et les poissons et autres espèces marines peuvent passer sans problème au niveau des chenaux. Cela devrait faciliter l’acceptation des projets par les groupes de protection de l’environnement.

Les jardins d’hydroliennes et leurs digues contribuent à créer un nouveau biotope favorable à l’installation de nombreuses espèces qui aiment vivre fixées à des surfaces dures. C’est l’effet récif bien connu des pêcheurs. Les digues peuvent d’ailleurs servir de voies d’accès pour différentes activités exploitant les ressources biologiques marines: mytiliculture, ostéïculture, pisciculture etc. L’effet protecteur des digues permet aux investisseurs de ne plus craindre l’effet destructeur des tempêtes. Les pêcheurs à la ligne amateurs pourraient profiter des chenaux concentrateurs pour optimiser leurs prises.

La houle est complètement cassée par le dispositif, ce qui limite la dégradation des dunes littorales et la submersion de terres cultivées ou habitées lors de tempêtes. L’intérêt est ainsi à la fois écologique, économique et social. Notamment lors des fortes tempêtes comme celle que l’Europe de l’ouest a connu durant l’hiver 2013-2014. C’est en effet lors de la conjonction d’une pleine mer à fort coefficient de marée et d’une tempête que les littoraux sont particulièrement vulnérables. Le reste du temps il n’y a pas de problème.

Autant d’atouts pour augmenter la qualité de vie sur les communes littorales, ceci tout en produisant de l’électricité 100% renouvelable et entièrement prévisible.

Côté mer, les digues peuvent servir pour fixer des dispositifs de capture de l’énergie des vagues (houlomotrice), du type SeaRaser.

Environ 25000 MWh par kilomètre-carré et par an

« On peut produire 10 à 40 GWh/an/km² de réservoir suivant l’amplitude H de la marée locale » estime François Lempérière, qui a participé à la construction d’une vingtaine de grands barrages, canaux et endiguements, notamment sur le Rhône, le Rhin, le Nil et le Zambèze et à la conception d’une dizaine de ces ouvrages.

L’ingénieur hydroélectricien propose en prime d’intégrer des stations de pompage turbinage (STEP marines) au dispositif, afin de délivrer de l’électricité à la demande et de contribuer à aider les gestionnaires des réseaux électriques. Il s’agit de piéger l’eau à marée haute, et de la laisser filer quand c’est utile pour produire de l’électricité par l’intermédiaire de turbines.

Cerise sur le gâteau renouvelable, on peut installer des panneaux solaires et des éoliennes à axe vertical ou classiques sur les digues, ainsi que des parcours pour des promenades à pied, à vélo ou à cheval, avec une magnifique vue sur le littoral. Des ports de plaisance pourrait également se greffer aux digues en place, ainsi que des bars en terrasses.  Les communes concernées pourraient alors tirer profit toute l’année d’un tourisme écologique et des groupes scolaires curieux de découvrir cette pépinière écotechnologique marine.

Le gouvernement Belge étudie actuellement les STEP marines. Une STEP en bordure de falaise et à eau de mer existe déjà sur l’île japonaise d’Okinawa et EDF SEI (Système Electriques Insulaires) va en construire une en Guadeloupe.

La Région Nord-Pas-De-Calais s’y intéresse également, collectivité qui a fait appel pour son plan de transition énergétique au prospectiviste américain Jeremy Rifkin auteur du livre « La troisième révolution industrielle ».

François Lempérière estime que les jardins d’hydroliennes ont le potentiel de répondre à 20% de la demande électrique française.

Par Olivier Daniélo

Découverte de la première exoplanète habitable de même taille que la Terre (Nasa)

Cette découverte conforte la probabilité de trouver des planètes soeurs de la Terre dans notre galaxie, la Voie Lactée, estiment ces scientifiques dirigés par une astronome de la Nasa et dont les travaux sont publiés dans la revue américaine Science jeudi.

« C’est la première exoplanète de la taille de la Terre trouvée dans la zone habitable d’une autre étoile », souligne Elisa Quintana, une astronome du SETI Institute au centre de recherche Ames de la Nasa, qui a mené cette recherche.

« Ce qui rend cette découverte particulièrement intéressante c’est le fait que cette planète baptisée Kepler-186f est de taille terrestre en orbite autour d’une étoile dite naine, plus petite et moins chaude que le soleil, dans la zone tempérée où l’eau peut être liquide », précise-t-elle.

Cette zone est dite habitable car la vie telle que nous la connaissons et qui dépend de la présence d’eau, a la plus grande probabilité de s’y développer, relèvent ces chercheurs.

Pour Fred Adams, professeur de physique et d’astronomie à l’Université du Michigan, « il s’agit d’un pas important dans la quête pour découvrir une exoplanète identique à la Terre », l’objectif de la mission Kepler.

Sur les près de 1.800 exoplanètes détectées depuis les 20 dernières années, une vingtaine sont en orbite autour de leur étoile dans la zone habitable. Mais ces planètes sont nettement plus grandes que la Terre et de ce fait il est difficile, vu leur taille, de déterminer si elles sont gazeuses ou rocheuses.

Kepler-186f se trouve dans un système stellaire situé à 490 années lumière du Soleil (une année lumière équivaut à 9.460 milliards de kilomètres) et comptant cinq planètes toutes de taille proche de celle de la Terre. Mais seule Kepler-186 est dans la zone habitable, les autres étant trop proches de l’étoile.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Devenez expert en analyse des métaux !

Entretien avec Mireille Defranceschi, spécialiste en physique des matériaux et co-animatrice du cycle de formation Analyse des métaux chez Techniques de l’Ingénieur.

essaiTechniques de l’Ingénieur : Mireille Defranceschi, vous co-animez chez Techniques de l’Ingénieur un nouveau cycle de formation intitulé Analyse des métaux. A quelles problématiques répond-il ?

Mireille Defranceschi : A celles du technicien qui, dans son laboratoire, veut savoir pourquoi tel ou tel métal va avoir telle ou telle bonne ou mauvaise propriété dans un contexte donné, et quelle est la bonne méthode pour faire cette analyse.

Prenons un exemple : en cas de défaillance sur une chaîne de production, quand il est impossible de stopper le cycle, il va falloir mettre en place un contrôle non destructif pour trouver l’origine du problème. Mais aucune mesure ne donnant tous les résultats, il va falloir choisir parmi de nombreuses méthodes, différents niveaux d’analyse, différents angles d’attaque, et différentes technologies.

Méthodes macro ou microscopique, analyses physiques, composition chimique, voire évolution chimique : ce cycle s’adresse au technicien cherchant à maîtriser le choix des méthodes d’analyse en cas de problème.

Techniques de l’Ingénieur : Quel est le contenu de ce cycle ?

Mireille Defranceschi : On aborde bien sûr les bases théoriques, ainsi que les bases pratiques pour savoir régler un appareil, en s’appropriant les notions générales et les paramètres communs. L’objectif est de donner les connaissances indépendantes du modèle d’appareil, mais qui font toute la méthode d’analyse. Par exemple, dans un canon à électrons, les grandeurs physiques ne changent pas selon la marque, elles sont liées à la physique même.

Le cycle comprend trois modules de deux jours et un module de trois jours, recouvrant chacun une thématique  (ndlr : Analyses de la structure et des textures, Analyses de la structure chimique, Analyses de surface et d’interface, Essais mécaniques – Certification du cycle), partant des bases vers l’application et la méthode.

Chaque session se termine par un contrôle des connaissances acquises durant le module. En cas de difficultés, un débriefing peut être mis en place, et le participant peut contacter le formateur par téléphone d’ici à la session suivante, et bénéficie ainsi d’un accompagnement personnalisé.

Techniques de l’Ingénieur : L’accent est donc mis sur l’individualisation de la formation ?MINOLTA DIGITAL CAMERA

Mireille Defranceschi : Oui, une grosse part de la formation est individualisée : si un problème donné est identifié par un des participants dans son travail, il sera s’il le souhaite abordé comme cas concret durant la formation. Le fait d’être limité à dix participants permet cet accompagnement personnalisé, mais aussi et surtout un regard croisé des participants sur leurs problèmes respectifs, ce qui est toujours très constructif.

Les participants sont ainsi essentiellement formés sur des travaux pratiques, avec en intersession, une conférence en ligne sur le contrôle non-destructif, en plus du suivi personnalisé par téléphone, et sur la base du pack Contrôle non destructif de Techniques de l’Ingénieur, qui est bien sûr fourni aux participants.

Cela permet d’avoir une vision d’ensemble, permettant d’être force de proposition une fois rentré dans sa société, sur les méthodes d’analyse à privilégier. Sans devenir expert de telle ou telle machine, le participant deviendra expert de l’utilisation de la méthode.

D’où la certification Techniques de l’Ingénieur, qui est une gageure : Techniques de l’Ingénieur engage sa responsabilité quant aux capacités acquises par le participant, ce certificat n’est donc pas un certificat de présence. C’est aussi pour cela que chaque session se termine par un contrôle de connaissances : pour s’assurer que chaque participant ait bien acquis les compétences enseignées, et obtienne son certificat en fin de cycle.

Des drones solaires pour Google

Le Wall Street Journal a rapporté les propos d’un porte-parole de Google expliquant que cette acquisition permettra à des millions de personnes d’avoir accès à internet et que le système sera aussi très utile en cas de catastrophe naturelle du type séismes, incendies, sécheresses ou inondations.

Google n’a pas révélé le montant de l’acquisition, qui s’inscrit dans le cadre du « Google Loon project ». L’annonce de Google a eu lieu juste après que Facebook ait annoncé son intention d’expérimenter des drones de la start-up anglaise Ascenta, des satellites et des lasers pour délivrer ses services aux populations les plus pauvres de la planète.

Le drone de Titan Aerospace vole à 20 kilomètres au dessus du niveau marin. Captant l’énergie solaire à très haute altitude au dessus des nuages, et stockant l’énergie pour la nuit, ce robot à la fois High-tech et écologique peut rester en l’air pendant 5 ans sans avoir besoin de se poser. Concrétisant ainsi la prophétie de Bertrand Piccard avec son avion Solar Impulse avec lequel ce psychothérapeute suisse va faire le tour du monde sans brûler une seule goutte de carburant d’origine fossile.

Google finance également des équipes de R&D (http://www.google.com/makani ) dans le domaine de l’éolien d’altitude, dont le gisement est colossal au niveau du jet stream (courant jet en français) qui souffle entre 7 et 16 kilomètres d’altitude à une vitesse moyenne et constante de 90 km/h.

Par Olivier Danielo

Le Big Bang se serait réellement produit

Après la découverte du Boson de Higgs, l’observation d’ondes gravitationnelles émoustille la communauté scientifique.  Des scientifiques américains ont scruté le rayonnement fossile de leur observatoire BICEP2 basé au pôle-sud. Braqué sur une infime portion du ciel, le télescope a permis d’analyser le fond diffus cosmologique et d’y déceler cette mythique première lumière,  caractéristique d’un Big Bang.  C’est la première fois qu’une observation directe d’une onde gravitationnelle est réalisée.  Ces oscillations de la courbure de l’espace-temps ont été théorisées par Albert Einstein et la relativité générale d’après laquelle une première lumière a été émise par l’univers 380 000 ans après le Big Bang. L’empreinte gravitationnelle mesurée serait la preuve de cette lumière originelle, elle-même preuve de la véracité de la théorie du Big Bang.

Si cette observation venait à être confirmée par d’autres équipes, cela validerait définitivement l’existence d’un Big Bang. Mais surtout, cette lumière pourrait détenir les clés de ce qui reste aujourd’hui un problème majeur : l’incompatibilité de deux modèles, celui de la quantique, qui régit l’infiniment petit, et celui de la relativité générale, qui régit l’infiniment grand. En effet, une onde gravitationnelle se décrit selon les lois de la physique classique, alors que l’inflation de l’univers dépend de la physique quantique.

L’observation des ondes gravitationnelles est donc doublement importante, la preuve du Big Bang et l’espoir de rendre compatibles la quantique et la relativité générale. De quoi prétendre au prix Nobel.

Par Audrey Loubens, journaliste scientifique

Le point sur les ondes gravitationnelles

On avait déjà des preuves du Big Bang d’une part, et de l’existence des ondes gravitationnelles d’autre part.

L’observatoire BICEP2 n’a pas détecté directement des ondes gravitationnelles, mais un de leurs effets

Il manque un mot clé dans ces titres : « inflation ». Ce que les récents résultats confirment, c’est la théorie de l’inflation cosmique.

« Découverte des Premières Ondes Gravitationnelles de l’Univers et Confirmation de l’Inflation » est un bon titre, et c’est celui d’un excellent article d’un autre c@fetier des sciences sur les résultats récents de l’expérience BICEP2 . Il y en a d’autres [3,4,*]. Ici je vais juste essayer de faire le point sur les ondes gravitationnelles.

Avec la relativité générale Albert Einstein explique la gravité par un champ gravitationnel déformé par les masses. Lorsque des masses sont accélérées, les déformations du champ se propagent, en principe à la vitesse de la lumière, un peu comme l’accélération de charges électriques produit des ondes électromagnétiques.

Comme la gravitation est l’ interaction élémentaire de très loin la plus faible, cent milliards de milliards de milliards de milliards de fois plus faible que l’électromagnétisme, il faut des masses énormes soumises à des accélérations fantastiques pour que les ondes gravitationnelles émises aient une puissance suffisante pour provoquer un effet mesurable, et des instruments de mesure incroyablement sensibles pour les détecter.

Les premières tentatives de détection directe datent de la fin des années 1960 avec la barre de Weber. L’idée est d’isoler une grosse barre de métal de toute vibration extérieure et de détecter une subite résonance de la barre au passage d’une onde gravitationnelle. L’amplitude des vibrations attendues étant d’environ 10-16 m si une supernova avait la bonne idée d’exploser pas trop loin, aucune des expériences basées sur ce principe (ALLEGRO, AURIGA, miniGRAIL, ou encore EXPLORER) n’a fourni de résultat concluant.

Pas mieux pour l’instant pour l’interféromètre VIRGO, LIGO, GEO 600 et les autres détecteurs géants basés sur l’interférométrie. L’idée est de comparer les distances parcourues par deux faisceaux lasers sur plusieurs kilomètres dans des directions distinctes. Quand une onde gravitationnelle passe par là, elle modifie la distance parcourue par l’un des lasers d’un pouillème de nanomètre par rapport à l’autre.

Ne reste plus alors qu’à isoler cette mesure des variations thermiques, des ondes sismiques, de celles produites par les collaborateurs et les scarabées du désert qui crapahutent à côté du détecteur… Comme on n’y est pas parvenu, l’idée est désormais de faire tout ça dans l’espace avec le  projet NGO, anciennement LISA. Lancement prévu en 2020.

Pourtant, bien qu’on n’en ait jamais détecté directement, on sait que les ondes gravitationnelles existent depuis 1974. Cette année là, les astronomes Hulse et Taylor découvrent PSR B1913+16, un « pulsar binaire ». C’est encore un de ces objets astronomiques qui nous ramènent à notre juste dimension : pas grand chose. Il s’agit de deux étoiles à neutrons de 1.4 masses solaires environ chacune qui se tournent autour en à peu près 7h45, à une distance variant entre 1 et 5 fois le rayon du Soleil, donc astronomiquement très très très proches.

D’après Einstein, un tel système devrait émettre des ondes gravitationnelles très puissantes « en spirale » comme dans le dessin ci-contre. Si c’est bien le cas, le signal radio émis par le pulsar avec une régularité extrême doit arriver un peu décalé dans le temps suivant la configuration des ondes gravitationnelles. Hulse et Taylor vérifient : gagné ! En 1993, ils reçoivent le prix Nobel de physique pour la première détection d’ondes gravitationnelles.

De plus, selon Albert les ondes gravitationnelles emportent de l’énergie au loin, donc un astre en orbite perd peu à peu de l’énergie et « tombe » en orbitant plus vite, donc en émettant encore plus d’ondes gravitationnelles, ce qui le ralentit encore plus jusqu’à la catastrophe. Et c’est exactement ce que l’on mesure depuis 40 ans sur PSR B1913+16.

Le même phénomène a été mesuré sur mon quasar préféré, OJ 287 et d »autres objets astronomiques spectaculaires.

Les résultats récents de BICEP2 constituent également une détection indirecte des ondes gravitationnelles par une voie totalement différente des précédentes. Je n’ai absolument pas compris pourquoi, mais la théorie prédit que les ondes gravitationnelles produites lors de l’inflation cosmique ont du causer une polarisation « mode B » du fond diffus cosmologique, et c’est cette polarisation qui a été mise en évidence. Re-prix Nobel en perspective.

En attendant des mesures directes qui confirmeront que ces ondes se propagent à la vitesse de la lumière, voire de détecter enfin le graviton, ces détections indirectes montrent que les ondes gravitationnelles existent, et qu’ Albert a toujours raison un siècle après s’être ennuyé au bureau des brevets de Berne.

Source : le blog du Dr Goulu

Ecotaxe réservée aux camions étrangers: « bonne idée » mais qui se heurtera aux règles européennes

« Faire payer les camions étrangers, c’est une bonne idée. C’est justement un des objectifs de l’écotaxe », a souligné Mme Kosciusko-Morizet sur RTL.

« Aujourd’hui, les camions étrangers ne paient rien quand ils ne passent pas par l’autoroute. Vous pouvez avoir un camion étranger qui traverse la France et qui ne paie rien, même pas la taxe sur l’essence », a-t-elle rappelé.

Mais « il y a aussi des règles européennes. On ne peut pas, pour le même service ou pour le même usage de la route, faire payer différemment. Sur le principe, ça a l’air d’une bonne idée mais vous ne pouvez pas faire n’importe quoi en la matière », a développé NKM.

La ministre de l’Ecologie « Ségolène Royal fera étudier des propositions alternatives si elle veut mais elle se rendra vite compte de la complexité à la fois technique et juridique du problème », a prédit la députée de l’Essonne et présidente du groupe UMP au Conseil de Paris.

Mercredi après-midi, lors d’une audition au Sénat, Nathalie Kosciusko-Morizet, a rejeté encore plus clairement cette idée. « Je ne pense pas que que soit acceptable d’avoir une vignette seulement pour les étrangers, je pense qu’il faut aussi une vignette pour les Français », a-t-elle dit.

Mme Royal a évoqué mardi deux pistes envisagées pour remplacer le dispositif controversé de l’écotaxe qui permettraient de cibler uniquement les camions étrangers circulant en France. L’une consisterait à forcer les camions étrangers à emprunter le réseau autoroutier à péage « plutôt qu’encombrer les routes ». Autre piste à l’étude, mise en oeuvre selon elle en Suisse: créer une vignette payée par les camions étrangers à la frontière. En fait la redevance helvétique est acquittée par tous les poids lourds, qu’ils soient immatriculés en Suisse ou à l’étranger.

« Je reste persuadée que l’écotaxe est une bonne formule. On a besoin d’un milliard d’euros par an » pour « réhabiliter les routes, pour financer toutes les alternatives à la route », a insisté Mme Kosciusko-Morizet. « Sinon on le trouvera dans la poche du contribuable, comme le fait François Hollande depuis qu’il est au pouvoir. »

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Ces start-up françaises qui innovent pour dépolluer l’air intérieur

Ouvrir les fenêtres, acheter des plantes vertes, privilégier les produits nettoyants bio, autant d’habitudes qui aident à assainir l’air que l’on respire à l’intérieur des bâtiments. Quand on sait que chaque année se sont «  4,3 millions de personnes qui décèdent prématurément de maladies imputables à la pollution de l’air intérieur des habitations » d’après l’Organisation mondiale de la santé, on comprend le regain d’intérêt pour ces nouvelles solutions. D’où l’émergence de nouvelles techniques high-tech, d’une efficacité redoutable.

Air Serenity, à base de plasma froid

Soutenu par l’Ademe, cette entreprise créée en 2012 propose un système d’assainissement  de l’air en s’attaquant aux polluants chimiques et biologiques. Leur technologie repose sur l’utilisation d’un plasma froid, source d’espèces qui vont détruire par oxydation les polluants fixés sur des matériaux minéraux. La particularité de ce purificateur d’air réside dans le fait que ses cartouches d’air éliminent en un seul passage les polluants. Le procédé, développé en partenariat avec l’Ecole polytechnique a été breveté. Les cartouches disposent en plus de  capteurs permettant, via une application, de consulter la qualité de l’air sur son Smartphone.

Beewair, pour lutter contre les mauvaises odeurs

Le système développé par Beewair vise à décontaminer mais aussi à supprimer les odeurs incommodantes. Baptisé DBD-Lyse, la technique utilisée consiste à découper les molécules odorantes dans une chambre de traitement puis de minéraliser les résidus. N’en ressort plus que de l’air dans son état pré-pollution, c’est-à-dire débarrassé des mauvaises odeurs en plus des polluants. Médaille d’or au concours Lépine 2013, le procédé Beewair a déjà séduit ALSTOM.

Partnering Robotics, un robot purificateur autonome

Cette  approche repose sur Diya One, un robot à la forme cylindrique, pas plus grand qu’une poubelle, capable de se déplacer seul. La solution de purification de l’air co-développée avec le Centre scientifique et technique du bâtiment est intégrée à Diya One. L’originalité repose sur l’interaction permise avec ce petit robot capable, grâce à son cerveau artificiel, de navigation autonome et d’apprentissage. Un écran tactile permet de communiquer simplement avec lui. Diya One devrait être commercialisé en 2015, à destination des professionnels, mais les particuliers pourront louer ses services.

Onip, une peinture anti-formaldéhyde

Grâce à une résine active intégrée à la peinture, les murs servent de capteur et de destructeurs de molécules de formaldéhyde. La peinture agit au bout de quelques heures, réduisant le taux de formaldéhydes de 40% à 60% en 24h. Sa gamme Label’Onip Clean’R , lancée en avril 2013, a été certifiée Ecolabel Européen.

Duralex, une peinture anti-onde

La pollution ne se limite pas aux COV, virus, mauvaises odeurs et autres, cela concerne aussi les ondes au sujet desquelles l’inquiétude monte. Duralex a donc créé une gamme dédiée, la peinture DX Electro BF capable de capter les ondes basses fréquences (câbles électriques, luminaires…)  ou encore la DX Electro HF contre les hyperfréquences (antennes relai, Wifi, Smartphone…)

Par Audrey Loubens, journaliste scientifique

     

Et aussi dans les
ressources documentaires :

Google déçoit au premier trimestre, malgré un bénéfice net en hausse de 32%

Selon des résultats publiés mercredi, le bénéfice par action hors éléments exceptionnels, qui sert de référence à Wall Street, est ressorti à 6,27 dollars, en-deçà des 6,40 dollars attendus en moyenne par les analystes.

Le chiffre d’affaires a progressé de 19% à 15,42 milliards de dollars, mais c’est là aussi un peu en-dessous du consensus (15,52 milliards).

La sanction a été immédiate à la Bourse de New York: dans les échanges électroniques suivant la clôture de la séance officielle, l’action Google perdait 5,69% à 524,85 dollars vers 20H25 GMT.

Parmi les indicateurs clés surveillés par le marché, le nombre de clics sur des publicités publiées sur ses sites a progressé de 26%. C’est quand les internautes cliquent sur ces publicités que le groupe est payé par les annonceurs.

La progression est toutefois un peu décevante, puisque les analystes espéraient en moyenne une hausse de 29%.

Le prix moyen payé pour chaque clic continue en outre de baisser, de 9% sur un an et de 1% sur un trimestre.

Les analystes voient dans cette érosion, qui dure depuis plusieurs trimestres, une conséquence de l’essor des connexions à internet depuis un smartphone. Les campagnes destinées aux petits écrans mobiles sont en effet généralement payées moins cher par les annonceurs.

Le directeur général Larry Page, cité dans le communiqué, s’est malgré tout félicité de « beaucoup d’améliorations de produits, spécialement dans le mobile ».

Il se dit aussi « très enthousiaste sur les progrès des activités émergentes » de son groupe.

Google a finalement décidé de revendre le fabricant de téléphones portables Motorola au groupe chinois Lenovo, mais continue d’explorer d’autres créneaux d’activité au-delà de son coeur de métier, la recherche et la publicité sur internet.

Ses lunettes interactives Google Glass, qui ont été pour la première fois et pour une journée mardi accessibles à l’achat par le grand public, sont l’un des nouveaux produits les plus médiatisés. Mais Google a aussi fait récemment des acquisitions dans le domaine de la robotique, des drones ou des objets connectés.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

L’exploitation de sources d’énergie fossiles pourrait mettre à jour un cousin de la variole

Il s’agit du Pithovirus. Ce virus a été retrouvé par  les chercheurs du Centre d’information génomique et structurale de Marseille (CNRS). C’est en  analysant une couche de permafrost, cette couche imperméable et gelée en permanence, extraite à trente mètres de profondeur au nord-est de la Sibérie que l’équipe marseillaise à découvert ce virus toujours vivant malgré son âge canonique ! 

Pendant plusieurs dizaines de milliers d’année, ce virus a hiberné dans la glace, attendant sagement d’être libéré et de trouver un hôte. Heureusement, le Pithovirus n’a pas pour cibles l’homme mais les amibes. Mais cette découverte rappelle que des  virus que l’on croyait disparus, ou tout simplement des virus inconnus aujourd’hui peuvent subsister dans les profondeurs glacées de certaines régions. 

La fonte des glaces ou l’exploitation de sources d’énergie fossiles pourrait mettre à jour certains congénères du Pithovirus capables d’infecter l’être humain. Le Pithovirus présente d’ailleurs quelques ressemblances avec le virus de la variole, ayant lui-même sévi en Sibérie. Il n’est donc pas exclu que la variole existe cachée au sein du permafrost, prête à se réactiver au premier carottage ! «En creusant pour trouver du pétrole ou du gaz, des hommes pourront bien involontairement entrer en contact avec des microbes. Même s’ils ne sont que quelques-uns dans une zone désertique, ils pourront être contaminés et surtout devenir des vecteurs » alertent les chercheurs. Si cela devait arriver, les évènements pourraient s’enchainer de façon dramatique, notre système immunitaire n’étant pas prêt à se défendre.

Les grands groupes pétroliers et gaziers sont prévenus, l’exploitation des sous-sols gelés comme l’Antarctique requiert certaines précautions…

Par Audrey Loubens, journaliste scientifique
     

Et aussi dans les
ressources documentaires :

Le Japon post-Fukushima dépend à plus de 92% des énergies fossiles

La part cumulée du pétrole, du charbon et du gaz naturel n’a jamais été aussi élevée depuis 1977, selon les données publiées par le ministère du Commerce et de l’Industrie (Meti).

Cette dépendance accrue résulte de l’arrêt progressif de l’ensemble des réacteurs de l’archipel à la suite de la catastrophe atomique de Fukushima provoquée par le tsunami du 11 mars 2011.

Auparavant, l’énergie nucléaire représentait environ 10% de l’énergie primaire (et était à l’origine d’environ un quart de l’électricité produite), mais en 2012 cette part était réduite à 0,6% et à néant actuellement.

A l’inverse, la part cumulée des énergies fossiles, que le Japon importe, est passée de 83% juste avant le désastre de Fukushima à environ 92,5% en 2012-2013.

Ce n’est plus très loin du niveau record de 94,4% atteint au début des années 1970, au moment du premier choc pétrolier, selon les données du groupe d’informations économiques Nikkei.

Depuis le drame de Fukushima, le fonctionnement à plein régime des centrales thermiques a non seulement fait exploser la facture de carburant des compagnies d’électricité et entraîné d’importants déficits commerciaux, mais aussi accentué les émissions de gaz à effet de serre.

Les énergies renouvelables (hydraulique comprise) ne totalisaient en 2012-2013 que 7,20% du panier énergétique primaire du pays.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

La bouteille qui transforme l’air en eau

C’est un petit scarabée vivant dans le désert de Namibie qui est à l’origine du concept de cette bouteille. En effet, celui-ci a la capacité de pouvoir condenser à sa surface les particules d’eau existantes dans l’air. Il suffit à l’ingénieux coléoptère de gravir une dune, d’exposer sa carapace face au vent pour récolter jusqu’à 12% de son poids en eau ! Ceci n’a rien de magique. Voilà l’explication. Sa carapace est recouverte de minuscules bosses, au sommet hydrophile. Une fois captée, la gouttelette d’eau se dépose et vient s’ajouter aux autres précédemment captées. Plus fort que le chameau, ce scarabée se promène avec ses propres récupérateurs d’eau sur le dos. 

Deckard Sorensen a l’idée de s’en inspirer pour fabriquer une bouteille capable de capter l’eau de l’atmosphère et de se remplir toute seule. Il s’associe pour fonder l’entreprise NBD Nano, le nom étant l’acronyme de Namib Beetle Desert, en hommage à l’insecte. 

NBD Nano a donc fabriqué un capteur dont la surface alterne les zones hydrophiles et hydrophobes. L’eau est attirée grâce à des nanoparticules de silicium tandis que des polymères constituent les parties hydrophobes. Pour simuler le vent, quoi de mieux qu’un mini-ventilateur ? Celui-ci permet de créer le flux d’air nécessaire pour faire se rencontrer l’eau et la surface. 

Ce système se présente sous la forme d’un bouchon qui sert à refermer une bouteille de champagne ouverte. Il se place au niveau du goulot, de façon à ce que l’eau collectée s’écoule dans la bouteille. D’ailleurs, le concept ne se limite pas aux bouteilles mais pourrait s’étendre à des surfaces plus grandes comme des toitures, des voilures ou tout dispositif permettant la collecte des gouttelettes d’eau. Le prototype est censé collecter entre 0.5 et 3 litres par heure, ce qui serait exceptionnel.

Pas encore commercialisé, ce procédé pourrait enfin donner l’accès à l’eau potable à toutes les populations, même celles habitant des zones désertiques ou frappées régulièrement par la sécheresse.

Par Audrey Loubens, journaliste scientifique

Drones : une aubaine pour le BTP

Sans aucun doute ceux-là mêmes qui n’auraient pu croire que ce même objet deviendrait le plus bel outil des entreprises de BTP.  Les entreprises de ravalement, étanchéité, couverture, ou encore de fumisterie sont quotidiennement confronté aux problèmes d’accessibilité sur les immeubles.

La visite des lieux nécessite impérativement la présence d’une personne afin de permettre l’accès aux toits et demande donc de nombreux rendez-vous si l’on considère qu’un appel d’offres pour être recevable nécessite au minimum un devis de 3 entreprises différentes. De même il était impossible de diagnostiquer correctement la pathologie de monuments historiques ou immeubles de grande hauteur en copropriété, sans avoir recours à la mise en place d’échafaudages couteux. Le drone a effacé cette problématique.

Selon Frédéric Hinderze, PDG de Harmonie SAS société leader du ravalement de façade, on peut aujourd’hui en moins de 12 minutes réaliser un diagnostic parfait d’endroits inaccessibles tels des cours aveugles, visiter le dôme d’une verrière pour en vérifier l’état ou encore localiser en quelques instants l’origine d’une fuite ou d’une stagnation d’eau sur une étanchéité.

Équipé d’un stabilisateur d’image la caméra embarquée peut soit réaliser un film en full HD, soit réaliser un reportage photo a raison de 4 photos seconde. Une fois revenue la carte mémoire est transférée dans l’ordinateur puis analysée.

La surveillance des travaux

Indépendamment des diagnostics le drone assure également un soutien précieux dans le cadre du suivi des travaux. Sur des toitures lors du rendez-vous de chantier un technicien peut effectuer un vol de drone qui en prenant de la hauteur permettra un rapport photo de l’avancement du chantier et le joindre ainsi au compte rendu. Ce document permettra ensuite de s’assurer de l’avancement des travaux et donc de l’état des paiements à effectuer. Sur des nacelles élévatrices, cela nous permettra de visualiser une zone qui semble dégradée, sans manipuler lesdites nacelles ce qui est long et fastidieux.

Le drone a l’heure du Grenelle de l’environnement

L’application la plus intéressante reste celle des diagnostics thermiques. Jusqu’aujourd’hui les diagnostics thermiques des bâtiments anciens, se révèlent  forts compliqués, très longs à effectuer donc onéreux.

Il n’est pas rare de voir une copropriété facturée de plus de 20.000 euros pour procéder à ce contrôle.  Equipé d’une caméra thermique le drone peut réaliser ce même diagnostic sans pénétrer dans les appartements. Le gain de temps est inestimable et rend ainsi sa livraison beaucoup plus rapidement.

Propos recueillis auprès de Frédéric Hinderze ( Harmonie SAS )

En savoir plus sur l’utilisation des drones dans le BTP

De l’herbicide présent dans le lait maternel

Les associations Moms Across America et Sustainable Pulse ont découvert  la présence d’un herbicide courant, le glyphosate, dans le corps de mères. Sur les dix échantillons de lait maternel testés, 3 étaient positifs à des taux non négligeables : 76 µg/L en Virginie, 99µg/L en Oregon, et 166 µg/L en Floride.  Ces taux restent en deça du niveau de contamination maximale de 700 µg/L décrété pour le glyphosate aux Etats-Unis, tout en étant près de 1000 fois supérieurs à la valeur seuil des pesticides individuels imposée par une directive européenne sur l’eau potable.

Le problème reste que l’impact du glyphosate sur la santé reste inconnu, incertitude encore plus forte concernant les conséquences sur les bébés. De plus, ces mesures contredisent le fait que cet herbicide n’est pas bioaccumulable, contrairement à ce que déclare Monsanto, leader du marché des herbicides avec le Round Up.

En 2011, une étude rapportée par l’ONG Earth Open Source réclamait une réévaluation de l’herbicide, s’appuyant notamment sur une étude concluant à un effet tératogène, c’est-à-dire entrainant des malformations fœtales.

En octobre dernier, de précédentes mesures avaient révélé la présence du glyphosate dans les urines de Français non utilisateurs d’herbicides. La question de la contamination reste ouverte, mais il semble bien que le glyphosate soit une substance qui reste dans le corps et s’y accumule, devenant potentiellement toxique.

Le dernier rapport d’évaluation du glyphosate par la Commission Européenne date de plus de dix ans, mais ne sera pas réévalué avant 2015.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

L’annuaire des nanotechnologies disponible en version numérique enrichie !

Entretien avec Céline Chartier, éditrice chez Techniques de l’Ingénieur de l’annuaire des nanotechnologies, dont elle nous présente la nouvelle version e-Pub, et les richesses qu’elle renferme.

Techniques de l’Ingénieur : Céline Chartier, vous êtes éditrice chez Techniques de l’Ingénieur. Vous venez de publier une version e-Pub de l’annuaire des nanotechnologies. Pouvez-vous nous rappeler ce qu’est ce guide ?

Weka 191Céline Chartier : L’annuaire des nanotechnologies est un annuaire qui recense l’ensemble des acteurs de la filière des nanotechnologies en France : entreprises, organismes, laboratoires et associations. Il permet de dresser un état des lieux des compétences dans ce domaine, pour lequel la France est bien positionnée par rapport à ses concurrents étrangers. L’annuaire des nanotechnologies s’adresse aux ingénieurs, chercheurs, donneurs d’ordre et investisseurs, issus de l’industrie et de la recherche académique, tous secteurs confondus. Pour la troisième édition du guide, Techniques de l’Ingénieur propose, en complément de l’ouvrage papier, une version numérique au format e-Pub, pour liseuses et tablettes électroniques.

Techniques de l’Ingénieur : Pourquoi avoir développé une version e-pub, c’est-à-dire pour lecture sur tablettes ? Quels sont les avantages pour l’abonné ?

 Céline Chartier : La version numérique intègre une carte interactive, permettant une recherche par zone géographique, ainsi qu’un moteur de recherche pour interroger l’annuaire par mot-clé, secteur industriel ou type de société. Ce format permet donc d’offrir à nos lecteurs une base de données structurée et facilement consultable, avec la possibilité de rechercher les informations suivant différents critères.

Techniques de l’Ingénieur : Peut-on espérer qu’à l’avenir, l’ensemble de la gamme éditoriale de TI sera disponible à ce format ?

Céline Chartier : Développer de nouveaux formats numériques fait partie de notre stratégie éditoriale. Nous proposons déjà une application pour tablettes où nos abonnés peuvent retrouver l’intégralité de nos articles. Nous envisageons de transposer le format de l’annuaire des nanotechnologies à d’autres thématiques, mais aussi d’enrichir notre gamme éditoriale de nouvelles applications et de livres électroniques, tels que des dictionnaires, des traducteurs techniques, des bases de données, etc.

En savoir plus

Nucléaire EPR : le quotidien finlandais de référence dénonce son coût exorbitant

L’article du journaliste Juhani Saarinen publié le 2 avril dans ce grand quotidien et intitulé « La nouvelle centrale d’Olkiluoto coûte plus cher que n’importe quel gratte-ciel de luxe dans le monde » illustre le ras-le-bol finlandais.

Le groupe Areva a dû envoyer un courrier pour tenter de justifier les coûts astronomiques de ce chantier EPR. Virginie Moucquot-Laiho, chargée de la com d’Areva en Finlande, a rappelé qu’il s’agit d’une centrale de troisième génération un peu moins dangereuse que celles des générations antérieures.

L’Helsingin Sanomat jouit d’une excellente réputation pour le sérieux de ses analyses, du niveau de celles du Frankfurter Allgemeine Zeitung ou du New York Times. Touchant 8% de la population finlandaise, et 75% de la population de la capitale Helsinki, il s’agit de l’un des journaux les plus influents au monde par habitant. « Fondée en 1889, la « Gazette d’Helsinki », aussi couramment appelée Hesari, est le premier quotidien finlandais et nordique en terme de diffusion (…). La quasi-totalité des articles de la version papier est disponible sur ce site facile d’utilisation et entièrement gratuit », résume Courrier International.

11 000 millions de dollars

Le coût de l’EPR finlandais a dépassé le seuil des 11 milliards de dollars. Le complexe hôtelier le plus luxueux du monde, le Marina Bay Sands Hotel de Singapour, coûte 5.2 milliards de dollars, soit deux fois mois cher. La comparaison avec le coût du Mausolée en marbre du Taj Mahal en Inde et de la pyramide de Kheops en Egypte n’est pas possible, écrit Helsingin Sanomat, mais peut-être qu’ils étaient meilleurs marché.

Le contrat d’origine signé en 2003 entre Teollisuuden Voima (TVO) et le consortium Areva-Siemens indiquait que le coût de la centrale serait de 3,2 milliards d’euros et que la mise en service aurait lieu en 2009. Mais la facture a flambé année après année, pour atteindre 8,5 milliards d’euros. Les différents acteurs se rejetant mutuellement la responsabilité des retards, des pénalités vont être fixées par la justice internationale.

Plus de 5 euros par Watt installé

La centrale nucléaire canadienne de Darlington, constituée de 4 réacteurs CANDU d’une puissance totale de 3524 MW et achevée en 1993 au bord du lac Ontario, avait coûté 13,8 milliards d’euros. Olkiluoto 3 a une puissance de 1600 MW, ce qui est équivalent à 5,3 euros le Watt. Contre 3,9 euros le Watt pour Darlington.

Au printemps 2014, selon AREVA, 86% de la construction est achevée. Autrement dit il manque encore 14%. De quoi donner de nouvelles frayeurs aux parties prenantes de ce gouffre financier. L’un des chantiers en cours consiste en l’installation de groupes diesel de secours afin de venir en aide à la centrale en cas de catastrophe. En avril 1991, un incendie s’est produit dans un transformateur électrique, ce qui a conduit à une défaillance du réseau électrique et à l’îlotage des réacteurs nucléaires Olkiluoto 1 et 2.

Un coût bien supérieur à celui des énergies renouvelables

EDF a demandé au gouvernement britannique un tarif d’achat de 10,9 centimes le kWh pour ses projets d’EPR Outre-Manche. Un niveau un tiers plus élevé que celui de l’éolien terrestre, une énergie inépuisable. Les EPR finlandais et français dépendent d’uranium 235 importé, dont le stock mondial est très limité, et dont l’extraction est fortement consommatrice en eau.

Avec l’ensoleillement de la région Aquitaine les grandes centrales photovoltaïques au sol sont rentables à environ 9 centimes le kWh, ne présentent aucun danger pour les populations avoisinantes et ne produisent aucun déchets radioactifs à longue durée de vie à gérer par les générations futures.

Une étude récente de l’Agence Internationale de l’Energie montre qu’intégrer de hauts niveaux d’éolien et de solaire dans un mix électrique est tout à fait possible techniquement et économiquement.

Dans un entretien à L’Usine Nouvelle Bernard Bigot, directeur du Commissariat à l’énergie atomique et aux énergies alternatives, appelle à a la construction de 35 réacteurs nucléaires EPR d’ici 2050 en France.

Martine Aubry, lors des primaires du PS pour la présidentielle de 2007, et Ségolène Royal, aujourd’hui Ministre de l’écologie du développement durable et de l’énergie ont déclaré être favorables à une sortie complète du nucléaire à cet horizon. François Hollande s’est engagé à réduire la part du nucléaire de 75% aujourd’hui à 50% en 2025, mais a refusé de se prononcer sur l’après 2025.

Par Olivier Daniélo

Être ingénieur en 2030, par Joël de Rosnay

Joël de Rosnay, Docteur ès Sciences, est Président exécutif de Biotics International et Conseiller de la Présidente d’Universcience (Cité des Sciences et de l’Industrie ; Palais de la Découverte). Ancien chercheur et enseignant au Massachusetts Institute of Technology dans le domaine de la biologie et de l’informatique, il a été successivement Attaché Scientifique auprès de l’Ambassade de France aux États-Unis et Directeur scientifique à la Société Européenne pour le Développement des Entreprises.

Il est l’auteur de nombreux ouvrages dont Les Origines de la vie (1965), Le Macroscope (1975), La Malbouffe (1979), L’Homme symbiotique (1995), La plus belle histoire du monde avec Yves Coppens, Hubert Reeves et Dominique Simonnet (1996), La révolte du Pronétariat (2005). 2020, les scénarios du futur (2007), Et l’Homme créa la vie (2010).

  • Interview de Joël de Rosnay par la rédaction du service Actualités :

A quoi ressemblera la journée type d’un ingénieur et de sa famille en 2030 ?

C’est la question à laquelle Joël de Rosnay a donné ses réponses lors de cette conférence, à voir ici en vidéo :

Production et réalisation : Bruno Decottignies

Interview : Iris Borel, Pierre Thouverez

Google achète le fabricant de drones solaires Titan Aerospace

« Nous sommes enthousiastes à l’idée d’accueillir Titan Aerospace dans la famille Google », a indiqué un porte-parole du géant internet américain dans un courriel à l’AFP.

« Il est encore tôt, mais des satellites atmosphériques pourraient aider à donner un accès internet à des millions de personnes, et à résoudre d’autres problèmes dont l’assistance en cas de catastrophes et de dommages environnementaux comme la déforestation », a souligné le porte-parole.

Les drones de Titan fonctionnent à l’énergie solaire et sont capables de se maintenir pendant cinq ans à une vingtaine de kilomètres d’altitude. Ils peuvent remplir la plupart des tâches confiées à des satellites géostationnaires, mais sont moins coûteux.

Google a déjà effectué des tests dans le passé pour un projet baptisé « Loon », où des montgolfières servent de relais pour apporter internet dans des régions en étant dépourvues.

Facebook, qui explore lui aussi des moyens nouveaux pour étendre la couverture internet dans le monde, s’était également intéressé à Titan, selon la presse.

Le réseau social a finalement annoncé fin mars la mise en place d’une équipe se consacrant à ce problème et intégrant les salariés d’une autres société, l’entreprise britannique Ascenta, spécialisée dans les avions solaires capables de parcourir de longue distance.

soe/sl/are

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Reach/CLP : toute l’actualité d’avril 2014 1/2

Substances CMR et restriction

27/03/2014

Le règlement (UE) n°317/2014 de la Commission du 27 mars 2014 modifie le règlement (REACH), en ce qui concerne l’annexe XVII (substances CMR – cancérogène, mutagène et toxique pour la reproduction).

Les déclarants doivent se préparer à commenter les projets de décisions de l’évaluation des substances 

03/04/2014

En 2013, les États membres ont évalué 47 substances enregistrées en vertu du processus d’évaluation des substances et ils ont également préparé un projet de décision en cas de demandes d’informations complémentaires nécessaires à l’évaluation de la sécurité de la substance. La date limite pour soumettre un projet de décision de l’ECHA était le 20 Mars 2014.

L’ECHA a reçu 37 projets de décision sur les substances et les déclarants doivent se préparer à transmettre leurs commentaires sur les projets de décisions qui leur sont adressées. L’ECHA prévoit d’envoyer les projets de décisions pour les déclarants visés dans la semaine 18 (28 Avril au 2 mai 2014). Comme prévu par REACH, les déclarants de ces substances auront 30 jours pour examiner et présenter leurs observations collectives ou individuelles.

Une lettre de notification contiendra la date limite de soumission des observations.

Nouvelle consultation pour éviter les tests sur les animaux

04/04/2014

L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. 30 propositions sont concernées

Les informations relatives aux substances sont à soumettre pour le 19 mai 2014.

Biocide : consultation publique pour une substitution potentielle d’une substance

11/04/2014

L’ECHA lance une consultation publique pour une substance, le 5-Chloro-2-(4-chlorophenoxy)-phenol (DCPP), dont la substitution est envisageable. Les parties intéressées peuvent faire part de leurs commentaires à l’ECHA au plus tard le 10 juin 2014.

Le Comité des produits biocides adopte ses premiers avis

14/04/2014

Le comité des produits biocides (BPC) s’est réuni du 8 au 10 Avril 2014. Les trois premiers avis adoptés étaient en rapport avec les demandes de l’industrie pour approuver des substances actives utilisées dans les produits biocides (la première substance est utilisée comme un agent de protection du bois, la seconde, un insecticide et la troisième, un produit anti-salissure).

Le Comité a également adopté deux avis par rapport aux questions de la Commission, l’un sur un liant polymère utilisé dans les peintures et l’autre sur un nanomatériau à base d’argent utilisé dans le traitement des textiles. Les avis du Comité sur l’approbation des substances actives seront envoyés à la Commission européenne afin qu’elle prenne une décision finale en ce qui concerne les demandes d’approbation.

Liste des fournisseurs de substances actives biocides

14/04/2014

L’ECHA invite les entreprises à vérifier la liste provisoire des fournisseurs de substances actives biocides. Les entreprises peuvent demander, avant le 30 Juin 2014, une modification en remplissant un formulaire disponible sur le site Web de l’ECHA.

 

Par Céline GABORIAUD, Ingénieur Environnement aux Ateliers d’Orval

Et aussi dans les
ressources documentaires :

Astuce du Web #5 : utilisez votre smartphone comme borne Wifi

Voilà les étapes à suivre (selon les modèles, les termes peuvent varier, voici les plus courants) :

  • A partir de la page d’accueil de votre téléphone, allez dans Paramètres
  • Dans la partie Sans fil et réseaux, cliquez sur Plus ou Paramètres supplémentaires
  • Choisissez Partage de connexion ou Point d’accès et modem
  • Activez/cochez Point d’accès mobile

Et voilà, votre Smartphone vous offre le Wifi. Il ne vous reste plus qu’à vous y connecter de votre ordinateur comme vous le feriez pour n’importe quel point Wifi dans un hôtel, un restaurant ou un Salon. D’ailleurs, s’il vous arrive d’être exposant dans ce type de manifestations, ne payez plus pour le Wifi, utilisez votre Smartphone. 

Par Audrey Loubens, journaliste scientifique
 

Limiter le réchauffement du climat: réactions au rapport du Giec

Réduire les émissions de gaz à effet de serre de 40 à 70% d’ici 2050 sera une nécessité, estime le Giec, ce qui implique notamment de réorienter massivement les investissements dans l’énergie pour se détourner des énergies fossiles les plus émettrices de CO2 comme le charbon et le pétrole.

– John Kerry, secrétaire d’Etat américain: « Ce rapport est très clair sur le fait que nous sommes face à une question de volonté mondiale et non de capacité » pour agir contre le réchauffement climatique, le diplomate estimant que ce document « met en lumière les technologies déjà disponibles dans l’énergie pour réduire de manière substantielle les émissions globales ». « Ces technologies peuvent réduire la pollution due au carbone tout en étant une chance pour la croissance », selon lui.

– Connie Hedegaard, commissaire européenne au Climat: « Le rapport du Giec est clair: il n’y a pas de plan B. Il n’y a qu’un plan A, celui d’une action collective pour réduire les émissions dès maintenant ». « La question maintenant est la suivante: quand est-ce que vous, les grands émetteurs, allez faire de même? Plus vous tarderez, plus cela coûtera cher, plus ce sera difficile à faire », a-t-elle lancé notamment à l’adresse des Etats-Unis et de la Chine, les deux plus gros émetteurs.

– Christina Figueres, responsable climat à l’ONU: le rapport montre que « le monde peut encore combattre le changement climatique mais à la condition que les nations soient collectivement plus ambitieuses pour arriver à un monde avec un solde d’émissions neutre au cours de la 2e partie du 21e siècle ». « Le défi consiste à augmenter la vitesse et l’ampleur des actions » et à Paris en 2015 (lors de la conférence de l’ONU sur le climat) « à élaborer un nouvel accord sur le changement climatique » de nature à inverser la courbe des émissions « dès que possible ».

– Samantha Smith, responsable climat et énergie au WWF International: « Si nous agissons maintenant, les coûts représenteront une petite fraction de l’économie mondiale. Ceux qui disent que c’est trop difficile et trop cher ont tort », car « sans action immédiate, les coûts vont s’accroître, tout comme les impacts ». Pour la responsable, « la priorité est de réorienter les flux d’investissement » vers les énergies renouvelables et l’efficacité énergétique.

– Li Shuo, responsable climat et énergie Greenpeace Chine: « La seule réponse rationnelle à ce rapport est de commencer à se détourner immédiatement des énergies fossiles » et « plus on attend, plus le changement climatique va nous coûter ». La Chine, 1er émetteur de gaz à effet de serre, « a plus que tout autre pays, le potentiel pour devenir un acteur du changement dans la lutte climatique », selon le militant.

– Nicholas Stern, ancien vice-président de la Banque mondiale et auteur du 1er rapport en 2006 sur les conséquences économiques du changement climatique: « La situation est plus mauvaise aujourd’hui qu’il y a sept ans, lors de la dernière évaluation du Giec (…) car les émissions annuelles ont continué à croître, faisant augmenter les concentrations de gaz à effet de serre dans l’atmosphère ». Selon l’économiste, il faut « donner un prix fort au carbone, investir beaucoup plus dans les technologies pour réduire les émissions, dont le stockage de l’électricité, les renouvelables, le nucléaire, la capture et le stockage du CO2 ».

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Nucléaire: le patron du CEA suggère de construire 35 réacteurs d’ici à 2050

Dans un entretien à l’Usine Nouvelle, le responsable de l’établissement public de recherche nucléaire juge qu’il faut anticiper la fin de vie des 58 réacteurs nucléaires existants en construisant environ un réacteur par an.

« On ne peut en effet pas estimer que la durée de vie des centrales actuellement en fonctionnement excédera les 55 ou 60 ans. A l’horizon 2050-2055, toutes les centrales qui existent aujourd’hui auront été arrêtées », a-t-il fait valoir.

« Il faut donc construire avant de fermer, d’autant plus qu’entre le lancement d’une centrale et sa connexion au réseau, huit à dix ans s’écoulent », selon M. Bigot.

Le patron du CEA ne dit pas de quelle puissance seraient les réacteurs construits. Mais sur la base du réacteur EPR d’Areva, d’une puissance de 1.650 mégawatts, sa proposition signifie la construction de 57,7 gigawatts de capacités d’électricité nucléaire, soit pratiquement autant que le parc actuel (63,1 gigawatts).

« Aujourd’hui, une planification raisonnable au rythme d’une centrale par an serait plus pertinente », contrairement au rythme de 3 ou 4 réacteurs par an lors de la construction du parc actuel (entre 1973 et 1990), selon M. Bigot.

« L’enjeu, c’est d’avoir une politique énergétique non pas pour les cinq ans qui viennent mais pour les cinquante ans qui viennent », a-t-il plaidé.

La question du nucléaire sera un des grands enjeux de la loi sur la transition énergétique, qui doit étendre à l’Etat le pouvoir de fermer un réacteur pour des motifs de politique énergétique.

L’objectif de François Hollande de ramener de 75 à 50% la part de l’électricité d’origine nucléaire d’ici à 2025 a de nouveau été confirmé cette semaine, mais sa mise en oeuvre reste encore très floue.

La seule fermeture annoncée est celle de la centrale de Fessenheim, la plus ancienne en service en France, qui compte deux réacteurs de 900 mégawatts chacun, et l’inconnue demeure sur l’origine des 50% d’électricité non nucléaire.

Les autres objectifs gouvernementaux sont la baisse de 40% des émissions de CO2 et de 30% de la consommation d’hydrocarbures d’ici 2030, ainsi que la division par deux de la consommation d’énergie d’ici 2050.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Le GIEC a des difficultés à réaliser une analyse coût-bénéfice rationnelle

Le GIEC est organisé en trois groupes de travail. Le Groupe I synthétise la littérature scientifique concernant les bases physiques du changement climatique de telle façon que la synthèse cadre avec la politique climatique fixée par l’ONU. Son rapport a été publié en 2013. Le Groupe II  étudie les impacts, la vulnérabilité et l’adaptation au changement climatique. Son rapport a été publié en mars 2014. Enfin le Groupe III a pour mission de dresser un panorama des différents outils permettant d’atténuer (mitigation) le changement climatique. Son rapport sera publié le 13 avril 2014.

Les USA ont demandé au groupe III qu’il présente ses chiffres de manière standard. Au lieu de se référer au PIB le GIEC parle de « consommation », sans définir de manière précise ce mot. 

Les représentants officiels de la Suisse ont déclaré que « la question centrale », pour les acteurs politiques, les législateurs et les investisseurs, était de comparer les coûts et les bénéfices des différents leviers disponibles  pour contenir les émissions de gaz à effet de serre. La réponse du président du GIEC, Rajendra Pachauri a été pour le moins évasive : « La valeur monétaire n’est qu’une petite partie. Quid des pertes de vies, des pertes de services écologiques ? ». De beaux sentiments. Mais à quand un peu de pragmatisme ? 

Les auteurs du rapport déclarent ne pas donner de ligne directrice économique dans la mesure où il est difficile de donner une valeur sur le risque d’une fonte plus rapide de la calotte glaciaire du Groenland qui fera augmenter le niveau des mers, sur l’arrêt du Gulf Stream ou sur un assèchement soudain de la forêt tropicale amazonienne. 

Non, le Gulf Stream ne va pas s’arrêter et le ciel ne va pas nous tomber sur la tête

Le rapport du groupe I du GIEC indique pourtant clairement que ces risques sont extrêmement faibles. « Il est extrêmement improbable que l’AMOC (Atlantic Meridional Overturning, courant majeur lié à la circulation thermohaline et dont le Gulf-Stream est une branche) subira une transition rapide (Confiance élevée) » a écrit le groupe 1. « Il est exceptionnellement improbable qu’aussi bien les calottes glaciaires du Groenland et de l’Antarctique Ouest subiront une désintégration complète (Confiance élevée) ».

Et il y a une  « faible confiance dans les projections des variations de la fréquence et la durée des méga-sécheresses. Faible confiance dans les projections d’un effondrement de la circulation des moussons. Faible confiance dans les projections qui prévoient un effondrement de grandes zones des forêts tropicales. Faible confiance dans les projections qui prévoient un effondrement de grandes zones des forêts boréales. » Pourquoi le rapport du groupe III ne se base-t-il pas sur ces conclusions du groupe I ?

Pour l’intellectuel danois Bjorn Lomborg, directeur du Copenhaguen Consensus Center, certains calculs frisent l’absurde. Par exemple, pour la Pologne, une hausse d’un mètre du niveau océanique aurait un impact évalué à entre 28 et 46 milliards de dollars. Mais les études gouvernementales polonaises montrent qu’une protection complète contre cette montée du niveau marin coûterait moins de 6,1 milliards de dollars.

Et avec une montée de 30 centimètres (soit 50% de plus qu’au cours du XXème siècle), le coût de la protection complète serait de 2,3 milliards. « La Pologne va-t-elle dépenser entre 2 et 6 milliards de dollars pour sauver entre 28 et 46 milliards de dollars ? » demande avec ironie Bjorn Lomborg dans le journal Herald Sun australien. « Bien sûr que oui. Ils s’adapteront comme l’humanité l’a toujours fait au cours de l’histoire. Cela ne veut pas dire qu’il n’y a pas de problème. La montée du niveau marin causera des problèmes, mais cela coûtera entre 2 et 6 milliards, et non pas 48 milliards ».

Entre 0.2 et 2% du PIB mondial

Le rapport du groupe II du GIEC publié le mois dernier indiquait qu’un réchauffement hypothétique de 2,5°C réduirait a terme le PIB mondial de 0,2 à 2,0% par an. Le taux de croissance annuel du PIB mondial sera d’environ 3,7% en 2014. Il était de 7,7% en Chine en 2013 et de 7% en Afrique de l’ouest (Cédéao).

« L’OCDE estime que 82% de la croissance mondiale aura lieu dans les pays « pauvres » du monde entre 2013 et 2030 » souligne Roger Pielke Jr, professeur de sciences environnementales à l’université du Colorado, dans une tribune publiée dans l’Earth Island Journal où il analyse la doctrine de la décroissance. « Seulement 18% de la croissance mondiale aura lieu aux USA, en Europe de l’ouest, au Japon et dans quelques autres pays riches ». 

Dans son « Energy Outlook to 2035 » le groupe pétrolier BP estime que 95% de la croissance de la demande énergétique mondiale d’ici 2035 aura lieu dans les pays « pauvres ». « Etre anti-croissance aujourd’hui, implique en réalité souhaiter que les pauvres restent pauvres » conclue Roger Pielke Jr. 

 

L’énergie, clé de la croissance

Les USA considèrent le gaz de schiste comme une technologie propre étant donné qu’il permet de réduire le recours aux centrales à charbon dont l’impact sanitaire est lourd et demande que le groupe 3 du GIEC élargisse sa liste de technologies considérées comme « propres ». La France continue de faire la promotion du nucléaire, dont le bilan environnemental et sanitaire n’est pourtant pas brillant dans les études multicritères, d’où le danger de ne focaliser que sur le seul critère CO2.

La baisse considérable des coûts du solaire ces dernières années permet d’espérer que la croissance économique mondiale devienne peu à peu moins grise et plus verte. A Austin, au Texas, le kWh photovoltaïque coûte déjà moins de 5 cents. 

Olivier Daniélo 

Lire aussi :

Notre planète va-t-elle subir des changements climatiques apocalyptiques ?

Une analyse coût-bénéfice difficile pour le GIEC

Le GIEC est organisé en trois groupes de travail. Le Groupe I synthétise la littérature scientifique concernant les bases physiques de l’évolution climatique de telle façon que la synthèse cadre avec la politique climatique fixée par l’ONU. Son rapport a été publié en 2013.

Le Groupe II étudie les impacts, la vulnérabilité et l’adaptation au changement climatique. Son rapport a été publié en mars 2014. Enfin le Groupe III a pour mission de dresser un panorama des différents outils permettant d’atténue (mitigation) le réchauffement climatique. Son rapport sera publié le 13 avril 2014.

Les USA ont demandé au groupe III qu’il présente ses chiffres de manière standard. Au lieu de se référer au PIB le GIEC parle de « consommation », sans définir de manière précise ce mot.

Les représentants officiels de la Suisse ont déclaré que « la question centrale », pour les acteurs politiques, les législateurs et les investisseurs, était de comparer les coûts et les bénéfices des différents leviers disponibles pour contenir les émissions de gaz à effet de serre.

La réponse du président du GIEC, Rajendra Pachauri a été pour le moins évasive : « La valeur monétaire n’est qu’une petite partie. Quid des pertes de vies, des pertes de services écologiques ? ». De beaux sentiments. Mais à quand un peu de pragmatisme ?

Les auteurs du rapport déclarent ne pas donner de ligne directrice économique dans la mesure où il est difficile de donner une valeur sur le risque d’une fonte plus rapide de la calotte glaciaire du Groenland qui fera augmenter le niveau des mers, sur l’arrêt du Gulf Stream ou sur un assèchement soudain de la forêt tropicale amazonienne.

Non, le Gulf Stream ne va pas s’arrêter

Le rapport du groupe I du GIEC indique pourtant clairement que ces risques sont extrêmement faibles. « Il est extrêmement improbable que l’AMOC (Atlantic Meridional Overturning, courant majeur lié à la circulation thermohaline et dont le Gulf-Stream est une branche) subira une transition rapide (Confiance élevée) » a écrit le groupe 1. « Il est exceptionnellement improbable qu’aussi bien les calottes glaciaires du Groenland que de l’Antarctique Ouest subiront une désintégration complète (Confiance élevée) ».

Et il y a une « faible confiance dans les projections des variations de la fréquence et la durée des méga-sécheresses. Faible confiance dans les projections d’un effondrement de la circulation des moussons. Faible confiance dans les projections qui prévoient un effondrement de grandes zones des forêts tropicales. Faible confiance dans les projections qui prévoient un effondrement de grandes zones des forêts boréales. » Pourquoi le rapport du groupe III ne se base-t-il pas sur ces conclusions du groupe I ?

Pour l’intellectuel danois Bjorn Lomborg, directeur du Copenhaguen Consensus Center, certains calculs frisent l’absurde. Par exemple, pour la Pologne, une hausse d’un mètre du niveau océanique aurait un impact évalué à entre 28 et 46 milliards de dollars. Mais les études gouvernementales polonaises montrent qu’une protection complète contre cette montée du niveau marin coûterait moins de 6,1 milliards de dollars.

Et avec une montée de 30 centimètres (soit 50% de plus qu’au cours du XXème siècle), le coût de la protection complète serait de 2,3 milliards. « La Pologne va-t-elle dépenser entre 2 et 6 milliards de dollars pour sauver entre 28 et 46 milliards de dollars ? » demande avec ironie Bjorn Lomborg dans le journal Herald Sun australien. « Bien sûr que oui. Ils s’adapteront comme l’humanité l’a toujours fait au cours de l’histoire. Cela ne veut pas dire qu’il n’y a pas de problème. La montée du niveau marin causera des problèmes, mais cela coûtera entre 2 et 6 milliards, et non pas 46 milliards ».

Entre 0.2 et 2% du PIB mondial 

Le rapport du groupe II du GIEC publié le mois dernier indiquait qu’un réchauffement hypothétique de 2,5°C réduirait a terme le PIB mondial entre 0,2 à 2,0% par an. Le taux de croissance annuel du PIB mondial sera d’environ 3,7% en 2014. Il était de 7,7% en Chine et de 0.1% en France en 2013. Il sera de 5,2% en Afrique sub-saharienne et de 7% en Afrique de l’ouest (Cédéao) en 2014, record du continent africain. Le FMI espère que la France parviendra à un taux de 1% en 2014, et de 1,5% en 2015.

« L’OCDE estime que 82% de la croissance mondiale aura lieu dans les pays « pauvres » du monde entre 2013 et 2030 » souligne Roger Pielke Jr, professeur de sciences environnementales à l’université du Colorado, dans une tribune publiée dans l’Earth Island Journal où il analyse la doctrine de la décroissance. «Seulement 18% de la croissance mondiale aura lieu aux USA, en Europe de l’ouest, au Japon et dans quelques autres pays riches ».

Dans son « Energy Outlook to 2035 » le groupe pétrolier BP estime que 95% de la croissance de la demande énergétique mondiale d’ici 2035 aura lieu dans les pays «pauvres ». « Etre anti-croissance aujourd’hui, implique en réalité souhaiter que les pauvres restent pauvres » conclut Roger Pielke Jr.

L’énergie clé de la croissance

Les USA considèrent le gaz de schiste comme une technologie propre étant donné qu’il permet de réduire le recours aux centrales à charbon dont l’impact sanitaire est lourd. Ils demandent que le groupe 3 du GIEC élargisse sa liste de technologies considérées comme « propres ».

La France continue de faire la promotion du nucléaire, dont le bilan environnemental et sanitaire n’est pourtant pas brillant dans les études multicritères, d’où le danger de ne focaliser que sur le seul critère CO2.

La baisse considérable des coûts du solaire ces dernières années permet d’espérer que la croissance économique mondiale devienne peu à peu moins grise et plus verte. A Austin, au Texas, le kWh photovoltaïque coûte déjà moins de 5 cents.

Par Olivier Daniélo

Nouveaux essais « concluants » pour l’hydrolienne de DCNS en Bretagne

L' »Arcouest », une turbine sous-marine de 16 mètres de diamètre pouvant produire de l’électricité grâce à l’action des courants, « a tourné au total 1.500 heures en continu, contre 500 heures initialement attendues », indique DCNS dans un communiqué.

« Ces essais concluants », réalisés à 40 mètres de profondeur, « ont permis de démontrer les performances de l’hydrolienne en termes de rendement et de fonctionnement », assure le groupe, qui a pris le contrôle d’Openhydro, le concepteur irlandais de la marchine.

L’énorme turbine de 850 tonnes avait déjà été immergée pour une première phase d’essais d’octobre 2011 à janvier 2012 sur le site de Paimpol-Bréhat, afin de tester son fonctionnement en conditions réelles.

Les résultats avaient été jugés « très encourageants » par EDF, qui mène un projet de parc pilote de quatre hydroliennes sur le site de Paimpol, destiné à devenir le premier du genre en France.

L’hydrolienne avait ensuite connu un incident en septembre 2012, en coulant au fond de la rade de Brest après qu’un treuil de levage eut lâché. Elle n’avait pu être remontée que fin mars 2013.

Depuis, le gouvernement a lancé un appel à projets pour des parcs pilotes d’hydroliennes en France, lors d’une visite de François Hollande à Cherbourg en septembre 2013.

Trois ou quatre fermes, comprenant chacune 5 à 10 hydroliennes, doivent être implantées sur deux sites: le raz Blanchard, au large du Cotentin, et le passage du Fromveur, au large du Finistère.

Chacune des fermes sera subventionnée par l’Etat à hauteur de 30 millions d’euros et le tarif d’achat de l’électricité produite sera fixé à 173 euros par mégawattheure. Les premières mises en service sont prévues pour 2016.

DCNS a également annoncé fin mars qu’il allait installer deux turbines Arcouest au large du Canada, pour une mise en service en 2015. D’autres industriels français, comme Alstom, se sont également lancés dans le créneau des hydroliennes.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

PediaPress voudrait imprimer la version anglaise de Wikipédia

L’idée n’est pas nouvelle, mais elle n’en est pas moins franchement saugrenue : pour rendre accessible Wikipédia sans toutefois disposer de connexion à internet, la start-up allemande PediaPress propose de se lancer dans l’impression de la version anglaise de l’encyclopédie libre et collaborative, représentant non seulement la bagatelle de mille livres de 1200 pages chacun pour près de quatre millions d’articles… mais également un coup de publicité assez malin pour la jeune entreprise.

Les Allemands, sûrs d’eux, viennent de lancer une campagne de financement via le site de crowd-funding Indiegogo, afin de lever les 50 000 dollars nécessaires à l’aboutissement d’un tel projet, et offrant en contrepartie aux généreux sponsors la possibilité de voir apparaître leur nom au sein même de cette encyclopédie figée. Si le projet aboutit, les mille livres finiront leur course dans une grande bibliothèque publique.

Autre argument avancé : ces livres pourraient représenter un instantané de l’étendue de notre savoir à un moment précis, si tant est que Wikipédia soit réellement un reflet convaincant de ce savoir. Jimmy Wales, cofondateur de l’encyclopédie libre, avait déjà proposé en 2003 une version du Wikipédia anglo-saxon sur papier, CD-ROM ou DVD.

Partenaire et collaborateur officiel de la fondation Wikimédia, PediaPress présentera son projet lors de l’édition 2014 de Wikimania, une conférence internationale qui réunit chaque année les différents acteurs et contributeurs de la fondation Wikimédia.

Par Rahman Moonzur

     

Et aussi dans les
ressources documentaires :

Apple veut prévoir votre humeur !

L’attrait d’un utilisateur pour un contenu ou une publicité dépend non seulement de son humeur, mais aussi d’une panoplie d’éléments contextuels au moment où elle lui est délivrée : ce qu’il est en train de faire, son emplacement, le moment de la journée, etc. Apple espère donc mettre au point un système capable de déduire l’état d’esprit de ses utilisateurs à un moment donné et d’adapter en fonction les propositions de contenus en fonction de cette humeur présumée !

Cette demande de brevet décrit un système qui permettrait dans un premier temps de déterminer un profil d’humeur pour chaque utilisateur grâce à l’analyse de diverses données physiques, comportementales et contextuelles. Ensuite, chaque fois qu’une publicité devrait être communiquée à un utilisateur, le système mesurerait une ou plusieurs données, son expression faciale par exemple, et comparerait les données obtenues en temps réel à son profil. Cela permettrait de déterminer son humeur du moment et optimiser l’annonce à lui envoyer en conséquence.

Cela pourrait préfigurer de la publicité du futur vue par Apple pour proposer des stratégies de communication optimales ou pour vous proposer des applications répondant au mieux à votre humeur ! Toutefois, notons qu’Apple dépose de multiples demandes de brevets pour essayer de breveter le maximum d’idées : cela ne veut pas dire qu’elles verront effectivement le jour. Un article de Business Insider résume bien la stratégie adoptée par Apple en la matière.

Par Matthieu Combe, journaliste scientifique

Hausse du nombre d’intoxications à la nicotine à cause des cigarettes électroniques

La principale substance dangereuse est la nicotine contenue dans le liquide alimentant les e-cig. Pour preuve, la cigarette électronique a causé aux Etats-Unis 1400 empoisonnements à la nicotine en un an. Ce chiffre, révélé par le New York Times, est à rapprocher du nombre d’appels vers les centres anti-poisons qui ont triplé entre 2012 et 2013. Ces intoxications concernent aussi les enfants, attirés par l’aspect ludique des e-liquides.

En théorie, le taux de nicotine contenu dans ces doses est limité à 20mg/ml en Europe. Mais une récente étude de 60 millions de consommateurs révélait que l’étiquetage laissait à désirer, et que certaines doses affichant une absence de nicotine pouvaient malheureusement en contenir. Difficile donc de s’assurer du taux de nicotine vapoté. La cigarette électronique reste un produit récent, à l’essor très important, mais pour lequel nous ne disposons pas d’un recul suffisant pour en évaluer la réelle toxicité.

Par Audrey Loubens, journaliste scientifique

Et aussi en
formation :

Toxicologie et écotoxicologie

Objectifs

  • Acquérir les bases de la toxicologie et de l’écotoxicologie appliquées à l’hygiène industrielle
  • Décrypter les résumés toxicologiques et écotoxicologiques dans une FDS
  • Exploiter les données pour la prévention des risques : VLEP*, IBE*, VTR*, impacts sur la santé et l’environnement