Nanorider, le nouveau jeu pour apprendre le business des nanotechnologies

Comment initier les étudiants aux problématiques spécifiques des nanotechnologies et les aider à développer l’activité et l’emploi de ce secteur ? En les réunissant autour d’un jeu de plateau pardi. En effet, apprendre en jouant permet de contourner le côté rébarbatif d’une discipline pour en acquérir les fondements via le jeu.

Des étudiants de Grenoble Ecole de Management (GEM) ont travaillé à l’élaboration d’un jeu dédié à l’apprentissage des stratégies de développement, de commercialisation et de marketing du secteur des nanotechnologies.

Son inventeur, aidé de 2 game designers et de 2 game artists de l’Ecole supérieure d’infographie 2D 3D Web et jeux vidéos (ARIES) a ainsi fabriqué Nanorider. Il s’agit d’un jeu collaboratif pour 6 joueurs. Chacun joue un rôle particulier, celui du chercheur, du directeur marketing, du directeur juridique ou encore du directeur financier. Ce rôle permet de comprendre les fonctions clés de toutes les personnes impliquées dans le développement d’une technologie.

Pour un réalisme maximal, Nanorider intègre 42 technologies existantes du CEA.

Le succès du jeu est arrivé jusqu’aux oreilles de l’association of MBAs (AMBA), organisme britannique d’accréditation des MBA et des Masters. Séduits par Nanorider, ils lui ont décerné le deuxième prix des MBA Innovation Awards. C’est donc le 30 octobre qu’Hélène Michel, professeur à Grenoble Ecole de Management et titulaire de la chaire serious game and innovation, a eu l’honneur de recevoir le trophée.

GEM développe d’autres sérious game, comme The innovative manager, pour apprendre à motiver ses équipes dans une entreprise high-tech ainsi que des jeux virtuels pour apprendre à manager une équipe d’expert et apprendre à adapter son discours à son interlocuteur, qu’il s’agisse d’un expert, d’une association ou encore d’un journaliste.

Déjà utilisé dans les cours de Master en management de l’innovation, Nanorider a été édité à 1000 exemplaires et sera distribué par la Centrale des cas et médias pédagogiques à destination des étudiants de GEM mais aussi des entreprises du secteur de la nanotechnologie. Une version en anglais est prévue pour 2015.

Par Audrey Loubens

La cigarette électronique est une dépendance préférable au tabac

Pourquoi la cigarette électronique est-elle une « bonne » solution pour arrêter de fumer ?

On sait aujourd’hui que la cigarette électronique est une solution de sevrage tabagique qui marche. C’est un très bon substitut nicotinique notamment parce qu’il permet d’arrêter de fumer dans le plaisir. Quand les fumeurs découvrent qu’ils éprouvent du plaisir autrement grâce aux arômes plutôt qu’avec une cigarette, ils sont plus motivés pour arrêter. 

N’est-ce pas remplacer une dépendance par une autre ?

Si, tout à fait. Mais il ne faut pas confondre dépendance et addiction. L’addiction est une dépendance qui fait du mal. Si la cigarette électronique diminue les risques pour la santé, j’estime que c’est un bien pour l’individu. Pour moi la dépendance n’est pas un problème, le plus important c’est l’arrêt du tabac. Par ailleurs, il semble que la dépendance diminue avec le temps, selon les enquêtes réalisées chez les utilisateurs.

Certaines cigarettes électroniques contiennent de la nicotine. N’est-ce pas un problème pour la santé ?

Le plus nocif est l’inhalation de fumée de tabac, la nicotine ne tue pas. Les pouvoirs publics doivent soutenir la cigarette électronique qui doit rester un produit de consommation courante. Je ne dis pas que la cigarette électronique est sans risque, mais comparée à la cigarette elle est infiniment moins dangereuse.

Mais 2 études contredisent l’efficacité de la cigarette électronique dans l’arrêt du tabac ?

Ces deux études ont été réalisées avec des e-cig de 1ere génération que l’on sait inefficaces. Aujourd’hui on en est aux cigarettes de 3eme génération, bien loin de la 1ere génération et ses batteries qui duraient moins d’une heure. Une étude a été lancé l’année dernière, mais il faut attendre 1 ou 2 ans avant de connaitre les conclusions. 

La cigarette électronique s’est considérablement développée en très peu de temps. Pourtant peu d’études existent. Pourquoi ?

Les fonds publics sont difficiles à obtenir. A tel point que le Docteur Farsalinos, un cardiologue grec, doit recourir au financement participatif pour mener ses expérimentations ! Toutefois il existe de nombreuses études sur les cigarettes électroniques. L’AFNOR est en discussion avec les fabricants et distributeurs pour proposer ses normes qui devraient permettre un meilleur contrôle des produits.

Faut-il interdire de vapoter au travail ?

Il faut d’abord rappeler  que pour obtenir un taux de nicotine égal à celui d’une cigarette fumée en 5mn, il est nécessaire de vapoter entre une demi-heure et une heure, selon le vaporisateur utilisé. On comprend alors qu’imposer un délai de 2 heures entre deux pauses cigarette est insuffisant pour que le fumeur ait sa dose de nicotine uniquement avec la cigarette électronique. Pour ne pas avoir envie de fumer, le fumeur doit pouvoir vapoter régulièrement.

Certains mettent en avant la peur que le développement de la cigarette électronique séduise les jeunes qui deviendront ensuite fumeurs. 

Pour l’instant, l’ensemble des données infirment cette crainte. En Angleterre, aux Etats-Unis ou bien en France les jeunes utilisent de plus en plus la cigarette électronique et se détournent du tabac. C’est à se demander si l’on veut vraiment que les gens arrêtent de fumer !

Propos recueillis par Audrey Loubens

Le casse-tête du remplacement du Bisphénol A dans les contenants alimentaires

La loi est passée le 24 décembre 2012, laissant 2 années aux industriels pour se préparer au remplacement du bisphénol A (BPA) dans les emballages et contenants alimentaires. Interdit pour raisons de santé, le BPA est un perturbateur endocrinien. Une propriété qui lui a déjà valu d’être interdit dans les biberons. Le BPA sert de monomère pour la fabrication  de plastiques  comme le polycarbonate (PC) et des résines époxy (intérieur des boites de conserve, canettes). On en retrouve partout : dans les bombonnes d’eau, les biberons, les vaisselles en plastiques, les tickets de caisse, les retardateurs de flamme, les lunettes de soleil, les CD. Problème, le BPA a tendance à s’extraire de la matière pour se déposer sur la peau ou contaminer les aliments qu’il emballe, avec des conséquences pour la santé dangereuses telles que des troubles de la reproduction, le développement de cancers du sein, de la prostate et du foie, ainsi que des dysfonctionnements de la thyroïde.

Sauf que le BPA était un produit chouchou des industriels qui peinent à lui trouver un remplaçant. En effet, le BPA était un peu un matériau miracle, compatible avec de nombreux contenant, résistant aux PH les plus acides ou basiques. A ce jour, aucun substituant ne regroupe tous ces avantages. Les industriels doivent donc composer avec plusieurs matériaux en fonction des applications. Pour les aider, l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (ANSES) a identifié 73 substituts possibles suivant l’utilisation voulue. Plus particulièrement, l’Anses en a identifié 21 pour les polycarbonates et 18 pour les résines époxy et 34 pour les papiers thermiques des tickets de caisse.

Les industriels ont pensé à substituer le BPA par un autre bisphénol, le bisphénol S (BPS). Sauf que le BPS serait lui aussi un perturbateur endocrinien, que l’Anses déconseille d’utilise. Toutefois, aucune loi n’interdit le BPS.

Depuis plus deux ans les fabricants de biberons ont dû plancher sur de nouvelles solutions. Leurs travaux les ont conduits à se tourner vers le polypropylène (PP), le polyesthersulfone (PES), le polyphénylsulfone (PPSU) et le copolyester. En novembre 2014, un rapport relatif aux substituts au BPA a été remis au parlement par le gouvernement. Il ressort que « […] les résultats sont satisfaisants pour la grande majorité des substituts utilisé […] » même si «Des difficultés sont mentionnées (corrosion, étanchéité, problèmes organoleptiques, industrialisation…) pour certains produits « agressifs » qui sont toujours en phase de test industriel. »

Toujours est-il que le consommateur trouvera encore du BPA dans les produits actuellement en vente. Il faudra attendre quelques mois avant d’écouler la totalité des articles contenant du BPA qui aura alors définitivement disparu du paysage français.

Par Audrey Loubens, journaliste scientifique

Le robot Philae devrait se réveiller en mars

La « saga Philae va se poursuivre » en 2015, a souligné M. Le Gall en présentant ses voeux à la presse. « On espère que dès le mois de mars l’éclairement du robot sur la comète lui permettra de recharger ses batteries et donc de recommencer son travail scientifique », a-t-il expliqué.

« On espère vivre en direct le passage de la comète à son périhélie (ndlr: position la plus rapprochée du Soleil) le 13 août, avec probablement des mois extrêmement intenses. » « Je suis convaincu qu’on va voir des choses qu’on n’imaginait pas, notamment lorsque la comète va passer près du Soleil », a dit le patron du Centre national d’études spatiales.

Le petit robot Philae, passager depuis plus de dix ans de la sonde spatiale européenne Rosetta, s’est posé le 12 novembre sur la comète Tchourioumov-Guérassimenko, après une descente de sept heures en chute libre, à plus de 510 millions de km de la Terre.

Après deux rebonds, Philae s’est retrouvé coincé entre des falaises, dans un endroit peu éclairé actuellement. Cela empêche ses batteries solaires de fonctionner suffisamment pour permettre au robot de poursuivre son travail. Philae est en mode « veille » depuis le 15 novembre.

« On sait calculer assez bien là où il est », mais « nous ne l’avons pas vu encore », a précisé à l’AFP Marc Pircher, directeur du Centre spatial de Toulouse. La caméra Osiris qui se trouve sur la sonde Rosetta « le cherche ».

« Cela nous intéresserait de savoir où il est de façon plus précise afin de mieux calculer sa date de réveil », a-t-il expliqué. « Nous ne savons pas très bien la hauteur des falaises autour de lui. » Or, suivant cette hauteur, il y aura plus ou moins d’éclairement, en raison des ombres, a souligné M. Pircher.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Défiez le silence de la chambre sourde

Besoin de calme et de tranquillité ? Prenez l’avion direction les Etats-Unis, plus précisément mettez le cap sur Minneapolis. C’est là que se trouve le laboratoire Orfield. Il héberge une chambre anéchoïque acoustique, l’endroit le plus silencieux sur Terre avec un bruit de -9,4 décibels à vide. Le silence absolu du point de vue de l’oreille humaine. Pour obtenir un tel niveau de bruit, son concepteur Steven Orfield a bâti une pièce isolée par une double paroi d’acier. 30 cm de béton y ont été coulé. Les murs intérieurs sont tapissés de cônes en fibre de verre d’1 mètre d’épaisseur et de mousses en polymères, de sorte que la chambre sourde absorbe 99.9% des sons émis en son sein. Si vous prenez place dans cette chambre, vos paroles ne subiront quasiment aucun écho. Mais un tel silence perturbe notre sens de l’équilibre et il est difficile d’y rester longtemps. Abandonnez l’idée d’y faire une sieste, le record de résistance d’une personne est de 45mn dans le noir. Au-delà, des hallucinations se font sentir puis c’est l’évanouissement.

De telles chambres servent à étudier les bruits en offrant un environnement idéal sans écho susceptible de perturber les mesures. Par exemple, Harley-Davidson l’a utilisé pour diminuer le bruit des moteurs de ses motos tout en conservant ses caractéristiques sonores chères à ses utilisateurs. La Nasa quand à elle possède ses propres chambres anéchoïques. Elle s’en sert pour étudier le comportement des hommes face l’absence de  bruit pour lutter contre le stress provoqué par le silence de l’espace sur les astronautes. Ces derniers y séjournent jusqu’à 45 mn.

Et vous ? Combien de temps pourriez-vous tenir sans bruit ?

Par Audrey Loubens, journaliste scientifique

La ceinture de Van Allen nous protège des électrons à haute énergie

La petite histoire. Depuis sa découverte en 1958, la ceinture de Van Allen conserve quelques mystères. Les observations qu’a pu tirer James Alfred van Allen des compteurs Geiger présents dans les satellites Explorer 1 et 3 ont permis d’affirmer que cette zone de la magnétosphère se composait de deux ceintures dites « ceinture intérieure » et « ceinture extérieure ».

Que la première, située entre 700 et 10 000 kilomètres était principalement constituée de protons à haute teneur en énergie, et que la seconde se trouvait entre 13 000 et 65 000 kilomètres d’altitude et renfermait plutôt des électrons à haute énergie. Puis plus rien jusqu’en 2012 et l’envoi des sondes Van Allen lancées pour étudier ces deux régions. 

Les deux sondes, nommées ainsi en l’honneur du physicien et astronome américain décédé en 2006, ont en effet permis d’éclaircir le questionnement des scientifiques sur le pourquoi les électrons ne venaient pas bombarder la Terre. Et l’explication en est toute simple. Le bord intérieur de la deuxième ceinture fait en quelque sorte figure de barrière protectrice infranchissable pour les particules; les repoussant et déviant leur trajectoire grâce à sa forte densité de charge si bien que ces particules ne peuvent s’approcher qu’à une certaine distance de la Terre, environ 12 000 kilomètres d’altitude.

Par Sébastien Tribot

La pollution aux particules augmente le risque de mortalité à court terme (étude)

En étudiant l’impact de la pollution atmosphérique sur les décès dans 17 villes françaises, les chercheurs ont montré qu’à chaque fois que la concentration de particules PM10 augmente de 10 microgrammes par mètre cube, même en dehors des pics de pollution, le risque de décès non accidentel augmente de 0,5% dans les cinq jours suivants.

L’augmentation atteint 1,04% chez les personnes de plus de 75 ans, fragilisées par des pathologies cardiovasculaires ou respiratoires existantes.

Les PM10 – baptisées ainsi parce que leur taille est inférieure à 10 microns – sont générées par les gaz d’échappement des véhicules, l’activité industrielle ou le chauffage au bois.

Elles pénètrent facilement dans le corps et augmentent le risque de développer des maladies comme l’asthme, le cancer du poumon ou certains troubles cardiovasculaires.

« Mais elles augmentent également le risque de décès à court terme chez des personnes déjà malades, notamment en été, lorsque la pollution vient se combiner avec la chaleur », indique Mathilde Pascale, épidémiologiste au sein du programme Air-Climat qui a participé à l’étude.

L’épidémiologiste rappelle qu’en matière de pollution, « il n’existe pas de seuil en-dessous duquel il n’y aurait pas d’effet sur la santé ».

Cette nouvelle étude « montre que l’impact des PM10 sur la mortalité est principalement dû au niveau de fond de la pollution et non pas aux pics », souligne-t-elle.

L’étude publiée dans le Bulletin épidémiologique hebdomadaire (BEH) note également qu’il existe un impact sur la mortalité, « même à des concentrations conformes à la réglementation de l’Union européenne (40µg/m3 en moyenne annuelle) et proches des valeurs guides de l’Organisation mondiale de la santé (20µg/m3) ».

Sur les 17 grandes villes françaises étudiées entre 2007 et 2010 et totalisant plus de 15 millions d’habitants, toutes avaient des concentrations moyennes annuelles de particules respectant la législation européenne.

Marseille avait le taux moyen annuel le plus élevé avec 31,8µg/m3 devant Lille (30,9), Paris arrivant en septième position avec 27 µg/m3 tandis que seule Dijon respectait le seuil de pollution admis par l’OMS (19,3µg/m3).

Le « seuil d’alerte » à la pollution aux particules est déclenché en France dès lors que le taux atteint une concentration de 80 microgrammes (µg) de particules fines par mètre cube. Ce seuil a été dépassé ces derniers jours dans plusieurs villes de l’ouest de France et dans la vallée d’Arve en Haute-Savoie.

En 2012, l’InVS avait déjà publié une étude sur l’impact à court et à long terme de la pollution sur la mortalité dans neuf villes.

Selon cette étude, 250 décès à court terme et un millier d’hospitalisations pourraient être évités chaque année grâce à une réduction des concentrations moyennes annuelles de PM10 au niveau de la recommandation de l’OMS.

En réduisant les niveaux de PM 2,5 (des particules encore plus fines d’un diamètre inférieur à 2,5 microns) sous le seuil de 10µg/m3 recommandé par l’OMS, ce sont 2.900 décès anticipés qui pourraient être évités dans ces neuf villes, selon la même étude.

« Les risques sont faibles au niveau individuel, mais dans la mesure où tout le monde peut être concerné, l’impact est loin d’être négligeable pour la santé publique et la société » souligne de son côté l’épidémiologiste qui insiste sur la nécessité de réduire les niveaux de pollution en agissant à la fois sur la pollution de fond et sur les pics.

« Et si les températures continuent à augmenter, l’impact de la pollution risque d’être encore plus grave à l’avenir » estime-t-elle.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

La cellule photovoltaïque qui stocke son énergie

Stocker l’énergie générée par les panneaux solaires et autres formes de production intermittente verte (éolienne) est un problème que les scientifiques n’ont jamais résolu tout à fait. En tout cas pour les particuliers. Ceux qui disposent d’une installation revendent généralement l’électricité produite à l’état bien que le tarif de revente, autrefois préférentiel, ait bien diminué depuis quelques années. Bien entendu, il existe plusieurs autres méthodes, comme celle du stockage électrique sur des batteries au plomb, jusqu’ici très compétitive tant en durée de vie qu’au niveau du prix. Toutefois, toutes ces solutions connaissent le même problème : la déperdition d’énergie lors du transfert.

Le professeur de chimie et de biochimie à l’Université de l’Ohio Yiying Wu et son équipe ont donc mis au point un système combinant production d’électricité grâce aux cellules solaires et stockage de cette dernière sur une batterie d’un genre nouveau censée mettre fin au fléau de l’énergie solaire : son intermittence qui peut aussi se définir par l’impossibilité de prévoir la quantité d’énergie produite à cause de facteurs naturels (météo, climat).

Ce nouveau panneau solaire se distingue des autres car il ne fonctionne pas que sous l’effet du soleil, mais aussi grâce à l’air qu’il laisse traverser. Il est relié à une batterie interne que l’on désigne « batterie à respiration » étant donné que celle-ci consomme de l’oxygène lorsqu’elle se décharge et en expulse lors de sa charge. Tout cela est rendu possible par le tissage en titane qui compose le panneau solaire, perméable à l’air, et la rouille qui le recouvre. L’oxyde de fer permet en effet de doper les performances.

Étant relié à une batterie interne, les 20% de pertes habituelles ayant lieu lors du transfert des électrons seraient ainsi éliminées. Et les économies financières iraient de pair. Les travaux de Yiying Wu apportent assurément un coup de neuf à la technologie photovoltaïque même si le professeur reconnaît que pour l’heure, une telle installation revient assez cher.

Pour encourager leurs travaux, l’Université de l’Ohio s’est vu attribuer un chèque de 100 000 dollars, prix du Département Américain à l’Énergie. L’innovation est d’ores et déjà brevetée. La commercialisation pourrait donc commencer dans un avenir proche.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

Le projet fou de Google de connecter la Terre entière à internet devient réalité

Tout droit sortit du laboratoire secret de Google, le Google X Lab, le projet Loon consiste à développer une flotte de ballons dirigeables qui permettra de délivrer internet partout dans le monde, même dans les zones les plus reculées. En juin 2013, Google a lancé ses premiers ballons stratosphériques gonflés à l’hélium. Ces trente ballons font quinze mètres de diamètres et peuvent assurer la couverture internet d’une zone de 1200km², chaque ballon assurant à lui seul 40 km². Les ballons volent à haute altitude, plus de 20 km, et sont alimentés grâce à des panneaux solaires.

Ceux-ci  produisent environ 100W quand l’éclairement est maximal et sont inclinables de façon à optimiser le rendement même quand les journées sont courtes. De quoi recharger suffisamment les batteries pour assurer le fonctionnement des ballons la nuit. L’enveloppe gonflable de 15m de diamètre et 12m de haut  est en polyéthylène. Les Loons utilisent la technologie LTE (Long term evolution), communément appelée la 4G. 

Si la conception, bien qu’optimisable, semble être validée, il reste à contrôler la trajectoire des ballons soumis aux vents stratosphériques. Pour l’instant, le seul paramètre sur lequel Google peut agir est l’altitude du ballon, ce qui suppose de parfaitement connaître la vitesse et la direction des vents pour le diriger. Pour l’instant, la gestion de la trajectoire reste trop complexe pour être précise mais Google s’affranchi du problème en envoyant en l’air plusieurs ballons les uns à la suite des autres, chacun servant de joker au précédent s’il venait à trop dériver. L’idée est d’avoir suffisamment de ballons pour assurer la connexion internet en continue. Le géant américain vient d’ailleurs de signer avec le CNES, spécialiste de l’envoi de ballons stratosphériques, pour tester différents algorithmes censés permettre un meilleur contrôle des ballons.

Et si cela ne suffit pas, Google a encore un atout dans sa manche. Avec le rachat de Titan Aerospace, Google imagine compléter sa flotte de ballons par des drones solaires. Avec tout ça, il y a fort à parier que Google aboutira bel et bien à une solution pour connecter tous les humains, où qu’ils habitent, qu’ils le veuillent ou non…

Par Audrey Loubens

Le marché de l’impression 3D explose, dynamisant du même coup celui des matériaux

L’étude publiée par le cabinet Markets & Markets dévoile l’ampleur du phénomène. L’impression 3D, véritable technologie de rupture, est une véritable locomotive pour les marchés associés, notamment celui des matériaux d’impression 3D. Ainsi, le secteur de ces matériaux atteindra probablement  1.052 milliards de dollars en 2019. Aujourd’hui, ce marché est estimé à 400 millions de dollars, mais Markets & Markets table sur une progression annuelle de 20.4%. Une évolution cohérente avec celle du marché de l’impression 3D en général qui affiche lui aussi un dynamisme de 20% par an selon l’étude du cabinet Xerfi.

Si l’imprimante 3D peine à pénétrer les foyers, les industriels ont bien compris le potentiel exceptionnel de l’impression 3D. Aujourd’hui très utilisé dans le médical, l’aéronautique ou encore l’automobile, l’impression 3D profite des progrès liés aux procédés et aux matériaux. Les plus utilisés sont les plastiques, dont le marché devrait passer de 250 millions de dollars en 2014 à 671 millions en 2019. Les plastiques utilisés pour l’impression 3D sont principalement l’ABS et le PLA, mais on retrouve aussi des photo-polymères et du nylon. Les plastiques représentent 64% du marché des matériaux d’impression 3D, loin devant les métaux, les céramiques et les matériaux hybrides.

Les grands acteurs des matériaux 3D sont les américains 3D Systems Inc. et Stratasys Ltd., le suédois Arcam AB et l’allemand ExOne Gmbh.

D’après l’étude, les plastiques resteront les matériaux les plus utilisés dans les années à venir en impression 3D, une position dominante confortée par le développement futur des imprimantes personnelles. Un point de vue modéré par le cabinet Xerfi dont l’étude parue en octobre indiquait que ce secteur restait encore marginal et ne devrait pas connaitre d’évolution particulière. Pour preuves, en 2013, seulement 72500 imprimantes ont été vendues dans le monde.

En attendant le développement des applications privées, l’impression 3D séduit les industriels. L’industrie spatiale apprécie le faible coût de petites séries comparé à l’utilisation d’un moule et réfléchit à utiliser les imprimantes 3D pour fabriquer directement des pièces dans les stations spatiales, de son côté la médecine fabrique des prothèses auditives et dentaires par impression de façon standard, et récemment une voiture entière a été imprimée.

Par Audrey Loubens

Electronique grand public: dépenses mondiales +1% en 2014, incertitude pour 2015 (étude)

D’après une étude de l’institut GfK et de l’association américaine de l’électronique grand public CEA, les consommateurs ont dépensé 1.024 milliards de dollars dans le monde pour des smartphones, tablettes, ordinateurs, téléviseurs et autres consoles de jeux vidéo.

Lors d’une conférence de presse à Las Vegas, l’un des économistes de la CEA, Steve Koenig, n’a en revanche pas livré de prévision mondiale pour l’année à venir, où « nous avons un tableau de dépenses très mitigé », a-t-il commenté.

Certains marchés émergents qui contribuaient jusqu’ici à soutenir la croissance semblent partis pour ralentir: les dépenses en Amérique latine devraient ainsi baisser cette année de 5%, autant que sur les marchés plus matures d’Europe occidentale.

Une autre incertitude concerne la durée durant laquelle les appareils mobiles vont encore continuer à soutenir les dépenses. Smartphones et tablettes devraient encore représenter 46% des dépenses mondiales en électronique grand public cette année. Mais la croissance ralentit nettement sur ces deux marchés.

Les ventes de smartphones devraient ainsi progresser de seulement 19% à 1,51 milliard d’unités cette année, après encore +28% en 2014 et +49% en 2013. En termes de montants dépensés, la progression devrait être encore plus faible, de 9% à 406,7 milliards de dollars (après +13% en 2014 et +30% en 2013).

M. Koenig a notamment invoqué la baisse des prix unitaire des appareils, qui devraient tomber pour la première fois sous la barre des 300 dollars (à 275 dollars en moyenne) alors que les marchés émergents représentent une part croissante des débouchés, probablement 75% des unités vendues cette année selon l’étude de la CEA et du GfK.

Le même ralentissement se mesure dans les ventes de tablettes, où une hausse de 20% du nombre d’unités écoulées cette année, à 337 millions, ne devrait pas empêcher une baisse de 8% des revenus à quelque 61,9 milliards de dollars (après déjà -1% en 2014).

Le salon d’électronique grand public International CES ouvre officiellement ses portes à Las Vegas mardi, et durera jusqu’au 9 janvier.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

Voitures électriques : +20% en 2014 mais part de marché encore faible

Au total, 10.560 voitures particulières électriques ont été immatriculées pendant l’année 2014, contre 8.779 en 2013, selon les chiffres obtenus lundi par l’AFP auprès du Comité des constructeurs français d’automobiles (CCFA).

Cette hausse de 20,3% est à des lieues de celle qu’a enregistré le marché français des voitures neuves l’année dernière: +0,3%, alors que 2013 avait déjà marqué un point bas depuis la crise ouverte en 2008.

Mais en part de marché, les voitures électriques restent encore anecdotiques, représentant 0,59% du 1,79 million de voitures neuves immatriculées en 2014, selon les chiffres du CCFA.

L’année 2014 a été marquée par des annonces gouvernementales sur le développement des bornes de recharge et des incitations fiscales à remplacer des vieilles voitures diesel par des autos électriques.

De leur côté, plusieurs constructeurs ont adopté des mesures commerciales agressives avec par exemple des offres de location longue durée à partir de 169 euros par mois tout compris, après apport initial.

A ce jeu, Renault s’est arrogé plus de la moitié des ventes de voitures particulières électriques avec sa petite Zoé, qui s’est écoulée à 5.970 exemplaires. Suit son partenaire Nissan, dont la voiture moyenne Leaf a séduit 1.604 acheteurs. La Bluecar de Bolloré, essentiellement dévolue aux solutions de location à l’heure dans des grandes villes (dont Autolib’ à Paris), a quant à elle obtenu 1.170 immatriculations.

A noter les résultats de Tesla, firme américaine qui propose la luxueuse berline « Model S » à partir de 60.000 euros: 328 exemplaires ont été immatriculés en France en 2014, en faisant le cinquième modèle électrique le plus diffusé, après la citadine Smart (groupe Daimler) dont 509 modèles ont été mis sur la route.

Alors que la faible autonomie des voitures électriques reste un frein à l’achat, même si leurs défenseurs font valoir qu’elles répondent aux besoins quotidiens d’une grande majorité d’automobilistes, Tesla affirme que ses Model S peuvent couvrir jusqu’à 500 km entre deux recharges.

Côté utilitaires en revanche, le marché a reculé de 13,3% puisqu’il s’est vendu 4.485 de ces véhicules électriques en 2014 contre 5.175 en 2013, selon le CCFA.

« Tous droits de reproduction et de représentation réservés. © 2015 Agence France-Presse. »

La Hongrie va reprendre ses livraisons de gaz à l’Ukraine à partir du 1er janvier

« FGSZ Ltd va assurer à nouveau les livraisons de gaz à l’Ukraine à partir du 1er janvier », indique l’opérateur dans un communiqué posté sur son site internet. La reprise de ces livraisons, a-t-il ajouté, dépend des conditions techniques et commerciales et est susceptible d’être interrompue.

FGSZ avait cessé ses livraisons de gaz à l’Ukraine en septembre dernier, une mesure alors critiquée par la société publique ukrainienne Naftogaz qui l’avait qualifiée d »inattendue et injustifiée ».

Le gouvernement hongrois avait expliqué la suspension des livraisons à l’Ukraine par la nécessité d’augmenter les réserves de gaz, un engagement dont Bruxelles demande le respect par les 28.

La suspension était intervenue quelques jours après une rencontre à Budapest entre Viktor Orban et le président du géant gazier russe Gazprom, Alexeï Miller.

Ce coup d’arrêt coincidait aussi avec une réunion UE-Russie-Ukraine à Berlin pour tenter de régler le contentieux gazier entre Moscou et Kiev et garantir que l’UE pourra compter cet hiver sur le gaz russe. La Russie fournit 30% du gaz importé par l’UE, dont la moitié transite par l’Ukraine.

esz/nas/eb/pjl

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Best of des IG Nobels… de chimie

La cérémonie des Ig Nobel vient chaque année bousculer avec beaucoup d’humour la très conventionnelle et poussiéreuse saison des Nobel, en mettant sur le devant de la scène les découvertes scientifiques les plus absurdes, les plus décalées, voire les plus nuisibles d’entre elles. La cuvée 2014 – dont nous vous avons parlé ici – fut un excellent cru, et nous encourage à nous replonger dans vingt-quatre années de prix parodiques, et ce de manière très exhaustive tant les palmarès regorgent de pépites hilarantes.

Mettez les pieds sous la table, nous avons compilé pour vous la crème de la crème des Ig Nobel, classés par catégories. Pour commencer, gros plan sur les IG Nobel… de chimie !

 

  • 1996 : l’Ig Nobel de cette année vint récompenser George Goble, de l’université Purdue, pour avoir établi le record du monde de l’allumage le plus rapide de barbecue, en n’utilisant que du charbon et… de l’oxygène liquide. Trois secondes, record à battre.

 

  • 1999 : Takeshi Makino, président de l’Agence des détectives pour la sécurité dans la ville d’Osaka, au Japon, se voit attribuer l’Ig Nobel de chimie pour avoir conçu « S-Check », un spray permettant supposément de révéler les infidélités d’un homme, une fois appliqué sur ses sous-vêtements. Reprenant dans les grandes lignes les tests de détection des phosphatases acides, le produit miracle colore les sous-vêtements maculés en vert flashy, et peut repérer les résidus pendant deux semaines… si toutefois l’infidèle n’a pas eu la bonne idée de laver son slip.

Test en situation… / Copyright Takeshi Makino

 

  • 2005 : remporté par deux chercheurs américains de l’université du Minnesota, Edward Cussler et Brian Gettelfinger, pour s’être penchés sur une question primordiale, à savoir si l’on nage plus rapidement dans du sirop que dans l’eau.

Etat de la piscine pour le test / Copyright université du Minnesota

 

  • 2006 : prix décerné à Antonio Mulet, José Javier Benedito et José Bon, de l’université de Valence (Espagne), ainsi qu’à Carmen Rosselló de l’université des îles Baléares, pour avoir démontré que la vitesse des ultrasons dans le cheddar était fonction de la température. On apprend d’ailleurs que l’intervalle le plus fiable pour mesurer la vitesse ultrasonique dans ce fromage se situe entre 0 et 17 degrés Celsius.

 

  • 2007 : prix remporté par le Japonais Mayu Yamamoto, du centre médical international du Japon, pour être parvenu à extraire d’une bouse de vache… l’arôme naturel de la vanille. Sa méthode d’extraction en eau subcritique de la vanilline fait désormais école. Pour rendre hommage au chercheur japonais, le meilleur glacier de Cambridge aurait créé une nouvelle crème glacée dont l’arôme s’appelle « Yum-a-Moto Vanilla Twist ». Les heureux participants à la cérémonie eurent la chance de pouvoir y goûter.

Les « vrais Nobel » Craig Mello, Roy Glauber, Dudley Herschbach, en pleine dégustation.

  • 2009 : prix décerné à Javier Morales, Miguel Apátiga, et Victor M. Castaño de l’université nationale et autonome du Mexique, pour avoir fabriqué une membrane en diamant à partir de la boisson nationale mexicaine, la tequila. 

 

  • 2011Les Japonais Makoto Imai, Naoki Urushihata, Hideki Tanemura, Yukinobu Tajima, Hideaki Goto, Koichiro Mizoguchi and Junichi Murakami ont reçu le prix parodique cette année pour avoir déterminé la quantité idéale de wasabi à pulvériser dans l’atmosphère d’une chambre afin de réveiller une personne endormie, malentendante ou sourde en cas d’incendie. Oui, l’équipe japonaise est parvenu à isoler l’isothiocyanate d’allyle – le composant organo-sulfuré présent dans le wasabi, la moutarde et le raifort, responsable du goût piquant de ces derniers – pour concevoir une alarme anti-incendie d’un genre nouveau.

 

  • 2013 : l’Ig Nobel de l’année dernière est venu récompenser les Japonais Shinsuke Imai, Nobuaki Tsuge, Muneaki Tomotake, Yoshiaki Nagatome, H. Sawada, Toshiyuki Nagata, and Hidehiko Kumgai, pour avoir essayé de comprendre pourquoi les oignons nous faisaient pleurer. Leur conclusion est savoureuse : ce processus biochimique est autrement plus complexe que ce que les scientifiques avaient pu imaginé.

 

  • A venir : le best of des IG Nobels… de littérature

Par Rahman Moonzur

Feux de cheminée: vers une levée de l’interdiction à Paris

Un arrêté du préfet de la région Ile-de-France, pris au nom de la lutte contre les émissions de particules fines, prévoyait de bannir, à compter du 1er janvier, tous les feux de bois en foyers ouverts, à Paris et dans 435 communes environnantes. Cet arrêté avait été pris en mars à la suite d’un très fort épisode de pollution.

Début décembre, la ministre de l’Ecologie Ségolène Royal avait annoncé son intention de revoir cette disposition, assimilée à de « l’écologie punitive », puis écrit au préfet pour lui demander de « supprimer cette interdiction ».

Selon la préfecture, le Conseil de l’environnement et des risques sanitaires et technologiques (CoDERST) de Paris vient d’émettre « un avis favorable » à une modification de l’arrêté dans la capitale.

Pour autant, il n’y aura pas de nouvel arrêté tant que les CoDERST des autres départements de la couronne francilienne n’auront pas rendu leur avis, ajoute la préfecture. Aucun arrêté nouveau ne pourra donc être émis avant le 1er janvier, date à laquelle l’interdiction entre en vigueur, ajoute-t-on.

« Une telle interdiction n’est pas adaptée aux actions de lutte contre la pollution atmosphérique en Ile-de-France », avait estimé la ministre dans sa lettre au préfet. Elle « donne un signal négatif alors que les pouvoirs publics veulent développer l’usage de la biomasse comme énergie renouvelable ».

Les particules fines, en suspension dans l’air, sont considérées comme très nocives pour la santé, avec notamment les PM10 (diamètre inférieur à 10 microns) qui proviennent surtout des processus mécaniques comme les activités de construction, et les PM 2,5 (inférieur à 2,5 microns) issues de la combustion du bois ou des carburants (essentiellement le diesel) ainsi que des vapeurs industrielles.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Revue du web #73 : les vidéos les plus étonnantes de décembre 2014 (3/3)

Cette semaine dans la revue du Web :

  • Les Slow-mo Guys : bricoler une machine à « découpe plasma », puis filmer au ralenti ;
  • Une campagne virale pour l’écran 4K TV de LG ;
  • Destruction d’une tour de refroidissement d’une centrale électrique polonaise ;
  • La Terre vue de l’espace : petit cadeau de fin d’année de l’astronaute allemand Alexander Gerst ;
  • Le gadget (inutile ?) de la semaine : « Lonely Sculpture », un doigt de pragmatisme sur les sites de rencontre ;
  • Bonus : Oxford et le Muséum d’histoire naturelle de Londres vous souhaitent un joyeux Noël ! (Crédit photo : Alexander Gerst / Agence Spatiale Internationale)

Les Slow-mo Guys : bricoler une machine à « découpe plasma », puis filmer au ralenti

Commençons cette soixante-treizième Revue du Web avec les désormais incontournables « Slow-mo Guys ». Derrière ce nom de scène se cachent le réalisateur anglais Gavin Free et son ami Daniel Gruchy, deux compères rigolards prêts à se lancer dans toutes sortes d’expériences (impliquant souvent des destructions en tout genre) qu’ils ont pris la très bonne habitude de filmer, juste pour le plaisir de décomposer la scène au ralenti. Pour ce faire, rien de tel qu’une « Phantom Flex », l’incontournable caméra numérique très haute définition capable de filmer jusqu’à 18 000 images par seconde. La jouissance primaire de la destruction couplée à la beauté des images rendent souvent ces scènes… hypnotiques.

Dans la vidéo qui suit, Gavin Free bricole un petit dispositif qu’il présente comme une machine à découpe plasma – bien que cela n’en soit pas une. L’appareil, fait maison, se fraie un chemin dans une feuille d’aluminium avec une facilité déconcertante, laissant peu à peu apparaître une inscription sibylline : « Slow-mo Guys ».

Une campagne virale pour l’écran 4K TV de LG

Rien de tel qu’une bonne campagne de pub virale pour sortir du lot et mettre en avant l’un de ses produits dans un secteur ultra-concurrentiel… Le géant sud-coréen de l’électronique LG l’a bien compris, avec cette petite vidéo mettant en scène quelques uns de nos animaux de compagnie favoris, cueillis dans leur torpeur dominicale par une « présence » inconnue. Cette présence, on la doit à l’écran 4K TV de LG, dont la précision serait telle qu’elle pourrait troubler les animaux de tous poils. Pourtant, les possesseurs de chiens, chats et autres perroquets le savent déjà : un vieux téléviseur à tube cathodique suffirait à troubler nos animaux préférés.

Le format vanté ici, le désormais fameux 4K, est un format d’image numérique, utilisé principalement dans le domaine du cinéma numérique, dont la définition est environ quatre fois supérieure à celle du HD 1080p (elle offre une résolution de 3840 par 2160 pixels, ce qui correspond à un ratio 16/9). On compte près de 2033 % de pixels en plus qu’une télévision standard, et 326 % de pixels en plus qu’une télévision HD.

Destruction d’une tour de refroidissement d’une centrale électrique polonaise

Il est toujours fascinant de voir s’effondrer en quelques secondes ce qu’on a mis tant de temps à édifier. Oui, le plaisir jouissif de la destruction n’est pas un mythe. C’est ici la centrale électrique de Lublin-Wrotkow, en Pologne, qui en fait les frais, y laissant quelques plumes au passage. Les explosifs, situés à la base de l’une des tours de refroidissement, ne laissent aucune chance à l’édifice, qui s’écroule comme un vulgaire château de cartes.

La Terre vue de l’espace : petit cadeau de fin d’année de l’astronaute allemand Alexander Gerst

Du 28 mai au 11 novembre dernier, Alexander Gerst s’en est mis plein les yeux. Ce volcanologue de formation a en effet eu l’insigne honneur de faire partie de l’une des missions à bord de la Station Spatiale Internationale (ISS), en compagnie du Russe Maxime Souraïev et de l’Américain Reid Wiseman. Sa fonction d’ingénieur de vol lui a permis de prendre un nombre considérable de clichés en orbite, à partir de la station, aussi bien pour documenter son travail que pour profiter du plus beau de tous les spectacles. L’astronaute allemand avait pris la bonne habitude de programmer son appareil, afin qu’il prenne des photos à intervalles réguliers.

Résultat ? Une petite vidéo en timelapse, combinant la bagatelle de 12500 photos, où se côtoient de sublimes aurores boréales, des orages électriques, des levers de soleil à vous couper le souffle ainsi que l’apparition de notre Voie Lactée et de quelques villes illuminées de nuit. Un chouette cadeau de Noël pour tout ceux qui ne mettront jamais un pied dans l’espace.

Le gadget (inutile ?) de la semaine : « Lonely Sculpture », un doigt de pragmatisme sur les sites de rencontre

Rencontrer l’âme sœur (pour une nuit, ou pour la vie) n’a jamais été aussi facile que depuis l’avènement des sites de rencontre, toujours plus nombreux, qu’ils soient généralistes ou qu’ils surfent sur de micro-niches. Devant la pléthore de profils qui s’offrent à celui qui se donne la peine de chercher, passer d’un individu à l’autre devient une entreprise décérébrante et chronophage. Notre gadget (inutile ?) vient épauler cette semaine le chasseur ou la chasseuse solitaire dans sa quête infinie de l’altérité virtuelle, en lui épargnant le choix cornélien d’un épuisant écrémage de profils. En somme, « Lonely Sculpture », conçue par Tully Arnot, fait tout le sale boulot pour vous, et vous laisse récolter paresseusement les fruits de son dur et aveugle labeur.

Pour concevoir cet ingénieux dispositif, le sémillant Australien s’est appuyé sur un servomoteur et sur un micro-contrôleur pour mettre en mouvement cet infatigable doigt en silicone, qui vient méthodiquement aider le prédateur fainéant à se faire remarquer par son gibier préféré. Il va sans dire que ce joujou n’est à recommander qu’à ceux qui croient dur comme fer à une approche quantitative de la « séduction ».

Bonus : Oxford et le Muséum d’histoire naturelle de Londres vous souhaitent un joyeux Noël !

C’est l’université d’Oxford et le Muséum d’histoire naturelle de Londres qui viennent conclure cette soixante-treizième Revue du Web, avec un joli conte de Noël en guise de bonus de cette semaine. Les deux prestigieuses institutions d’Outre-Manche ne pouvaient pas se contenter d’une banale vidéo présentant leurs vœux de fin d’année. Les cerveaux anglais ont en effet opté pour une approche XXL, avec un conte de leur cru illustré par quelques jolis plans décortiquant Noël à travers la lentille grossissante d’un microscope.

Sont passés au crible le sucre de la « mince pie » – tarte anglaise habituellement servie à Noël – comme le pelage d’un renne, la laine des chaussettes de Noël comme de jolis cristaux de pyrite. On peut également apercevoir la structure d’une éponge de verre, d’un papillon de nuit, de crinoïdes ainsi que le squelette d’un Edmontosaurus que vient coiffer une étoile de mer. Moralité : « la plupart des créatures ne semblent pas magiques, mais en guise de consolation, tout devient intéressant à un fort grossissement ».

Par Moonzur Rahman

Recyclage: entrée en vigueur d’un nouveau logo le 1er janvier

La mise en place de ce logo, né du Grenelle de l’Environnement et baptisé « Triman », était initialement prévue dès 2012. Mais elle s’est heurtée à une forte opposition, notamment des industriels, qui ont invoqué son coût et le fait que, selon eux, il allait encore complexifier la signalétique du tri.

« Tout metteur sur le marché de produits pouvant faire l’objet d’un recyclage de manière effective (….) informe le consommateur par une signalétique commune que ceux-ci relèvent d’une consigne de tri », stipule le décret.

Le pictogramme « doit figurer sur le produit. A défaut, il peut figurer sur l’emballage, la notice ou tout autre support y compris dématérialisé », c’est-à-dire sur un site internet, ajoute le texte. Ces dispositions « entrent en vigueur le 1er janvier 2015 ».

Certains produits recyclables –piles, accumulateurs usagés, déchets d’équipements électriques et électroniques, déchets ménagers des produits chimiques– ne sont pas concernés par le « Triman », de même que le verre.

La mise en oeuvre d’une signalétique commune doit « permettre une importante simplification du geste de tri du citoyen et contribuer à l’augmentation des performances des collectes séparées et du recyclage », souligne le décret.

« On est content. L’intérêt du Triman est de valoriser les produits et emballages recyclables et qui sont effectivement recyclés », se réjouit-on à l’Agence de l’environnement et de la maîtrise de l’énergie (Ademe). « L’ambition à terme » est que ce nouveau logo « devienne un des critères de choix des consommateurs dans leurs actes d’achat et donc un facteur de différenciation pour les entreprises », ajoute-t-elle.

Le Triman est déjà présent sur quelques emballages dont des bouteilles et canettes d’Orangina et de Schweppes.

Les pouvoirs publics espèrent qu’il poussera les industriels à investir dans des produits plus écologiques.

Actuellement, 42% des emballages et papiers collectés par le service public de la gestion des déchets sont recyclés, selon l’Ademe. L’objectif est d’arriver à 60 % en 2025 selon le projet de loi de transition énergétique pour la croissance verte.

L’entrée en vigueur du « Triman » le 1er janvier 2015 figure dans une loi sur la simplification de la vie des entreprises promulguée en janvier dernier.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

La pollution de l’air augmente les risques de maladies cardiovasculaires

La pollution de l’air abîme notre cœur. Selon un exposé de position publié dans l’European Heart Journal, il existe de nombreuses manifestations de la maladie cardio-vasculaire associées à la pollution de l’air. La pollution atmosphérique aggrave non seulement des problèmes cardiaques existants, mais semble également jouer un rôle dans le développement de la maladie chez des personnes saines. Il y a notamment une forte preuve d’un effet négatif des particules en suspension par rapport aux polluants gazeux.

La pollution de l’air extérieur est un mélange complexe de milliers de composants. Du point de vue de la santé, des éléments importants de ce mélange comprennent des particules en suspension et les polluants gazeux comme l’ozone, le dioxyde d’azote (NO2), les composés organiques volatils (dont le benzène), le monoxyde de carbone (CO) et le dioxyde de soufre (SO2). Les particules de suie, d’oxydes d’azote et de soufre sont émises directement dans l’air par la combustion de combustibles fossiles. Les principales sources de NO2 sont le trafic motorisé routier, la production d’énergie, de sources industrielles et le chauffage résidentiel.

Selon l’Organisation mondiale de la santé (OMS), les maladies cardiovasculaires sont la première cause de mortalité dans le monde. En Europe, elles tuent 4 millions d’Européens et 1,9 million de citoyens de l’Union européenne, selon la société européenne de cardiologie.

La pollution de l’air, première cause environnementale de décès

En novembre dernier, l’Agence européenne de l’environnement (AEE) a publié un rapport dans lequel elle indique que la pollution de l’air reste la principale cause environnementale de décès prématurés dans l’Europe urbaine. « Presque tous les urbains sont exposés à des polluants à des niveaux considérés comme dangereux par l’Organisation mondiale de la santé (OMS) ».

Les maladies et les crises cardiaques sont la principale cause (80 %) de décès dus à la pollution de l’air, avant les maladies pulmonaires et le cancer, selon l’étude de l’AEE. Le document indique également qu’environ neuf habitants sur dix des villes européennes respirent un air chargé de polluants considérés comme responsables de 400.000 morts prématurées chaque année.

La pollution de l’air est ainsi liée à des pathologies telles que les maladies des artères coronaires, l’insuffisance cardiaque, l’arythmie et l’arrêt cardiaque, les maladies cérébrovasculaires ou encore l’artériosclérose.

Une action des pouvoirs publics attendue

L’exposé de position de l’European Heart Journal appelle intensifier les efforts pour réduire l’exposition à la pollution atmosphérique par le soutien d’une législation approprié et efficace pour réduire. Ainsi la Commission européenne a lancé en 2005 une stratégie thématique sur la pollution de l’air en vue d’atteindre « des niveaux de qualité de l’air qui ne donnent pas lieu à des effets négatifs importants sur la santé humaine et l’environnement ».

De même en 2008, l’UE a adopté directive « Air pur pour l’Europe » qui modifie la législation européenne relative à la qualité de l’air ambiant pour réduire la pollution à des niveaux qui réduit les effets nocifs sur la santé humaine et sur l’environnement tout en améliorant l’information du public sur les risques encourus.

Cependant, le 12 décembre dernier, le vice-président de la Commission européenne Frans Timmermans a annoncé l’abandon du projet pour de nouvelles règles européennes contre la pollution de l’air. Une décision qui a provoqué la colère des écologistes pour qui la Commission a cédé aux pressions du patronat.

Lors de la session plénière de décembre, le président de la Commission Jean-Claude Juncker a, de son côté, indiqué que le texte serait maintenu tout en aidant modifié.

Source : Euractiv.fr. Anne-Claude Martin

Reach/CLP : toute l’actualité de décembre (2/2)

La newsletter de décembre est en ligne

Nouvelles propositions de classification et d’étiquetage harmonisé

09/12/2014

L’ECHA a lancé une consultation pour l’harmonisation et l’étiquetage harmonisé de deux nouvelles substances. Les parties intéressées sont invitées à soumettre leurs commentaires sur le site de l’ECHA, et ce avant le 23 janvier 2015.

Mise à jour de l’outil QSAR 

09/12/2014

La version 3.3 de l’outil « QSAR Toolbox » est désormais disponible.

Les détails sur cette nouvelle version sont disponibles sur : 

http://echa.europa.eu/view-article/-/journal_content/title/qsar-toolbox-3-3-now-available

Le Comité sur les produits biocide adopte 8 avis 

09/12/2014

Le Comité sur les produits biocides a adopté 8 avis.

Adoption de 23 avis pour des classifications et étiquetages harmonisés

10/12/2014

Le Comité d’évaluation des risques (RAC) a adopté 23 avis pour des classifications et étiquetages harmonisés.

Modification de l’arrêté TMD

12/12/2014

L’arrêté TMD, relatif aux transports de marchandises dangereuses par voies terrestres, fait l’objet d’une nouvelle modification par un arrêté paru vendredi 12 décembre au Journal officiel. Le texte entre en vigueur le 1er janvier 2015 mais il est possible de continuer à appliquer l’arrêté TMD dans sa version antérieure jusqu’au 30 juin 2015.

Nouvelle consultation pour éviter les tests sur les animaux

12/10/2014

L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. 16 propositions sont concernées. Les informations relatives à ces substances sont à soumettre pour le 26 janvier 2015.

Un guide pour le règlement PIC

15/12/2014

Le règlement PIC qui régit l’exportation et l’importation de certains produits chimiques dangereux est en vigueur depuis le 1er Mars 2014. L’ECHA a publié un document d’orientation pour aider les détenteurs dans l’application des dispositions spécifiques pour l’exportation et l’importation de certains produits chimiques dangereux en vertu de ce règlement.

6 nouvelles substances classées extrêmement préoccupantes

17/12/2014

L’ECHA a annoncé l’ajout de six nouvelles substances à la liste des substances extrêmement préoccupantes (SVHC). Désormais, elles sont inscrites à la liste candidate et soumises à autorisation, dans le cadre du REACH. Les substances concernées sont : le fluorure de cadmium, le sulfate de cadmium, deux types de benzotriazole (UV-320 et UV-328) et deux réactions chimiques (DOTE et MOTE).

Une réactualisation a également été décidée pour le phtalate DEHP, pour ses effets endocriniens. Ce phtalate était déjà inscrit à la liste candidate comme reprotoxique. Les producteurs et importateurs d’articles contenant ces substances disposent de 6 mois pour notifier à l’Echa leur présence dans des quantités supérieures à une tonne par an et à une concentration de 0,1%.

Proposition de restriction

17/12/2014

L’ECHA a lancé un appel visant une proposition de restriction de l’acide perfluorooctanoïque (PFOA, CAS 335-67-1, CE 206-397-9), y compris ses sels, et toute autre substance ayant des dérivés de perfluoroheptyl linéaires ou ramifiés avec la formule C7F15- comme un élément structurel, y compris ses sels, sauf les dérivés avec la formule C7F15-X, où X = F, Cl, Br et toute autre substance ayant des dérivés de perfluorooctyle, linéaires ou ramifiés ayant la formule C8F17- comme élément structurel, y compris ses sels, à l’exception des dérivés de formule C8F17-X, où X = F, Cl, Br ou, C8F17-SO2X ‘, C8F17-C (= O) OH ou C8F17-CF2-X’ (où X ‘= aucun groupe, y compris les sels).

Les commentaires sont à soumettre avant le 16 juin 2015.

Exportation et importation de produits chimiques dangereux

18/12/2014

Un rectificatif au règlement délégué européen n° 1078/2014 de la Commission du 7 août 2014 modifiant l’annexe I du règlement européen n° 649/2012 du Parlement européen et du Conseil concernant les exportations et importations de produits chimiques dangereux est paru au Journal officiel le 18/12/2014.

Décisions de la Commission relatives aux autorisations de mise sur le marché en vue de l’utilisation et/ou à l’utilisation de substances

20/12/2014

Un résumé des décisions de la Commission du 18/12/2014 relatives aux autorisations de mise sur le marché en vue de l’utilisation et/ou à l’utilisation de substances énumérées à l’annexe XIV du règlement européen REACH est paru au Journal Officiel le 20/12/2014.

Par Céline Garobiaud

 

Et aussi dans les
ressources documentaires :

Les panneaux solaires risquent d’être affectés lors de la prochaine éclipse solaire

En donnant une part de plus en plus importante aux sources d’énergie solaire, les gouvernements n’avaient pas pensé aux éclipses. Certes, les éclipses solaires sont rares, mais elles pourraient bien avoir de graves conséquences sur l’approvisionnement en électricité, notamment en privant brutalement les panneaux photovoltaïques de lumière. Or, la part d’énergie produite via ces panneaux est suffisamment importante pour qu’on ne puisse pas s’en passer si facilement.

Que va-t-il se passer quand le soleil sera caché par la Lune le 20 mars 2015 ? Ce sont pas moins de 75 000 à 80 000MW de panneaux solaires qui risquent d’être affectés dans toute l’Europe. Deux cas de figures sont possibles. Si le jour du l’éclipse, le ciel est très nuageux au dessus des panneaux, ceux-ci produiront très peu et leur contribution sera négligeable. Même si la forte diminution de luminosité abaissera encore leur production, la différence sera minime et facilement compensée en temps réel par les autres sources d’énergie.

Mais si le 20 mars est un jour ensoleillée, l’approvisionnement risque d’être fortement perturbé. En effet, en quelques minutes seulement, près de 30 000MW produits par les sources photovoltaïques pourraient disparaitre. Une baisse brutale qui devra être compensée par les autres sources d’électricité. En parallèle, la demande va grimper à cause des lumières qui vont être allumées au même moment pour éclairer les maisons, habitations et bureaux. De quoi accentuer les difficultés d’approvisionnement du réseau électrique.

Heureusement, plusieurs solutions sont envisageables. La plus évidente est de se passer des panneaux photovoltaïques quelques heures avant l’éclipse, et donc de ne pas s’exposer à une variation brutale de la production. Une deuxième approche consiste à préparer les centrales hydrauliques qui prendront le relai pendant l’éclipse. L’avantage est que cette source d’électricité est rapidement mobilisable. Sinon, il est toujours possible d’activer quelques heures en avance  des centrales à gaz en renforts.

Il reste 3 mois aux différents acteurs du secteur de l’électricité pour préparer l’éclipse de soleil. Les Allemands sont les plus exposés avec leur parc solaire très développé de 36.9 GW, soit 8 fois plus que la France.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

La Chine double les Etats-Unis et devient première puissance économique

Serait-ce la fin de la suprématie américaine ? C’est ce que suggère fortement Brett Arends, journaliste au Market Watch dans son article soulignant la performance chinoise. L’éditorialiste parle même de « tremblement de terre géopolitique ». Pour la première fois depuis 1872, les Etats-Unis ne sont plus la première puissance économique du monde, désormais détrônés par la Chine. Plus précisément, d’après les chiffres du Fonds monétaire international (FMI), la Chine représente 16.5% de l’économie mondiale contre « seulement » 16.3% pour le pays de l’oncle Sam. Cet écart de 0.2% va même s’accroitre dans les années qui viennent puisque le FMI prédit une richesse nationale de la Chine de 26800 milliards de dollars contre 22000 milliards pour les Etats-Unis d’ici 2019.

Mais alors, le monde va-t-il changer ? Non, en tout cas pas tout de suite. La place de leader de l’économie repose sur le calcul du produit intérieur brut (PIB) selon les parités de pouvoir d’achat. En milliards de dollars en parité de pouvoir d’achat, le PIB chinois vaut 17632 en 2014 quand celui des Etats-Unis vaut 17416. En réalité, la domination du marché chinois date de plusieurs années. Si l’on calcule le PIB en milliards de dollars en prix constants, la Chine est  déjà sur la première marche du podium depuis 2011. Une méthode de calcul moins représentative que celle en PPA qui tient compte de ce que l’on peut acheter localement selon un panier de plus de 3000 produits, mais qui témoigne d’une tendance qui n’est pas nouvelle. D’autant que la Chine revendiquait déjà le statut de première puissance commerciale depuis 2013, avec plus de 4000 milliards de dollars d’échanges commerciaux.

En termes de PIB nominal, c’est-à-dire calculé en tenant compte des taux de change, les Etats-Unis sont classés 1er avec 18 287 milliards de dollars, loin devant la Chine et sa seconde place avec 11285 milliards de dollars. A noter que la France se classe 6ème, derrière le Royaume Unis, avec 2935 milliards de dollars de PIB. De plus, si l’on considère le PIB par habitant, la Chine chute en 89ème position, alors que les Etats-Unis se maintiennent dans le top 10.

Pour résumer, la Chine n’a pas encore supplanté les Etats-Unis mais sa puissance, notamment économique et commerciale, ne cesse d’augmenter. Une croissance fulgurante qui pourrait bien, à moyen terme, rebattre les cartes de l’économie mondiale et bousculer l’ordre établi depuis près d’un siècle et demi.

Par Audrey Loubens, journaliste scientifique

Le pétrole se stabilise à New York, poussé par la confiance sur l’économie

Vers 14h10 GMT, le baril de « light sweet crude » (WTI) pour livraison en février prenait 0,05 cents à 55,31 dollars sur le New York Mercantile Exchange (Nymex).

« Le marché devrait rester orienté à la hausse », a annoncé Bob Yawger, de Mizuho Securities. « On dirait que les chiffres du PIB vont le soutenir, car ils laissent attendre une avancée conséquente de la demande. »

Selon une troisième estimation du produit intérieur brut (PIB) des Etats-Unis, publiée mardi par le département du Commerce, la croissance américaine a augmenté de 5% en rythme annualisé de juillet à septembre, soit une révision en hausse de 1,1 point de pourcentage par rapport à la 2e estimation (3,9%). C’est le rythme d’expansion le plus fort depuis le 3e trimestre 2003.

« Après les bons chiffres sur l’économie, et vu que des investisseurs parient sur un rebond à court terme des cours, on pourrait assister à une hausse au-dessus des 60 dollars, probablement pas aujourd’hui, mais à plus long terme », a-t-il jugé.

Le marché attend désormais la publication des stocks hebdomadaires de pétrole brut aux Etats-Unis par le département de l’Energie, prévue mercredi matin. La semaine dernière, ils ont moins baissé que prévu.

Au niveau mondial, les prix ont également été soutenus par une annonce de la Libye sur la baisse de son offre d’or noir à cause de combats dans les régions productrices.

« La compagnie nationale du Pétrole a révélé que sa production actuelle de pétrole brut à 300.000 barils par jour (bj) n’était pas suffisante pour combler la demande domestique », notaient les analystes du courtier PVM.

Le marché reste cependant sous la pression de l’Organisation des pays exportateurs de Pétrole (Opep) qui refuse de réduire sa production, avec de nouveaux propos en ce sens d’Ali al-Nouaïmi, le ministre saoudien du Pétrole.

« Il n’est pas dans l’intérêt des producteurs de l’Opep de réduire leur production, quel que soit le prix (…). Que ça descende à 20, 40, 50 ou 60 dollars, il n’est pas pertinent » de réduire l’offre, a–il déclaré dans un entretien à la revue spécialisée Middle East Economic Survey (MEES), publié lundi.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

L’usage des pesticides agricoles est reparti à la hausse en 2013 (+9%)

En 2013, le printemps a été exceptionnellement humide, ce qui a favorisé la prolifération de champignons, de limaces et mauvaises herbes, a expliqué le ministère dans un communiqué.

C’est un revers, car, l’année précédente, le recours aux produits chimiques en agriculture avait baissé (-6%) pour la première fois depuis la mise en place d’un indicateur de mesure en 2009.

Surtout, entre 2009 et 2013, l’emploi de produits d’agrochimie reste en hausse de 5%.

En 2008, dans la cadre du Grenelle de l’Environnement, la précédente majorité avait lancé son plan Ecophyto avec un objectif: réduire de moitié le recours aux pesticides d’ici 2018.

A son arrivée en mai 2012, le ministre socialiste de l’Agriculture Stéphane Le Foll avait pris ses distances avec cet objectif chiffré, tout en tentant de changer durablement les pratiques de production avec l’agroécologie.

Pour l’heure, ces politiques n’ont pas encore réussi à porter leurs fruits. Pour autant le tableau n’est pas tout noir, selon Patrick Dehaumont, directeur général de l’Alimentation.

D’abord parce que dans les zones non agricoles (jardins publics, cimetières…), l’utilisation des produits phytosanitaires a baissé de près de 8% en 2013 et de 3,4% depuis 2009.

Ce qui témoigne de l’engagement des collectivités à changer leurs pratiques. Une évolution encourageante, sachant que la ministre de l’Écologie Ségolène Royal envisage d’interdire l’usage des pesticides dans les jardins publics fin 2016.

De plus, le plan Ecophyto a permis de « faire le grand ménage dans les molécules les plus dangereuses » et de « mettre en place un réseau de 2.000 fermes pilote dans le développement de pratiques et de programmes de recherche », ajoute Patrick Dehaumont, interrogé par l’AFP.

Des résultats « encourageants » ont en effet été observés dans ce réseau de fermes baptisé Dephy.

« Le nombre de traitements moyen depuis l’entrée des fermes dans le réseau a diminué en 2013 de 12% pour les grandes cultures et la polyculture-élevage et de 11% pour l’arboriculture », détaille le ministère de l’Agriculture.

« Le poste herbicides reste néanmoins le plus difficile à réduire », reconnaît-il.

Mardi matin, le député PS de Meurthe-et-Moselle Dominique Potier doit remettre au Premier ministre Manuel Valls un rapport d’évaluation et de révision du plan Ecophyto baptisé « Pesticides et agroécologie: les champs du possible ».

« Les recommandations de ce rapport seront analysées et serviront de socle au lancement d’un nouveau plan Ecophyto », explique le ministère.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Pesticides: Valls demande un nouveau plan de réduction des pesticides après l’échec du plan Ecophyto

« Six ans après son démarrage fin 2008, le plan n’a pas eu les résultats espérés puisque les indicateurs de suivi (…) ne montrent pas de tendance à la baisse », conclut la mission pilotée par le député socialiste de Meurthe-et-Moselle, Dominique Potier, à la demande du chef de gouvernement.

Adopté dans le cadre du Grenelle de l’Environnement et lancé en 2008, le Plan Ecophyto visait à diviser par deux, « si possible », l’usage des produits phytosanitaires aussi bien en zone agricole qu’en ville et dans les jardins.

Or le bilan 2013 publié lundi par le ministère de l’Agriculture a montré un usage en hausse de plus de 9% pour l’année, en raison de conditions climatiques difficiles il est vrai, et de 5% en moyenne entre 2009 et 2013.

« Pendant ses six premières années, le Plan a créé les conditions nécessaires mais non suffisantes pour atteindre ses objectifs », note la mission. « La dynamique collective n’a pas encore diffusé au-delà des réseaux de praticiens pionniers alors même que des succès probants commencent à être enregistrés ».

M. Valls a donc chargé les ministres Ségolène Royal (Ecologie) et Stéphane Le Foll (Agriculture) « d’engager un nouveau plan de réduction de l’utilisation des pesticides en France », annonce un communiqué de ses services.

Selon Matignon, « le rapport formule de nombreuses préconisations qui rejoignent les préoccupations constantes de nos concitoyens: la préservation de la santé publique et de l’environnement, la transition agro-écologique et plus particulièrement la diminution du recours aux produits phytosanitaires ».

Les parlementaires préconisent dans leur rapport de « restructurer » le plan autour de six axes, dont un effort « considérable » de recherche et d’innovation mais aussi de le réorienter en vue d’une meilleure cohérence avec les autres politiques publiques, afin de créer « un cadre socio-économique propice à des systèmes de production beaucoup plus autonomes vis-à-vis des intrants ».

En l’état, « le plan n’a pas d’emprise sur les leviers majeurs de l’usage des pesticides que constituent le choix des cultures, des systèmes de culture et de gestion de l’espace », estiment-ils en insistant sur « la nécessité pour notre agriculture de sortir de l’impasse d’une excessive dépendance aux pesticides » pour éviter une perte de compétitivité future.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Un Américain réussit à contrôler en même temps deux prothèses de bras par la pensée

Leslie Baugh a été amputé des deux bras il y a 40 ans suite à une électrocution. Pourtant, depuis cet été, il a réussi à se servir de deux bras bioniques avec suffisamment de précision pour déplacer une tasse sur une étagère. Cet exploit a pu se produire grâce aux scientifiques, chirurgiens et experts en robotique,  de l’Université du Colorado qui ont mis au point un programme informatique bien particulier. Celui-ci est capable d’analyser tous les signaux corporels liés au mouvement des bras, qu’il s’agisse d’identifier quel muscle se contracte à quel moment, avec quelle intensité, comment l’information sur le mouvement à effectuer se propage d’un muscle à l’autre, et bien sûr quelles sont l’amplitude et la fréquence de ces déplacements. Une fois toutes ces données connues, elles sont transmises à la prothèse pour qu’elle se déplace en conséquence.

Les prothèses sont fixées à l’aide d’un corset fabriqué sur-mesure. L’algorithme de reconnaissance est incorporé au corset et fonctionne pas simple contact. Ce procédé n’intègre aucune chirurgie ! Tout le travail est fait par l’algorithme qui analyse les signaux corporels du patient au niveau de son torse et de ses épaules pour les traduire en mouvement de la prothèse. Ainsi, l’homme peut à nouveau contrôler « ses » bras par la pensée. Leslie Baugh, qui est le premier a tester ce qui n’est encore qu’un prototype, a donc appris à plier un bras, fermer et ouvrir la main, jusqu’à très vite réussir à attraper un objet. Il a même été capable de combiner des mouvements des deux bras simultanément. Pourtant, ces bras bioniques n’ont pas des mouvements aussi fluides qu’un bras vivant, il faut d’abord gérer le mouvement d l’épaule, puis celui du coude, du poignet et enfin celui de la main, ce qui donne un déroulé saccadé.

Cette approche est révolutionnaire car elle s’affranchit des risques liés à une intervention médicale. Toutefois, il a fallu au préalable réveiller les nerfs qui étaient morts ce qui est un processus douloureux.

Découvrez en vidéo le fonctionnement de ces nouvelles prothèses :

Par Audrey Loubens, journaliste scientifique

Les Emirats dotés d’un premier réacteur nucléaire en 2017

« Quant ils seront pleinement opérationnels en 2020, ces réacteurs vont générer 25% des besoins en électricité des Emirats arabes unis », a déclaré le Pdg de l’Emirates Nuclear Energy Corp (ENEC), Mohamed al-Hammadi, lors d’un forum sur l’énergie à Abou Dhabi.

M. Hammadi a indiqué que le premier réacteur, réalisé à 61%, entrera en production en 2017. Les travaux sont en cours pour la construction des deuxième et troisième réacteurs pour une entrée en service en 2018 et 2019, tandis que le site du quatrième est en cours de préparation, a-t-il ajouté.

Un consortium international conduit par la Korea Electric Power Corp avait remporté en décembre 2009 un contrat de 20,4 milliards de dollars pour la construction de quatre réacteurs de 1.400 mégawatts chacun à Baraka, à l’ouest d’Abou Dhabi. Ce contrat, le plus gros jamais remporté par la Corée du sud à l’étranger, associe des firmes comme Samsung, Hyundai et Doosan Heavy Industries.

M. Hammadi a indiqué qu’ENEC avait conclu un contrat de trois milliards de dollars avec des firmes internationales pour approvisionner les réacteurs en matériaux nucléaires pendant 15 ans.

En outre, a-t-il précisé, 5% des besoins en électricité des Emirats seront fournis par des sources d’énergie renouvelables d’ici à 2020, aidant le pays à réduire de 12 millions de tonnes ses émissions de CO2 d’ici 2020.

En mars 2013, les Emirats avaient inauguré Shams-1, la plus grande centrale d’énergie solaire à concentration mise en service au monde, devant alimenter quelque 20.000 domiciles en électricité.

Les Emirats ont d’importantes réserves pétrolières et produisent 2,8 millions de barils par jour.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Dis-moi où tu vis, et je te dirai comment tu télécharges

Le partage de fichiers via Internet grâce au modèle de réseau informatique « Peer-to-peer » – avec en tête les films, les séries télé, la musique, les jeux vidéos et les livres numériques – s’est rapidement imposé comme l’approche alternative privilégiée pour obtenir le contenu digital désiré, et souvent de manière illicite. Mais, contrairement aux utilisateurs de services légaux et payants comme Amazon ou le nouveau venu en France, Netflix, bien peu d’informations tangibles et sourcées transpirent sur les utilisateurs de Peer-to-peer, en raison de l’absence cruelle de données.

Deux types de comportements

Bien décidée à faire bouger les lignes, une équipe de chercheurs de l’université américaine de Northwestern, près de Chicago, est parvenue à collecter une quantité jusque-là inédite de données sur un panel de 10000 utilisateurs du très populaire réseau BitTorrent, répartis à travers le monde et ce pendant un mois. Ces données ont permis aux chercheurs de cerner deux types de comportements intéressants parmi les usagers du réseau créé par Bram Cohen :

  • un grand nombre des utilisateurs de BitTorrent sont « spécialisés » dans leur contenu (c’est-à-dire qu’ils ne partagent presque exclusivement qu’un seul type de fichiers, à savoir par exemple uniquement des films ou seulement de la musique) ;
  • les internautes se trouvant dans des pays dont le niveau de vie est équivalent ont tendance à télécharger le même type de contenu. Les habitants de pays comme l’Espagne ou la Lituanie (dont les économies sont considérées comme « modestes » par le groupe de chercheurs) téléchargeraient en priorité des fichiers de grande taille, i.e. des films.

L’internaute, un spécialiste ès contenu

« Les habitants d’un pays donné montrent des préférences pour certains contenus – contenus dont la disponibilité peut laisser à désirer en raison d’un gouvernement autoritaire ou d’infrastructures de culture et de communication médiocres. Cette étude peut fournir un aperçu du bon fonctionnement d’un pays » explique Luis A. Nunes Amaral, professeur d’ingénierie chimique et biologique, et coauteur de l’étude. En clair, les téléchargements de films pourraient être plus importants dans des pays qui disposent d’un moins grand nombre de cinémas, d’une offre de films moins variée ou moins pointue, ou dont le prix de la place peut sembler élevé par rapport au niveau de vie.

En effet, l’étude rapporte qu’un utilisateur vivant dans un pays dont le Produit Intérieur Brut (PIB) est peu élevé aura plutôt tendance à partager des fichiers lourds, comme des films Haute Définition. A l’opposé, ceux qui vivent dans un pays dont le PIB est plus élevé tendraient plus naturellement vers des fichiers plus petits, tels que des fichiers musicaux.

Les chercheurs ont également observé que plus de la moitié des fichiers téléchargés par un internaute appartiendra à l’un de ses deux types de contenus favoris, faisant de lui un « spécialiste ès contenu » plutôt qu’un généraliste.

Par Moonzur Rahman

Et aussi dans les ressources documentaires :

L’équipage de l’ISS reçoit un nouvel outil, par courriel

C’est la première fois que l’équipage a pu ainsi bricoler un outil qui lui manquait grâce à une imprimante 3D fabriquée spécialement pour l’apesanteur.

La clé a été conçue par Made in Space, la compagnie basée en Californie qui a créé l’imprimante.

Cette dernière avait déjà été utilisée dans la station spatiale mais seulement sur des dessins testés et téléchargés d’abord sur Terre.

Cette fois-ci, l’outil a été dessiné et testé sur Terre puis son dessin envoyé par courriel à l’imprimante, qui a réalisé l’objet en quelque 4 heures, a indiqué la compagnie dans un communiqué.

« La clé a été dessinée avec ses pièces amovibles sans qu’il y ait besoin d’autres matériaux », indique un communiqué de la compagnie.

Un prototype a été imprimé dans un laboratoire californien puis envoyé à la NASA pour qu’elle l’inspecte avant que le dessin n’aille vers l’ISS.

Tout le processus, de la conception à son exécution, a pris moins d’une semaine.

La clé comme tous les autres objets imprimés dans la station, sera ramenée sur Terre pour être comparée avec des objets imprimés normalement.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Fukushima: fin du retrait du combustible de la piscine du réacteur 4

« C’est une avancée importante », s’est félicité devant la presse le directeur de la centrale, Akira Ono.

Cette opération, qui a pris plus d’un an, s’est terminée samedi. Tokyo Electricc Power (Tepco) avait déjà annoncé début novembre qu’il ne restait que 180 assemblages neufs dans ce bassin de désactivation. Avaient alors déjà été enlevés les 1.331 assemblages de combustible usé qu’elle contenait au moment de l’accident.

Quand a commencé ce retrait, la première grande étape dans le démantèlement de la centrale Fukushima Daiichi, il y avait dans la piscine 1.533 assemblages, dont 1.331 usés et 202 neufs. Tous ont donc désormais été transférés en lieu plus sûr, dans un autre bassin du site, à l’écart des réacteurs mis en péril par le tsunami du 11 mars 2011.

En réalisant sans incident l’extraction de ce combustible, Tepco a levé une menace importante: si la piscine avait subi une nouvelle catastrophe (à cause d’un séisme ou d’un tsunami), de nouveaux dégagements massifs de substances radioactives auraient pu se produire à cause de la difficulté (voire l’impossibilité) de refroidir ce combustible.

Pour procéder à l’extraction, Tepco a bâti une nouvelle couverture au-dessus du réacteur numéro 4 et installé un dispositif neuf d’extraction ainsi que procédé à la récupération des détritus tombés dans le bassin.

La même opération de transfert des assemblages un à un vers un caisson immergé pouvant en contenir 22, puis vers l’autre piscine d’entreposage, a été effectuée 71 fois, sans problème notable.

Il n’est jamais arrivé auparavant que de telles tâches soient réalisées dans un environnement accidenté où les techniciens doivent oeuvrer en combinaisons de protection et porter des masques intégraux pour se protéger de la radioactivité.

Il s’agissait en outre de la plus délicate opération depuis la stabilisation du site en décembre 2011, mais c’est cependant loin d’être la dernière ou la plus risquée.

Le combustible usé qui reste encore dans les piscines des réacteurs 1 à 3 devra lui aussi être extrait, des travaux encore plus difficiles.

Le coeur du réacteur 4 était vide au moment de l’accident, seule sa piscine contenait du combustible, mais pour les trois autres, le bassin de chacun était rempli de plus de 500 assemblages et leur coeur a fondu, ce qui va rendre les opérations de nettoyage autrement plus longues et complexes.

kap/mpd

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Es-tu un robot ? La question qui remplace les CAPTCHAS

Un CAPTCHA est un test de Turing visant à identifier le caractère humain ou non d’une requête sur internet.  L’objectif final étant de se protéger des spams en débusquant les robots et ainsi les bloquer. Pour faire la différence, le CAPTCHA repose sur la capacité d’analyse visuelle propre à l’être humain et dont un robot malveillant est dépourvu. Une image est donc affichée à l’écran, contenant une série de chiffres et de lettres plus ou moins déformés que l’utilisateur est censé être capable de déchiffrer. Ne reste plus qu’à saisir cette séquence aléatoire et de valider.

Très efficace et facile à mettre en place pour un site, le CAPTCHA est toutefois pénible pour l’internaute qui doit taper le code à chaque fois. Sans compter que parfois les symboles  sont tellement tordus qu’ils sont impossibles à reconnaitre. Du coup, l’utilisateur se trompe et doit recommencer. Et oui, l’erreur aussi est humaine, ce qui rend les CAPTCHAS  encore plus fastidieux.

Mais tout ceci pourrait bien disparaitre prochainement puisque Google vient d’annoncer qu’il travaillait au remplacement des CAPTCHAS.  Pour savoir si vous êtes un humain ou un robot, Google a eu l’idée de tout simplement vous poser la question directement. Google a donc développé une nouvelle interface de programmation (API) appelée « No CAPTCHA reCAPTCHA ». Cette nouvelle API consiste à vous identifier une première fois et à répondre à une question personnelle comme « Quelle est votre couleur préférée » puis à cocher la case « Je ne suis pas un robot ». La façon dont vous bougez votre souris suffit à valider le fait que vous êtes un humain. Félicitations, vous voilà inscrit dans la catégorie « humain ». Ainsi fiché, le site vous reconnait et ne  vous demande plus systématiquement de faire la preuve de votre humanité. En cas de doute, l’API vous demandera de relever un nouveau défi moins fastidieux qu’un CAPTCHA puisqu’il s’agira de répondre à une question en cliquant sur une image. Ce qui reste plus rapide que de taper au clavier une série de chiffres et de lettres.

Découvrez No CAPTCHA reCAPTCHA :

Par Audrey Loubens, journaliste scientifique