Les divers modes de stockage massif d’énergie, compléments de puissance aux générations électriques intermittentes

Le couplage de ces ressources intermittentes avec des centrales électriques alimentées au gaz naturel ou au charbon  permet d’assurer un réglage grossier de la puissance générée, mais certains moyens plus précis tels que les centrales de pompage turbinage  ou l’utilisation de batteries électrochimiques en tampon sont nécessaires pour assurer la régulation fine de la génération de puissance sur le réseau.

Si l’Europe utilise massivement le pompage turbinage installé en particulier dans le Massif Alpin (Autriche, Suisse, Allemagne, Italie, France), d’autres nations comme le Japon semblent vouloir mettre à profit leur maîtrise dans les technologies des générateurs électrochimiques pour assurer la régulation fine des puissances délivrées.

Parmi les systèmes électrochimiques disponibles, le plus séduisant, en raison de la disponibilité naturelle des matériaux utilisés dans sa conception et exempt de Lithium, pour ce type d’application où la batterie est fixe, est sans nul doute la batterie Sodium-Soufre qui ne fait appel massivement qu’à de l’aluminium pour les boitiers et couvercles de chaque accumulateur, à de l’alumine béta transporteuse à chaud (vers les 300°C) d’ions Na+ comme séparateur, ressemblant beaucoup à une coquille d’œuf, en un peu moins fragile,  et à du sulfure de sodium inclus dans un réseau de fibres de carbone comme matière électrochimiquement active. Durant la charge les ions sodium traversent  le séparateur et forment du sodium fondu dans la chambre ad’ hoc, les ions sulfures sont oxydés en Soufre fondu dans son réseau de fibres de carbone.

Le principal  inconvénient de ce type de batteries dont le chef de file mondial est le Japonais NGK Insulators, est sa propension à s’enflammer en cas de court-circuit interne par  rupture de l’alumine. En effet, le sodium liquide entre alors en contact violent avec le soufre fondu.

Afin de limiter les dégats, NGK livre la batterie d’éléments enfouis dans du sable  et équipée de systèmes limitant la propagation des incendies aux accumulateurs voisins.

Celui qui saurait rendre improbable ce type d’incident ferait faire un grand pas au stockage électrique de l’énergie.   

Les plus récentes installations de ce type de batterie sont celles réalisées sur l’île de Miyakojima (pour 4MW ou 28 MWh), située à 300 km au sud ouest de l’île d’Okinawa. Citons également la vente d’une batterie de 245 MWh (35 MW) à l’italien Terna.

D’autres types de batteries semblent être candidates également au stockage de grandes quantités d’énergie électrique.

Les batteries au Lithium-Ion sont dès à présent largement sollicitées pour ce type d’applications.

Près de chez nous citons par exemple le système MaxSine eStorage d’Alstom Grid associé au système batterie Intensium Max 20M de SAFT (500 kWh ou 1MW durant 30 minutes) en conteneur et qui devrait être fourni en fin 2014 à EDF pour évaluation aux Renardières. Ce type de batterie a déjà été livré en 2014 par la Saft au Department of  Defense américain.

Au Japon c’est la sous-station de Nishi Sendai qui va être équipée sur 6000 m2 d’un immense système batterie Lithium-Ion  de 20 MWh et de puissance 20 MW (FIG.I).

Figure 1 : Illustration de la sous-station japonaise de Nishi Sendai  de Tohoku-Electric Power

Enfin, citons l’accord de joint-venture conclu entre Sony et Hydro-Québec qui vont créer Esstalion Technologies installé à Varennes au Québec en charge du développement de batteries au Lithium Ion Phosphate de Fer (Olivine) destinées à équiper les réseaux électriques gérés par Hydro-Québec.

Dans les divers modes de stockage d’électricité il faut également citer les systèmes REDOX. Le plus célèbre est celui largement étudié par Sumitomo Electric à base de sels de Vanadium (Fig.2 et 3).

Figure 2 : Accumulateur REDOX

Le générateur électrochimique est équipé de deux réservoirs de solutions de Vanadium à des degrés d’oxydation différents qui alimentent « en canard » (pompage continu) un système électrochimique qui forme en charge du V(5+) et du V(2+) respectivement dans l’un et l’autre des compartiments séparés par une membrane échangeuse de protons (PEM) et qui en décharge consomme ces formes très oxydées et très réduites des cations vanadium.

Fig 3 : projet de sous station de 6 MWh de Minami Hayakita au japon (Sumitomo Electric)

Le principal handicap de ces systèmes, outre sa décharge assez lente, limitée par la surface et la propreté de la membrane, c’est la mobilisation de sels d’un métal peu abondant. En effet pour stocker 6 MWh d’électricité, sous une tension nominale de 1,5 V il faut stocker une quantité d’électricité de 4 MAh.

Or dans un tel système il faut mobiliser deux cations vanadium pour obtenir un électron ce qui se traduit à l’échelle molaire par: il faut deux atome-gramme de vanadium (102g) pour générer 26,8 Ah (un Faraday) d’électricité, ce qui fait 15,2 tonnes de Vanadium pour stocker les 4 MAh de la batterie de Minami Hayakita. Pour mémoire, la consommation mondiale de Vanadium en 2012 était de l’ordre de 80000 tonnes (roskill.com).

Pour approfondir vos connaissances dans les divers modes de stockage d’énergie, vous pouvez vous reporter au site de l’Energy Storage Association (ESA)

 

Par Raymond Bonnaterre

En savoir plus :

Le flou de la transition énergétique sur le nucléaire

Ségolène Royal était attendue sur la question du nucléaire. Après de multiples interrogations sur la réduction effective de la part du nucléaire dans la production d’électricité, celle-ci est bien inscrite au programme. Mais le texte reste flou sur le calendrier et les modalités de sa mise en œuvre, renvoyant les décisions concrètes à des programmations pluriannuelles.

En parallèle, si la loi intègre l’objectif de division par deux de notre consommation finale d’énergie d’ici 2050,ellene fixe pour l’instant aucun objectif d’économies d’énergie à l’horizon 2030. En corollaire, il n’y a pas d’objectifs sur une éventuelle baisse de la consommation électrique. C’est bien là que le bât blesse, car la question de l’évolution de la consommation électrique est capitale concernant la part du nucléaire dans le mix électrique. La consommation électrique va-t-elle augmenter ou diminuer ? A cette question, Ségolène royal répond simplement « on verra », sans vouloir s’étendre sur la question.

La production nucléaire en question

Le projet de loi plafonne la puissance nucléaire installée à 63,2 GW, soit la puissance installée en 2014. Il ne pourra donc pas y avoir d’augmentation des capacités nucléaires installées.

Mais pour réduire la part du nucléaire à 50 % en 2025, il existe encore plusieurs scénarios. Soit, la consommation électrique française baisse, soit elle augmente. Dans le premier cas, il faudra fermer plusieurs réacteurs nucléaires pour atteindre l’objectif. Dans le deuxième cas, il est possible soit de diminuer le taux de disponibilité des réacteurs, soit considérer que la part du nucléaire baisse mécaniquement dans le mix électrique au fur et à mesure que l’on installe de nouvelle capacités d’énergies renouvelables (puisque les capacités nucléaires restent fixes).

Sur la question du nucléaire, deux autres questions capitales restent en suspens : les réacteurs nucléaires pourront-ils être prolongés au-delà de 40 ans ?L’État pourrait-il décider de fermer des réacteurs pour des raisons de pilotage du mix énergétique ? Rappelons que ces arbitrages sont d’autant plus attendus que l’âge moyen du parc nucléaire est de 30 ans.« Ne rien décider aujourd’hui c’est décider d’étendre la durée de fonctionnement des réacteurs nucléaires », estime Greenpeace dans un communiqué, alors que « des études récentes ont montré que leur prolongation au-delà des 40 années de fonctionnement pourrait coûter aux alentours de 4,4 milliards d’euros par réacteur, ce qui rendrait le nucléaire définitivement moins compétitif que les énergies renouvelables », rappelle l’ONG militante.

Les décisions renvoyées à une programmation pluriannuelle de l’énergie

Mais le plus important ne serait pas là pour Ségolène Royal, car des programmations pluriannuelles de l’énergie vont voir le jour. Seuls les objectifs comptent et ils seraient atteints grâce à ces programmes. Chaque programmation définira des objectifs à atteindre sur la période pour les évolutions du mix énergétique. Pour ce faire, elle fixera notamment la part d’électricité produite par chaque source d’énergie et ce de façon à atteindre les objectifs de plus long terme : 50 % d’électricité d’origine nucléaire en 2025, 40 % d’électricité d’origine renouvelable en 2030, etc. Une première période s’étendra entre 2015 et 2018. Ensuite, ces programmations se feront sur 5 ans : 2018-2023, 2023-2028…

« EDF est une entreprise côté en bourse qui a ses propres logiques », rappelle la ministre. Mais en tant qu’actionnaire majoritaire d’EDF à hauteur de 84,49 %, l’Etat compte bien peser dans les décisions stratégiques de l’entreprise. Ainsi, EDF devra bien présenter son plan stratégique pour répondre aux orientations fixées par la programmation pluriannuelle de l’énergie. Ce plan sera validé par le conseil d’administration du groupe, puis par l’Etat. Chaque année, EDF présentera la mise en œuvre concrète de son plan pour démontrer qu’il agit concrètement conformément au plan.

Ce projet de loi peut encore évoluer avant le début du travail parlementaire cet été. Des amendements pourront ensuite y être apportés avant son vote final qui devrait intervenir avant la fin de l’année. Les discussions promettent d’être houleuses !

Par Matthieu Combe, journaliste scientifique

7 erreurs courantes des managers inexpérimentés

C’est une force car elle nous permet de développer des réponses, des stratégies, des comportements pour y remédier, les contourner voire de les éviter. C’est une faiblesse dès lors que nous ne sommes pas capables d’apprendre rapidement pour nous corriger. Cela est d’autant plus vrai pour le manager à qui l’entreprise confie des responsabilités qui peuvent parfois conduire à l’amplification des erreurs personnelles.

Les 7 erreurs communément rencontrées chez les managers inexpérimentés :

1. Ils cherchent plus à être aimés que respectés.

Imaginez que – pour une raison quelconque et à 3 jours de la date du départ – vous deviez annoncer à votre conjoint que les vacances sont annulées. Facile ? Imaginez maintenant que vous partagiez cette décision avec votre ami. Il y a fort à parier que vous ferez le second exercice beaucoup plus facilement que le premier. Cet exemple sert à démontrer que plus un manager a besoin d’être aimé et plus il lui sera difficile d’annoncer des décisions impopulaires, de dénouer des conflits, de délivrer des messages désagréables, etc. Bien sûr tout être humain a besoin d’être aimé mais il est important de savoir qu’il existe une grande variété de nuances dans ce besoin. Celle qui semble la plus approprié à la relation professionnelle, c’est le respect. Le manager reçoit l’estime de ses collaborateurs à travers le respect qu’il suscite. Ce respect, qu’il le gagne à travers la mise en œuvre de ses valeurs de courage, d’intégrité, de justice, d’esthétique (travail bien fait), etc., le place dans un contexte plus propice et plus confortable pour l’exercice de ses responsabilités.

2. Ils pratiquent un micro management.

Peu sûrs d’eux, ils cherchent à tout contrôler. Ils confondent précision et performance. Leur omniprésence dans tous les détails les conduisent à contraindre le champ d’action des collaborateurs au-delà du raisonnable. Ils les inondent de notes de service, d’emails, de procédures … Ils étouffent et démotivent ainsi leurs équipes. Par leur perfectionnisme, ces micomanagers, s’ils n’y prennent pas garde, deviennent progressivement des freins à l’initiative et donc à l’innovation.

3. Ils ne délèguent pas.

Les managers inexpérimentés ont gagné leurs galons grâce à leur expertise technique. Cela reste donc pour eux une valeur sûre leur garantissant la reconnaissance de leur hiérarchie. Mais si cette compétence ne cède pas la place à celles que tout pilotage d’équipe requiert, alors l’expertise devient un piège fatal pour l’expert qui n’arrive pas à « changer de casquette ». La délégation figure en haut de la liste des compétences managériales indispensables à l’exercice du management.
La délégation est mutuellement bénéfique à la fois au délégant et au délégataire. Le délégant peut ainsi se consacrer à sa mission, mieux gérer son temps et sa valeur ajoutée en se focalisant sur les tâches importantes de sa mission de manager. Celui-ci offre, ce faisant, de nouvelles opportunités utiles pour l’élévation des compétences et de la motivation des membres de l’équipe. C’est un cercle vertueux qui permettra au manager de déléguer davantage au fil du temps et de se mobiliser davantage sur l’essence de sa fonction : se consacrer à ce que l’équipe puisse donner le meilleur d’elle-même en toutes circonstances. (Anticipation, planification, innovation, coaching, décision, etc.)

4. Ils ne s’investissent pas dans le développement des collaborateurs.

Souvent trop centrés sur eux-mêmes, ils ne s’occupent de cet aspect développement des collaborateurs que lorsque l’entreprise les y oblige c’est-à-dire environ 1 heure ou deux chaque année, pour chaque collaborateur, au moment du rituel des entretiens annuels. Il n’y a pourtant pas de progression du service si tout le monde stagne. Le développement des collaborateurs est donc, là aussi, un jeu gagnant-gagnant. Il est donc capital que le manager puisse dégager le temps nécessaire dans son emploi du temps pour accompagner le développement de carrière de ses collaborateurs les plus performants ou pour s’assurer de l’amélioration des compétences de ceux qui sont à la traîne. L’engorgement de leurs agendas (lorsqu’ils en tiennent un) ne leur permet pas d’avoir une vision globale précise sur les compétences nécessaires à la réussite de l’équipe.

5. Ils n’utilisent pas leur intelligence émotionnelle.

C’est le principal talon d’Achille du jeune expert promu manager. Son manque d’expérience relationnelle pénalise sa capacité à détecter ou anticiper les crises. Elle laisse l’insatisfaction et donc la démotivation s’installer. Les coûts de rattrapages sont souvent lourds.

6. Ils n’ajustent pas leur style de management.

Chaque collaborateur ne se manage pas de la même manière. Certains doivent bénéficier de plus d’autonomie et il convient de les soutenir et de leur accorder la confiance que leurs comportements méritent. D’autres ont besoin d’un cadre plus serré qui leur permettra de développer leurs compétences avec une plus grande sécurité. Les managers inexpérimentés ont tendance, comme ils le font avec succès dans leur métier d’expert, à appliquer la même formule pour traiter le même genre de situation. Mais il n’en va pas de même pour les hommes que pour les machines. Ici encore apparaît l’impérieuse nécessité du travail de développement personnel qui rebute hélas, de manière souvent irrationnelle, un certain nombre d’experts ainsi que de leurs hiérarchies.

7. Ils ne valorisent pas.

Par notre éducation, il est plus « naturel » à la nature humaine de critiquer, de blâmer, de souligner ce qui ne fonctionne pas que de trouver des raisons d’encourager ce qui est bien fait, ce qu’il convient de faire plus souvent. Pour pratiquer un management appréciatif, il convient d’apprendre à écouter, retenir ses critiques, retenir ses jugements et autres formulations négatifs. Tout cela ne sert qu’à rassurer celui qui les formule et influence négativement la motivation des collaborateurs. Cette capacité à encourager et à maintenir un esprit constructif est rarement innée. Elle s’acquiert avec la confiance en soi, l’expérience de la relation aux autres, et la volonté d’élever le niveau de compétences techniques et relationnelles de tous ceux qui travaillent avec vous. Mais il est vrai que la peur de commettre des erreurs, qui habite les managers inexpérimentés plus que leurs ainés, les conduit trop souvent à traquer les écarts négatifs que positifs.

Par Dino RAGAZZO

Blog www.experience-conseil.fr/
Livre « Manager d’élite »

L’ingénieur geek #2 : Tellspec

Pour y parvenir, TellSpec rassemble spectroscopie laser, nanophotonique et un algorithme mathématique unique.

Les données collectées sont analysées, puis envoyées vers l’application mobile installée sur Smartphone.

Disponible sur iOS et Android, cette dernière affiche le nombre de calories contenues dans le plat, mais également le nom des différents ingrédients dont il est constitué. Il permet ainsi de connaître le taux de sucres ou de gras d’un plat, mais aussi de déceler la présence d’éléments allergènes, comme le gluten ou les œufs.

A ne pas en douter, TellSpec révolutionnera à coup sûr la diététique et facilitera les régimes !

L’appareil peut être précommandé sur le site http://tellspec.com pour 320 dollars (environ 230 euros). Les premiers exemplaires devraient être livrés en août 2014.

Par Matthieu Combe

Et aussi dans l’actualité :

Loi transition énergétique: « un beau moment d’espoir pour la France »(Hulot)

Interrogé sur France Info, l’envoyé spécial du président François Hollande pour la planète a appelé à « ne pas bouder son plaisir ».

« Cette loi est dans le dispositif depuis plusieurs mois, voire depuis plusieurs années, elle vient enfin au Conseil des ministres. Beaucoup de choses que nous réclamions sont dans cette loi (…) Il faut rester vigilant, exigeant, mais à ce stade, ne boudons pas notre plaisir, et soyons positifs », a-t-il déclaré.

« C’est un beau moment d’espoir pour la France, un projet qui permet de se mettre en disposition pour entrer dans l’économie de demain, dans l’économie du futur », a-t-il encore dit.

Les écologistes, eux, s’inquiétaient encore mardi soir des dispositions prévues par le projet de loi sur le nucléaire qui, de leur avis, ne sont pas assez précises pour garantir que la part du nucléaire sera bien baissée à 50% de la production électrique en 2025, contre 75% aujourd’hui.

« C’est important, j’entends bien que c’est important, c’est même un dogme pour certains », a réagi Nicolas Hulot, mais « ça se fera par le force des choses, donc ce n’est pas la peine d’être crispé là-dessus, parce qu’à partir du moment où vous allez développer les énergies renouvelables et baisser notre consommation, mécaniquement, le nucléaire va baisser ».

Nicolas Hulot a néanmoins appelé à « être très vigilant sur les décrets d’application » et la nécessité d’avoir « un calendrier pour qu’ils ne se perdent pas dans la nuit des temps ».

« C’est important aussi dans le détail, de voir comment on va financer tout cela », a-t-il ajouté.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Eugène Goostman a-t-il vraiment réussi le test de Turing ?

« Cet événement entrera dans l’histoire ». C’est ainsi que Kevin Warwick, organisateur du test, évoque la réussite d’Eugène. Ce garçon de treize ans, originaire d’Odessa (Ukraine) vient de passer avec brio le test de Turing. Il s’agit d’un test visant à évaluer la capacité d’une machine à se faire passer pour un humain. Organisé par l’Université anglaise de Reading, le test s’est déroulé à la Royal Society de Londres, le jour du soixantième anniversaire de la mort d’Alan Turing, mathématicien brillant ayant participé au déchiffrement d’Enigma et inventeur du test. 5 programmes informatiques ont dû dialoguer par clavier interposé avec plusieurs juges tout ce qu’il y a de plus humains. Cependant, ces derniers ne savaient pas s’ils dialoguaient avec une machine ou non. A l’issu des 5 minutes de tchat, 33% des juges ont déclaré qu’Eugène Goostman était de nature humaine. A tort. Or, d’après Kevin Warwick, une proportion supérieure au seuil de 30% est censé valider la réussite du test. Une machine aurait donc réussi  pour la première fois à se faire passer pour un homme. De quoi enflammer la toile et faire le buzz.

Oui mais. Car il y a un mais. Cette prouesse n’en serait finalement pas une. Tout d’abord, on ne connait pas le nombre de juges, l’article scientifique relatant le test n’est pas encore paru et aucune copie des conversations n’a été rendue publique.  Ensuite, le profil même d’Eugène est sujet à controverse. D’une part il s’agit d’un enfant de seulement treize ans, donc à la sémantique pas forcément parfaite, d’autre part l’anglais n’est pas sa langue maternelle. Deux particularités qui pourraient justifier auprès des juges d’éventuelles fautes de syntaxe ou de langages, induisant une indulgence qui vient biaiser l’interprétation des résultats. Ajouté à cela la réputation sulfureuse de Kevin Warwick, personnalité contestée car habituée des coups de com’.

Malgré ces réserves et dans l’attente d’en savoir plus, cet essai  témoigne de la progression des machines et des programmes informatiques dans leur capacité à mimer l’être humain et sa pensée. Et de la volonté des hommes de créer des machines à leur image.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Bouygues va supprimer 1500 postes

Bouygues Télécom est K.O. Éreinté par la bataille pour tenter de prendre possession de SFR face à Numéricable, essoré par la guerre des prix très agressive imposée par son concurrent Free, l’échec des négociations pour se faire racheter par Orange ou Free laisse cet opérateur téléphonique agonisant, à l’avenir plutôt sombre. Bouygues Télécom n’a plus le choix, il doit se restructurer et procéder à des réformes en profondeur. Son PDG, Olivier Roussat, vient donc d’annoncer un plan de restructuration à la hauteur de l’enjeu. 1516 postes vont être supprimés, ce qui représente près de 17% des effectifs. Ces suppressions de postes devraient impacter principalement le marketing ainsi que l’informatique. Cette coupe sévère dans l’emploi s’ajoute aux 550 postes déjà disparus suite à un plan de départs volontaires.  Mais cette fois, sous la pression d’importantes  difficultés financières, les seuls départs volontaires pourront ne pas suffire et des licenciements pourraient intervenir.

A la réduction des dépenses s’ajoute une refonte du business model de l’opérateur. Ainsi, les offres dans le secteur de la téléphonie mobile vont être simplifiés, la centaine de variantes actuelles étant trop compliquée pour le consommateur qui a du mal à s’y retrouver. Côté téléphonie fixe, Bouygues va intensifier son attaque sur l’offre couplée téléphone + internet + télévision, une branche qui offre encore des marges très confortables.

Ce plan doit permettre d’économiser 300 millions sur les coûts d’ici 2016. Plus largement, l’évolution du mode de fonctionnement de Bouygues télécom doit générer des économies d’un milliard par an. « Nous sommes capables de recréer à un horizon de deux, trois ans les conditions dans lesquelles nous étions jusqu’en 2012. C’est ça notre objectif » a déclaré Olivier Roussat à l’agence de presse Reuters.

Néanmoins, à long terme, la survie de Bouygues télécom en solo sur un marché à 4 opérateurs est plus qu’incertaine. Orange et Iliad, la maison mère de Free en ont bien conscience et restent en embuscade pour un éventuel rachat. D’ici là, chacun tente des coups de com’ et sort les muscles. Orange affiche un air ostensiblement désinvolte, tandis que Free ose des propositions très en deçà des attentes de Bouygues. L’agence Bloomberg et Les Echos croient savoir que Xavier Niel aurait fait une offre à 4 milliards d’euros, quand Bouygues chiffre sa cession à 8 milliards. 

Par Audrey Loubens, journaliste scientifique

Nouvelle France industrielle: cinq nouveaux plans examinés

Le quatrième comité de pilotage se penche sur les plans « Industries du bois », « Rénovation thermique des bâtiments », « Hôpital numérique », « Dispositifs médicaux et équipements de santé », « Objets connectés ».

Au total, 21 plans auront ainsi été adoptés depuis la mi-mars sur les 34 du programme. Deux derniers comités de pilotage, prévus début juillet, valideront les feuilles de route restantes, a-t-on précisé au ministère de l’Economie.

A l’occasion des comités de pilotage, les chefs de projets –issus en général du monde industriel— présentent leur feuille de route comportant un calendrier et des actions concrètes, dans le domaine public et dans le secteur privé. Les 34 plans visent à préparer les produits de demain dans des domaines où les industriels français sont performants et peuvent prendre des parts de marché.

Le ministre de l’Economie Arnaud Montebourg présidera le comité de pilotage auquel participera aussi le ministre de l’Agriculture Stéphane Le Foll.

Deux des plans examinés mercredi tournent autour de projets liés à la construction.

Le plan « Industries du bois » se donne pour objectif de parvenir à construire en France un immeuble de 30 étages en bois d’ici 2030. Une première étape sera la construction de 5 à 10 immeubles de moyenne hauteur (7 à 15 étages) à l’horizon 2017.

Le programme « Rénovation thermique des bâtiments » vise à mettre en place une offre de rénovation énergétique à des coûts maîtrisés accessibles aux ménages, pour passer de 200.000 rénovations par an actuellement à 500.000 rénovations par an. A la clé, 75.000 créations d’emplois sont attendues.

Dans le domaine de la santé, le plan « Hôpital numérique » veut proposer de meilleurs soins aux patients en utilisant les outils du numérique et la télésurveillance. L’amélioration de la coordination des soins doit permettre de pouvoir traiter 700.000 cas très complexes en 2020.

Le projet dédié aux « dispositifs médicaux et nouveaux équipements de santé » doit permettre d’appuyer le développement des start-up et de consolider les PME dans un marché estimé à 300 milliards d’euros au niveau mondial avec une croissance de 4 à 5%.

Enfin, le plan « Objets connectés » répond à l’ambition de « construire la France des objets communicants » et de garder une place de leader dans ces technologies. Le projet prévoit la mise en place dès 2014 d’une « Cité de l’objet connecté » à Angers.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Vénus express, un dernier freinage avant de mourir

La sonde Vénus express est à bout de souffle. Ou plus précisément, bientôt en panne sèche. En effet, elle a bientôt consommé l’intégralité de son carburant, se trouvant de facto condamnée. A sec, la sonde ne pourra plus maintenir son orbite elliptique ni accumuler les observations censées permettre de comprendre comment son atmosphère a évolué de façon si différente que celle de la Terre, les deux planètes étant considérées comme similaires.

Lancée il y a 9 ans, la sonde est équipée de sept instruments de mesure qui ont permis de réaliser un certain nombre d’analyses du sol et de l’atmosphère de notre étoile du berger. Grâce à Vénus express, les astronomes ont pu reconstituer une cartographie en 3D des vents vénusiens, ont détecté une possible activité géologique et ont pu observer des émissions aurorales.

Avant d’être hors service, la sonde rempile pour tester une technique de freinage, l’aérobreaking. Vénus express va être amenée à 130 km de Vénus. Une fois si proche, la sonde va plonger au cœur de l’atmosphère vénusienne. Les physiciens pourront alors étudier comment les couches successives de l’atmosphère freinent la sonde. L’idée est de savoir si un engin spatial pourrait, dans un futur peut être pas si lointain, atterrir sur une planète en utilisant un système de freinage de ce type, plutôt que d’utiliser des aérofreins, ce qui est très gourmand en carburant.

La première descente s’effectuera le 18 juin, et cette phase d’étude durera jusqu’au 11 juillet. En cas de succès, la sonde continuera ses observations de Vénus jusqu’à ce qu’elle ait consommé la totalité de son carburant. En cas d’échec, Vénus express aura été sacrifiée sur l’autel de la connaissance un peu plus tôt que prévu. Paix à ses boulons.

Découvrez la simulation de ce freinage à haut risque :

Par Audrey Loubens, journaliste scientifique

Amazon prépare la sortie de son smartphone 3D

Une vidéo de 50s montrant des utilisateurs s’extasiant sur un objet mystère alimente la rumeur : Amazon va proposer son propre smartphone. Et pas n’importe quel modèle puisqu’il s’agit d’un téléphone avec une interface 3D. Doté de six capteurs photos, ce smartphone serait capable de projeter des éléments en 3D en suivant les mouvements de tête de l’utilisateur. Celui-ci pourra ainsi visualiser les informations en 3D, sans avoir à s’équiper de lunettes. Certaines commandes de l’appareil déjà surnommé le Kindle Phone, pourront s’activer par de simples inclinaisons du téléphone. D’après le BGR, à la source des fuites sur ce smartphone, il sera possible de lire l’intitulé des icônes rien qu’en basculant le téléphone vers le bas. Parce qu’on n’est jamais mieux servi que par soi-même, une autre possibilité développée par Amazon facilitera l’acte d’achat sur sa boutique : incliner le téléphone vers le haut pendant que l’on navigue sur le site marchand Amazon affichera les commentaires clients des différents produits.

Sur un plan technique, le petit dernier d’Amazon aura un écran de 4,7 pouces et sera équipé d’une puce quadruple cœur Qualcomm Snapdragon et doté de 2G de mémoire vive.  L’appareil photo affiche 13 mégapixels au compteur. La navigation est attendue sous une version modifiée d’Androïd, comme c’est déjà le cas pour les tablettes Kindle Fire. Amazon prévoit ainsi de supprimer les services Google pour les remplacer par ses propres services. Cela concerne la boutique de livres, les applis, les films, la musique et le streaming. Car en s’immisçant sur le marché des smartphones, Amazon a pour objectif de créer et de vendre du contenu électronique. Ce n’est pas la vente des Kindle Phone qui fera gagner de l’argent à Amazon mais bel et bien les ventes de services. 

Pour doper les ventes de son smartphone, Amazon prévoirait de proposer une Prime Data, une offre commerciale qui permet à l’utilisateur de ne pas consommer de forfait lorsqu’il surfe sur une application. Fini les dépassements de forfait, ce temps passé serait financé par le développeur.

Le Kindle Phone est attendu pour septembre, juste avant la présentation de l’iPhone 6 d’Apple. Son prix reste secret mais certains estiment qu’il pourrait être vendu à prix coutant, autour des 350 dollars.

Pour les curieux, il est possible d’assister à la conférence de lancement qui se déroulera à Seattle car elle sera accessible en ligne. Réservez vos places ici : www.amazon.com/oc/launchevent

Voici le teaser d’Amazon sur leur produit mystère :

Par Audrey Loubens, journaliste scientifique

Reach/CLP : toute l’actualité de juin 2014 1/2

Nouvelle consultation pour éviter les tests sur les animaux

02/06/2014

L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. 43 propositions sont concernées. Les informations relatives à ces substances sont à soumettre pour le 17 juillet 2014.

Rapport tri-annuel de l’ECHA sur l’utilisation d’alternatives à l’expérimentation animale pour éviter les tests sur les animaux

02/06/2014

Le second rapport tri-annuel, basé sur l’analyse de plus de 38 000 dossiers d’enregistrement (échéances de 2010 et 2013), vient d’être publié par l’ECHA, et, met en évidence une augmentation de l’utilisation des méthodes d’essais ne faisant pas appel à des animaux.

Appel à contribution – Restriction

03/06/2014

L’ECHA a lancé un appel à contribution pour identifier les possibilités de substitution des carburants / huiles pour lampes décoratives et allume-feu liquides étiquetés R65 ou H304. Les éléments sont à soumettre avant le 30 août 2014.

Décision suite à l’évolution de la classification et de l’étiquetage

03/06/2014

Une décision de la Commission du 28 mai 2014 modifie les décisions 2011/263/UE, 2011/264/UE, 2011/382/UE, 2011/383/UE, 2012/720/UE et 2012/721/UE afin de tenir compte de l’évolution de la classification des substances. Cette modification est appliquée rétroactivement à compter du 1er décembre 2012, afin de garantir la continuité de la validité des critères du label écologique de l’Union Européenne aux détergents pour lave-vaisselle, détergents textiles, détergents pour vaisselle à la main, nettoyants universels et nettoyants pour sanitaires, détergents pour lave-vaisselle automatiques industriels ou destinés aux collectivités et détergents textiles à usage industriel ou destinés aux collectivités.

Nouvelle proposition de classification et d’étiquetage harmonisé

04/06/2014

L’ECHA a lancé une consultation pour l’harmonisation et l’étiquetage harmonisé d’une nouvelle substance (pirimicarb (ISO); 5,6-dimethyl-2-dimethylamino-pyrimidin-4-yl N,N-dimethylcarbamate). Les parties intéressées sont invitées à soumettre leur commentaire sur le site de l’ECHA, et ce avant le 21 juillet 2014.

Modification de l’outil Chesar

04/06/2014

L’évaluation de la sécurité chimique et l’outil de reporting (Chesar) de l’ECHA a été mis à jour pour inclure des estimations de l’exposition des consommateurs sur des SCEDs, ensembles de données développés par des associations de l’industrie que les déclarants peuvent utiliser pour estimer l’exposition des consommateurs à une substance.

Nouvelle consultation pour éviter les tests sur les animaux

05/06/2014

L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. 7 propositions sont concernées. Les informations relatives à ces substances sont à soumettre pour le 21 juillet 2014.

Modification du règlement CLP

06/06/2014

Le règlement européen N°605/2014 de la Commission du 5 juin 2014 modifie, aux fins d’ajouts de mentions de danger et de conseils de prudence en langue croate et aux fins de son adaptation au progrès scientifique et technique, le règlement (CE) n°1272/2008 du Parlement européen et du Conseil relatif à la classification, à l’étiquetage et à l’emballage des substances et des mélanges.

Adoption d’avis de classification et d’étiquetage harmonisé

11/06/2014

Lors de sa 29ème réunion du 2 au 6 Juin, le comité d’évaluation des risques (RAC) a adopté sept avis de classification et d’étiquetage (CLH) harmonisée. Les substan,ces concernées sont : bupirimate (ISO, 1-methyl-2-pyrrolidone (NMP), propylene oxide, glutaraldehyde, tinuvin 123, flumioxazin, 1,2-dichloropropane PDC.

Publication de la newsletter de l’ECHA

12/06/2014

L’ECHA vient de publier sa dernière newsletter.

Par Céline GABORIAUD, Ingénieur Environnement aux Ateliers d’Orval

Et aussi dans les
ressources documentaires :

De l’intérêt de bien définir son cahier des charges avant une formation en intra

Retour sur une mission de formation réalisée par une experte du réseau TI chez un de nos clients.

essaiMireille Defranceschi est experte en matériaux (plus spécifiquement pour les applications énergétiques), formatrice du réseau Techniques de l’Ingénieur. Elle a récemment animé chez un de nos clients, filiale d’un grand groupe spécialisé dans la certification, une formation relative aux batteries électriques. « Nous sommes un laboratoire spécialisé en essais électriques sur contacteurs, matériaux électriques, etc. Notre travail, c’est l’aspect électrique des batteries : charge, décharge et sécurité. L’intérêt de cette formation, c’était de connaître leur fonctionnement interne, l’électrochimie » explique Martin Verdot*, commanditaire de la formation, et participant à celle-ci.

« Nous n’avons pas trouvé de formation semblable ailleurs »

Son choix s’est porté sur Techniques de l’Ingénieur pour deux raisons, « Nous n’avons pas trouvé de formation semblable ailleurs, et nous connaissions déjà Techniques de l’Ingénieur pour formationavoir participé à la rédaction d’articles de leurs bases documentaires », poursuit-il. C’est ainsi que Mireille Defranceschi s’est rendu pour deux jours auprès de M. Verdot et son équipe, afin de leur expliquer physique et chimie des matériaux composant les différents types de batterie : plomb, nickel, lithium, etc. « C’était intéressant car varié, et nous a permis de mieux appréhender les comportements des batteries ». Une satisfaction que Madame Defranceschi explique pour une raison simple : « C’était un cours à la demande selon un cahier des charges très précis. Nous n’avons pas pu tout aborder, mais nous restons en contact, il y a un suivi d’établi. Mais le gros avantage, c’est que la personne ayant rédigé le cahier des charges participait à la formation. Elle avait donc parfaitement posé le problème, alors que lorsque le commanditaire n’est pas lui-même concerné par la formation, il y a parfois un décalage entre les attentes des stagiaires et le programme, et donc une déception de leur part ».

Avis aux commanditaires donc : à défaut de participer vous-mêmes à toutes les formations que vous organisez, pensez à associer les participants à la rédaction du cahier des charges à destination du formateur.

*Le nom a été changé

Les pays émergents restent le moteur de la consommation d’énergie

« La demande mondiale d’énergie s’est accélérée en 2013, mais, reflétant la faiblesse de l’économie planétaire, sa croissance, à 2,3% (contre 1,8% en 2012, ndlr), est restée légèrement en-dessous de la moyenne historique », fixée à 2,5%, a souligné le géant pétrolier britannique, dans son étude annuelle sur l’énergie, dévoilée lors du 21e Congrès pétrolier mondial à Moscou.

Parmi les principales tendances, la consommation d’énergie des pays émergents a pourtant ralenti, à 3,1%, plombée par le ralentissement économique chinois. En parallèle, celle des pays de l’OCDE, s’est redressée à 1,2%, mais ceci est dû uniquement à un bond de 2,9% aux Etats-Unis, qui a masqué des déclins respectifs de 0,3% et 0,6% dans l’Union européenne et au Japon.

Mais malgré cette réduction de l’écart entre les pays émergents et développés, « les économies émergentes continuent à dominer la croissance de la demande mondiale d’énergie, et ont représenté 80% de cette croissance l’an dernier et près de 100% au cours des 10 dernières années », souligne BP.

C’est la première fois que l’étude annuelle de BP était présentée à l’étranger, depuis son lancement il y a 63 ans par la compagnie pétrolière britannique. Cette bible des milieux énergétiques compile des données sur la consommation et la production de toutes les sources d’énergies, des hydrocarbures aux énergies alternatives, pays par pays.

En matière de production, l’étude souligne que « l’augmentation de la production de pétrole aux Etats-Unis, entraînée par les investissements massifs dans l’extraction des formations de pétrole de schiste et autres gisements dits+compacts+ » qui nécessitent également l’emploi de la fracturation hydraulique, a compensé la chute de la production libyenne, dû au regain de violences qui secoue le pays.

« Les perturbations de la production observées en 2013 ont été contrebalancées oar des hausses continuelles ailleurs », et « cela démontre l’importance de continuer à sécuriser de nouveaux approvisionnements, en accédant à de nouvelles ressources, en encourageant l’investissement, et en apliquant les nouvelles technologies à l’échelle mondiale », a expliqué le patron de BP, Bob Dudley, venu présenter l’étude à Moscou.

fpo/gmo/jh

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Les dinosaures, des animaux à sang tiède

Pour étudier le métabolisme de ces animaux disparus il y a 65 millions d’années, ces chercheurs conduits par John Grady, un biologiste de l’Université du Nouveau-Mexique, ont non seulement analysé les anneaux de croissance annuelle des os fossilisés de plusieurs dinosaures, mais aussi l’évolution de leur taille entre la naissance et l’âge adulte.

Ils ont comparé ces résultats à une base de données portant sur 400 animaux éteints et vivants.

Ces biologistes en ont conclu que le métabolisme des dinosaures se situait entre celui des animaux ectotherme (reptiles), dont la température du corps est seulement engendrée par les échanges thermiques avec l’environnement, et ceux qui sont endothermes. Dans ce cas, la température du corps est générée par un mécanisme interne comme chez les mammifères et les oiseaux.

Les dinosaures tombaient dans la catégorie intermédiaire, dite mésotherme, plus proche de celle des thons, de certains requins et de la tortue caouanne. Bien que pas entièrement endothermes, ces animaux dépendent d’un mécanisme interne pour générer de la chaleur métabolique afin de maintenir les températures de leur corps tout en étant sujets à d’autres moments aux températures de l’environnement.

Les dinosaures avaient une physiologie qui n’est pas habituelle dans le monde d’aujourd’hui, résument les auteurs.

Les résultats de cette recherche pourraient aider les scientifiques à mieux comprendre les anciens écosystèmes de la période mésozoïque, qui a duré 185 millions d’années et durant laquelle vivaient les dinosaures. Ils pourraient aussi être utilisés pour estimer les types de métabolisme d’autres animaux de cette période qui restent encore obscures.

Les scientifiques ont débattu sur le fait de savoir si les dinosaures étaient des animaux à sang froid ou chaud depuis le moment de leur découverte, avançant dès le 19e siècle la théorie d’animaux à sang plutôt chaud en se basant sur leur physiologie.

Cette hypothèse a été confortée au fur à mesure des découvertes de dinosaures rapides et puissants comme les vélociraptors qui, pensait-on alors, devaient avoir le sang chaud pour brûler autant d’énergie.

Selon les auteurs de cette dernière recherche, le fait d’avoir un métabolisme intermédiaire, ni trop rapide ni trop lent, a permis aux dinosaures de devenir beaucoup plus grand que tout autre mammifère et de s’imposer dans l’écosystème.

Les animaux à sang chaud ont un métabolisme qui nécessite de manger beaucoup, les forçant à chasser fréquemment ou à mâcher souvent des plantes s’ils ne sont pas carnivores.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Infos TI, troisième !

Vous avez été nombreux a télécharger les deux premiers numéros de la lettre Infos TI, qui donnent la parole aux experts, formateurs, auteurs, et clients de Techniques de l’Ingénieur.

Le troisième numéro est lui aussi désormais disponible en téléchargement, avec de nouvelles informations concernant nos ressources documentaires, nos formations, ou notre activité de conseil.

Découvrez ainsi deux domaines de l’ingénierie qui seront dorénavant explorés plus en profondeur dans notre nouvel univers Biomédical – Pharma : l’ingénierie biomédicale et les spécificités des médicaments et des produits pharmaceutiques. Mais aussi : le rachat par la maison mère Weka de Comundi, acteur majeur de la formation professionnelle en France ; l’application Techniques de l’Ingénieur pour iPad et notre partenariat avec l’École Centrale Paris Executive Education.

Bonne lecture !

DODO recycle les bouteilles en plastique de VITTEL pour garnir ses couettes

Exit le pétrole de nos lits ! Désormais, nous dormirons bien au chaud sous une couette en polyéthylène téréphtalate (PET) recyclé. C’est le projet novateur du spécialiste en couettes et oreillers DODO. Son service R&D a réussi à fabriquer une fibre creuse siliconée aux propriétés équivalentes à une fibre standard. Sa particularité ? Elle est réalisée à partir de plastique recyclé.

Pour sortir du laboratoire et industrialiser le procédé, il fallait absolument à DODO un solide fournisseur en PET. Bien que l’offre en PET soit insuffisante pour répondre aux multiples besoins français, DODO a trouvé son partenaire en la personne de VITTEL. Une association logique tant VITTEL est déjà investi dans le recyclage du PET via notamment un partenariat avec Bic pour la création du Styl’eau, un stylo bille à 80% en PET recyclé. Une nouvelle association qui confirme VITTEL dans sa position d’expert de l’upcycling (rien ne se perd, tout se transforme).

Les deux acolytes ont vite compris comment s’associer. VITTEL fournit ses rebuts de production de bouteilles en PET, c’est-à-dire toutes les bouteilles non conformes aux standards de qualité. Ces dernières sont transformées en paillettes puis en fibres polyester par Wellman France Recyclage. Les fibres recyclées sont ensuite livrées à DODO qui les utilise pour garnir ses propres produits. 5,5 bouteilles d’1,5L permettent de fabriquer un coussin de voyage, 17 bouteilles suffisent pour un oreiller 60×60 cm, et il ne faut pas moins de 58 bouteilles PET VITTEL pour réaliser une couette de 220×240 cm. Cette nouvelle gamme de couettes, coussins et oreillers à base de PET recyclé permet une réduction de 70% des émissions de CO2.

Sous l’appellation de Eau’DODO, ce sont des milliers de couettes, oreillers et coussins de voyages qui seront produits en 2014.

Par Audrey Loubens, journaliste scientifique

Et aussi dans l’actualité :

La Nasa prête à lancer un satellite pour mesurer le CO2 dans l’atmosphère

Ce gaz a atteint son niveau le plus élevé depuis au moins 800.000 ans.

Le satellite, Orbiting Carbon Observatory-2 (OCO-2), est très similaire à l’OCO-1, détruit lors de son lancement en février 2009.

Il permettra de fournir une image plus complète et plus globale des émissions humaines et naturelles de CO2 ainsi que des puits de carbone comme les océans et les forêts qui absorbent et capturent ce gaz.

« Le dioxyde de carbone dans l’atmosphère joue un rôle essentiel dans l’équilibre énergétique de notre planète et est un facteur clé pour comprendre comment notre climat change », explique Michael Freilich, directeur de la division science de la Terre de la Nasa.

« Avec la mission OCO-2, la NASA va apporter une contribution importante aux nouvelles observations du globe pour relever le défi scientifique d’une meilleure compréhension de notre planète et de son devenir », ajoute-t-il dans un communiqué.

Le satellite OCO-2 sera lancé par une fusée Delta 2 de la société United Launch Alliance depuis la base aérienne de Vandenberg, en Californie, pour être placé sur une orbite presque polaire à 705 kilomètres d’altitude.

Il deviendra le principal observatoire d’une flotte de cinq autres satellites internationaux qui tournera autour de la Terre toutes les 99 minutes pour effectuer un ensemble d’observations quasi simultanées.

OCO-2, dont la mission doit durer au moins deux ans, effectuera des mesures d’échantillons des sources d’émission de CO2 et des puits de carbone sur l’ensemble du globe pour permettre aux scientifiques de mieux étudier les changements qu’avec les données actuelles.

En avril les concentrations mensuelles de dioxyde de carbone dans l’atmosphère ont dépassé 400 parties par million (ppm) dans tout l’hémisphère Nord, soit le plus haut niveau depuis au moins 800.000 ans, relève la Nasa.

La combustion des carburants fossiles (hydrocarbure, gaz naturel et charbon) et les autres activités humaines émettent près de 40 milliards de tonnes de CO2 dans l’atmosphère chaque année, produisant une accumulation sans précédent de ce gaz à effet de serre.

Les climatologues ont conclu que l’accroissement des émissions de CO2 résultant des activités humaines, surtout la combustion de combustibles fossiles et la déforestation, ont modifié l’équilibre du cycle naturel du carbone de la Terre, entraînant une montée des températures et un changement du climat terrestre.

Actuellement, moins de la moitié du CO2 émis par les activités humaines reste dans l’atmosphère, selon les scientifiques.

Une partie du reste est absorbée par les océans mais les puits de carbone terrestres n’ont tous été localisés et restent encore mal compris, expliquent-ils.

Les mesures des niveaux de CO2 qui seront effectués par OCO-2 seront combinées aux données fournies par des stations d’observation terrestres, des avions et d’autres satellites, précise la Nasa.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Futur en Seine 2014 : Le Village des Innovations, au CNAM et à la Gaîté-Lyrique

Pour son cinquième anniversaire, le festival du numérique Futur en Seine s’apprête à investir le quartier parisien des Arts et Métiers (un symbole qui ne doit rien au hasard), pour y implanter son désormais célèbre et très couru « Village des Innovations », un salon où seront exposés près de 160 innovations numériques françaises et internationales, ainsi que de nombreux projets et prototypes, alliant le plus souvent technologies, services et design. Le festival, dont l’ambition avouée est de « montrer qu’il existe véritablement une économie innovante active et ancrée dans la réalité avec des applications au service de chacun », a su s’imposer d’année en année comme un événement absolument incontournable pour les professionnels du numérique, comme pour le grand public.

Quittant pour la première fois la nef douillette du CENTQUATRE, c’est le CNAM (Conservatoire National des Arts et Métiers, seul établissement d’enseignement supérieur français entièrement dédié à la formation des adultes) et la très hype Gaîté-Lyrique qui reprennent cette année le flambeau en accueillant du 12 au 15 juin, ce fameux Village des Innovations. Les projets exposés seront répartis selon dix thématiques : faire, collaborer, éducation, musique, tout connecté, design, ville, loisirs et culture, data, santé.

Petit tour d’horizon – non exhaustif – des forces en présence dans ce véritable « village ».

Au CNAM

  • The Slate est une surface sensitive et perceptive qui transforme les objets de notre quotidien, leur permettant d’interagir avec le monde numérique. Cette surface, développée par iSketchnote, est capable de numériser la « trace manuscrite » à partir d’une (vraie) feuille de papier et d’un (vrai) stylo, tous deux dénués de toute trace d’électronique ;

  • « Eye-tracking For a multi-screen World », de Matchic Labs, aide les développeurs à détecter les défauts de leurs applications mobiles, en se basant sur les fixations visuelles des utilisateurs, grâce à sa technologie innovante d’eye-tracking en mobilité réelle ;

  • InoTable, table tactile communicante, convertible et évolutive, offre la possibilité de virtualiser les appareils mobiles connectés avec leurs contenus, afin d’offrir un nouveau mode de travail collaboratif à des utilisateurs – soit sur site, soit sur des sites distants – via des fonctionnalités telles que la vidéo conférence, la réalité augmenté ou la reconstitution 3D et son intégration dans un environnement virtuel. Ce sont les Français de Streamotions qui sont à l’origine du projet, en partenariat avec Microsoft ;

  • CAPT’R est un prototype d’application de réalité augmentée embarquant une nouvelle technologie de gestion d’environnement en trois dimensions. Le but est d’aider les architectes en herbe ou les particuliers à obtenir un modèle 3D simplifié d’une pièce et de l’ensemble des cotes (détection des arrêtes dans le maillage après filtrage et simplification), grâce à la numérisation assistée depuis une tablette équipée d’un capteur et munie d’une interface intuitive. CAPT’R est un projet porté par Levels3D et par l’université de Troyes ;

 

  • « Tell my city », des Français de Spallian, est une application citoyenne disponible sur smartphone, permettant à tout un chacun de signaler un dysfonctionnement, suggérer une idée ou encore féliciter une initiative municipale ;

  • Digital Object On Demand (DOOD) est un jeune bureau d’études mécaniques souhaitant démocratiser l’impression 3D en développant « Digital Object Maker », une imprimante 3D d’assez grand format (80*80*80 cm) open source et « made in France » ;

 

  • Pour les technophiles imbus de leur personne, terminons avec « Shapify » des Luxembourgeois d’Artec Group, qui est un service de scanner et d’impression 3D qui permet de réaliser des reproduction de soi de taille réduite et en trois dimensions, inaugurant l’ère du « selfie 3D ».

 

A la Gaîté-Lyrique

  • Les Montpelliérains de Budget Télécom proposent, avec Qinergy, une solution simple et innovante d’efficacité énergétique résidentielle, en accompagnant les foyers vers une consommation électrique raisonnée, leur permettant de maîtriser leur facture en temps réel. Seule la pose d’un capteur sur le compteur électrique suffit, permettant de mesurer la consommation globale et appareil par appareil, quel que soit le type de compteur ou le fournisseur d’électricité. L’ensemble des informations est présentée de manière claire et ludique ;

  • Datanoos est une plate-forme d’information et de communication complète, ouverte pour le partage des données de consommation tout en révolutionnant l’économie de publicité », avouant avoir pour mission de rendre au consommateur la maîtrise de ses données de consommation ;

  • Etalab, mission chargée de l’ouverture des données publiques et du développement de la plate-forme française Open Data ;

 

  • Les Russes de Triaxes présenteront leur petit bijou, Autostereoscopic 3D TV, un modèle de télévision 3D sans lunettes ;

 

  • Enfin, le projet EAST sera présenté, projet ayant pour objectif de « faciliter la production d’environnements d’apprentissage scientifiques et techniques à partir du patrimoine numérique industriel, et notamment des « assets » 3D des entreprises ».

 

  • Le Village des Innovations, du 12 au 15 juin au CNAM et à la Gaîté-Lyrique, dans le cadre du festival Futur en Seine.

Par Rahman Moonzur

Pourquoi les oiseaux volent en V ?

Pour arranger nos affaires, les scientifiques aussi se le sont demandé: pourquoi les oiseaux volent en V. Ils ont émis deux hypothèses. La première est que la formation en V est naturellement efficace d’un point de vue aérodynamique. Ils ont mis en parallèle les groupements d’avions militaires, qui pour épargner du carburant en profitant d’un phénomène d’aspiration, adoptent cette position. 

La deuxième possibilité est que les oiseaux ont un leader capable de les guider. Mais cela n’a pas encore été prouvé et l’on pourrait tout aussi bien conjecturer qu’un oiseau est capable d’endosser n’importe quel rôle selon son placement au sein de la formation.

Une étude anglaise, publiée récemment sur le site Nature, conforte plutôt la première hypothèse. L’étude en question relate les expériences du physiologiste Steven Portugal, du Royal Veterinary College de Hartfield, sur des ibis, ces grands échassiers à long cou. 

Ce qui s’est passé est simple. L’équipe de Steven Portugal a doté 14 jeunes ibis chauves (Geronticus eremita) de capteurs miniaturisés conçus par leurs soins. La chance a voulu que ces ibis fassent partie d’un projet de réintroduction, conduit par le biologiste Johannes Fritz. Les oiseaux ont ensuite été guidés de l’Autriche jusqu’en Italie par un petit avion – ce que l’on appelle « migration dirigée ». 

Durant ce périple, les capteurs ont enregistré la position entretenue par chaque oiseau à l’intérieur du V. Plus tard, les données tirées du GPS couplé à celles de L’accéléromètre, qui lui, a servi à compter les battements d’ailes ainsi que leurs cadences, ont été analysées. Elles ont permis aux scientifiques d’en déduire que les ibis saisissent les courants porteurs et optimisent leur énergie. Cela indique qu’ils se placent à une distance adéquate de leurs congénères afin de profiter de ce fameux phénomène d’aspiration et qu’ils synchronisent leurs battements d’ailes. 

Le vol d’un ibis serait donc calculé et confirmerait l’hypothèse du modèle aérodynamique. Pour Steven Portugal « il est impressionnant de voir à quel point ils sont conscients de la position de chacun de leurs compagnons de vol, et de ce que font les autres oiseaux ». Loin de révéler tous les mystères de ces grands oiseaux, cette découverte donne simplement quelques clés comportementales que les chercheurs auront sûrement à coeur d’étudier davantage, et sur d’autres espèces plus courantes (le pigeon par exemple).

Par Sébastien Tribot, journaliste scientifique

6 choses extraordinaires qui se cachent sous terre

Pour commencer, est ce que vous saviez que si vous êtes propriétaire d’un terrain, vous en possédez le sous-sol jusqu’au centre de la Terre ? C’est ce que stipule l’article 552 du code civil, quand il dit que « La propriété du sol emporte la propriété du dessus et du dessous ». En clair, vous êtes propriétaire d’une carotte d’environ 6000 km. C’est pour ça qu’en France, quand un nouveau métro est construit, il faut d’abord racheter les tréfonds aux propriétaires, même si les travaux se déroulent très en dessous de la surface.

Une question qu’on peut se poser, c’est : « Jusqu’où s’est-on déjà rapproché du centre de la terre ? » Nous l’avons vu, le noyau terrestre se trouve à 6000 km de profondeur environ. Et on est loin de l’avoir atteint. Le forage le plus profond jamais creusé par l’homme est le forage SG3, qui fut creusé dans la péninsule de Kola, en Russie. Les travaux commencèrent en 1970, et l’objectif était de traverser la croute terrestre, dont l’épaisseur moyenne est d’environ 30 km. Finalement, pour diverses raisons techniques et politiques, le forage s’arrêta à 12 km de profondeur, après 19 ans d’efforts. Ça signifie que non seulement on est encore très loin du centre de la Terre, mais qu’on est même loin d’avoir traversé la croute elle-même. Le forage de Kola a tout de même permis d’en apprendre beaucoup sur la composition du sous-sol. On sait par exemple qu’à cette profondeur, les roches atteignent une température d’environ 300°.

Nous avons parlé de la plus profonde cavité artificielle, mais quelle est la plus profonde cavité naturelle ? Ce titre revient au gouffre de Krubera Voronja, qui fut découvert dans les années 60 en Abkhazie. Sa profondeur est pour le moment établie à 2197 m, mais les tréfonds du gouffre continuent à être explorés par de nombreuses équipes. En 2010, la cavité est devenue la scène d’un autre record, quand des chercheurs ont découvert une nouvelle espèce d’arthopode vivant à 1980 de profondeur : le Plutomurus ortobalaganensis. Il s’agit de l’animal le plus profondément enfoui sous Terre que l’on connaisse.

Pour en revenir au code civil, en France,  vous êtes donc propriétaire de votre sous-sol jusqu’au centre de la Terre, mais pas si on y trouve du pétrole. Non. Là ça appartient à l’état. En revanche, si vous trouvez un trésor dans votre jardin, il est tout à vous. A condition de l’avoir trouvé par hasard, et de ne surtout pas oublier d’en informer les autorités. Sinon, c’est considéré comme du vol.

Beaucoup de trésors prestigieux ont été découverts sous terre, mais le plus important est sans conteste celui du temple de Sree Padmanabhaswamy, en Inde. C’est en explorant les souterrains du temple en 2012 que des chercheurs ont trouvé des tonnes de bijoux, de pièces d’or et de pierres précieuses cachés dans des chambres secrètes. Il s’agissait principalement d’offrandes au Dieu Vishnou qui attendaient là depuis des siècles. Le montant du trésor est estimé à plus de 15 milliards d’euros, ce qui dépasse largement le PIB du Kerala, l’état dans lequel se trouve le temple. A noter que sur les 6 chambres découvertes, l’une d’elle, la chambre B, n’a toujours pas été ouverte. Elle est scellée par une porte de fer ornée d’un cobra, et d’après les croyances locales, son ouverture pourrait déclencher une terrible malédiction divine.

Mais le sous sol cache aussi parfois des trésors plus inattendus, comme une cité égyptienne enfouie… dans un désert de Californie. En 1923, le cinéaste Cecil B De Mille réalisa une version muette des 10 commandements. Il embaucha 1500 ouvriers pour construire une cité des pharaons dans les dunes de Guadalupe Nipomo, au milieu de la côte californienne. La construction dura 6 semaines, et elle comprenait notamment un temple de 36 m de haut, 4 statues de plus de 10 m, et 21 sphinx de 5 tonnes chacun. Le décor était si colossal qu’a la fin du tournage, De Mille n’avait plus le budget nécessaire pour le transporter ailleurs. Il décida donc de faire venir des bulldozers pour pousser sa cité dans un fossé de 100 m de long, avant de la recouvrir de sable. Dans son autobiographie, le réalisateur écrivit : si dans 1000 ans les archéologues creusent sous les dunes de guadalupe, j’espère qu’ils ne croiront pas que la civilisation égyptienne s’est étendue jusqu’à la cote ouest de l’amérique. »

En ce qui concerne les trésors naturels, ils sont nombreux sous terre, comme les grottes de Waitomo, en Nouvelle Zélande, dont les parois sont illuminées par des constellations de vers luisants. Ou encore la grotte de Hang Son Doong au Vietnam, si immense qu’elle abrite sa propre jungle. Mais l’une des merveilles souterraines les plus fascinantes est sans doute la mine de Naica, au Mexique,  où se trouve l’incroyable grotte des cristaux. La grotte a été découverte an l’an 2000, elle se trouve à 300 m de profondeur, et elle contient les plus grands cristaux du monde. Le plus imposant mesure 11 m de long pour 55 tonnes. Malheureusement, la grotte est interdite au public à cause de ses conditions extrêmes. Sans équipement spécial pour supporter la chaleur et le taux d’humidité, on ne peut pas y survivre plus d’un quart d’heure.

Parmi les structures souterraines les plus impressionnantes qu’on peut visiter, il y a les mines de sel. Deux en particulier : d’abord la mine de Turda, en Transylvanie, qui a été convertie en musée en 1992, et qui abrite aujourd’hui un véritable centre de loisirs à plus de 120 m de profondeur. On y trouve notamment une grande roue, et un lac souterrain sur lequel les visiteurs peuvent naviguer. La mine de Wielickza, ensuite, qui se trouve en Pologne, et qui atteint 327 m de profondeur pour près de 300 km de galeries. Cette mine contient des statues, des chapelles et une cathédrale qui ont été directement taillées dans le sel. Elle est classée au patrimoine mondial de l’UNESCO, et elle accueille plus d’un million de visiteurs par an.

L’endroit dont je vais vous parler à présent, lui, n’accueille pas de visiteurs, et si tout se passe comme prévu, il n’en recevra pas pendant les 100 000 prochaines années. Onkalo est un complexe souterrain de 500 m de profondeur qui est en cours de construction en Finlande. Son but est de recueillir tous les déchets nucléaires du pays, ce qui en fait le premier projet de ce genre. Les travaux ont commencé dans les années 70, et le stockage see poursuivra jusqu’au début du 22ème siècle, période à  laquelle la cavité sera remblayée et scellée. Ensuite, elle devra contenir les déchets jusqu’à ce qu’ils ne soient plus toxiques, c’est-à-dire pendant au moins 100 000 ans. Cette durée dépasse de très loin toutes les constructions humaines jamais créées, à titre de comparaison, les pyramides d’égypte n’ont que 5000 ans. C’est une durée si vertigineuse qu’elle pose même des questions inédites aux scientifiques : par exemple, si l’humanité disparait avec ses langages et ses connaissances, comment faire comprendre à nos lointains successeurs qu’il ne faut pas entrer dans la structure ? Un film consacré à Onkalo est sorti en 2010. Il s’appelle Into Eternity, et c’est sans doute un des documentaires les plus fascinants de ces dernières années.

Par Patrick Baud, blog Axolot

Des riches Chinois s’arrachent des billets pour l’espace

En tout 305 candidats se sont inscrits en quelques minutes à l’un des vols privés proposés par la société néerlandaise SXC sur le site de commerce en ligne Taobao, a précisé le journal China Daily.

Parmi eux figurent des hommes d’affaires originaires de métropoles économiques comme Shanghai ou Chengdu, a ajouté le quotidien.

Les vols spatiaux se feront dans une navette à deux places — le pilote astronaute et un passager unique — dont deux versions sont prévues: le « Lynx Mark I » atteindra une altitude de 61 km et le « Lynx Mark II » une altitude de 103 km.

Les vols avec la première navette, vendus au prix de 599.999 yuans (71.000 euros), sont prévus pour le quatrième trimestre 2015. Le laps de temps dans l’espace durera cinq à six minutes. Les passagers ayant choisi un vol dans la seconde navette devront eux attendre 2016.

Les lancements se feront depuis une base spatiale du désert de Mojave, dans l’ouest américain.

Sur son site internet, la société SXC explique avoir été fondée par des « professionnels expérimentés de l’aérospatial », qui « se consacrent au développement du voyage dans l’espace comme moyen de transport commercial ».

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Les smartphones ruinent notre capacité de concentration

Attention, drogue dure ! Que vous soyez  iPhone ou Galaxy S, votre smartphone vous rend accro. Michael Stora, psychologue clinicien n’hésite d’ailleurs pas à en parler comme d’un doudou sans fil. Aux Etats-Unis, une étude parue en 2012 révélait que 75% des personnes s’en servent aux toilettes, mais ce sont 91% de 28-35 ans qui ne le lâchent pas même aux petits coins ! Il y a pire puisque 63% des propriétaires de smartphone n’hésitent pas à répondre  quand leur téléphone les sonne en plein soulagement, et 41% vont jusqu’à appeler. A croire que les WC procurent un confort insoupçonné pour les conversations téléphoniques. Les plus pragmatiques y verront l’occasion de rentabiliser le temps… 

Cette dépendance n’est pas sans effet. Face à la quantité d’informations démesurée à laquelle notre cerveau est confronté via les smartphone, mails, sms, photos, alertes…, notre matière grise souffre. Nous devons être capables de traiter simultanément des informations de tous ordres, tâche pour laquelle notre cerveau n’est pas configuré par défaut. Cette sur-sollicitation a pour effet principal de  nuire à notre concentration. Notre temps moyen d’attention se serait effondré de 12 minutes à 5 ridicules secondes en seulement dix ans. Un effet accentué par le désintérêt croissant de devoir retenir une information, celle-ci étant disponible à tout moment via notre terminal de poche.

En outre, les textes que nous y lisons sont tellement courts que nous serions devenus incapables de lire des textes de plus de 10 pages. Sans parler des troubles du sommeil liés à l’excitation provoquée par les jeux, les images et tout simplement le visionnage d’un écran lumineux.

Mais les smartphone ne sont pas le diable pour tout le monde. La génération 2.0 qui grandit avec ces nouveaux outils numériques adapte la structure de son cerveau, optimisant le multitâches. Des chercheurs hongkongais ont ainsi prouvé que cela améliorait la capacité à traiter de nombreuses informations en s’appuyant sur l’ensemble de nos sens.

Et puis, au pire des cas, il est toujours possible de télécharger des appli pour améliorer notre mémoire ou travailler notre sevrage…

Par Audrey Loubens, journaliste scientifique

L’archival Disc: le successeur du Blue Ray

Il fut un temps où Sony affirmait ne plus vouloir développer de disque optique. Le potentiel des disques holographiques polyvalents (HVD) à très grande capacité d’enregistrement (trois téraoctets) ayant largement contribué à reconsidérer l’intérêt d’une telle démarche. Pourtant, avec son partenaire Panasonic, la firme japonnaise a annoncé en mars un successeur pour le Blue Ray: l’Archival Disc, le « nouveau standard pour les utilisations professionnelles, des disques optiques de prochaine génération ». D’une capacité d’accueil de 300 Go, le disque d’archivage devrait atteindre 1 To par la suite et pourra héberger des données pendant de longues périodes. 

Quelle nouveauté présente l’Archival Disc ?

En réalité, la technologie reste la même que celle du Blue Ray. Seul l’écart entre chaque piste a été réduit. De 0,32, il passe à 0,225 micromètre. Cette réduction explique quasiment à elle seule – avec celle de la taille des octets – l’augmentation considérable des capacités de stockage. Les disques seront enregistrables sur les deux faces.

Par conséquent, il ne sera pas nécessaire de s’équiper d’un nouveau lecteur. Une nouvelle que les détenteurs de lecteur Blue Ray accueilleront certainement avec plaisir. 

Le successeur du Blue Ray arrive-t-il trop tôt ? 

Ou autrement dit, l’ère du Blue Ray est-elle vraiment terminée ? À une époque où l’obsolescence programmée est la norme et que la durée de vie d’un produit est toujours plus courte, la question peut sembler étrange. En effet, de nouvelles versions de logiciels/ordinateurs/smartphones défilent à un rythme trépidant. Inutile de s’étendre là-dessus.

D’un point de vue statistique, le Blue Ray n’a jamais détrôné le DVD et n’a pas pleinement eu son heure de gloire. Il suffit de regarder les chiffres du grand institut d’études de marché et d’audit marketing allemand Gfk (Gesellschaft Für Konsumforschung) pour s’en apercevoir. En janvier 2014, par exemple, les ventes du DVD étaient 3,4 fois supérieures à celles du blue Ray.

Le disque optique est-il encore un format de stockage intéressant ?

Les disques durs atteignent désormais plusieurs To, les offres de cloud computing se répandent… L’habitude est prise de délaisser les disques optiques. Et il y a fort à parier que les services de stockage en ligne tels que Dropbox vont remplacer le support physique. 

Néanmoins, nos disques durs se remplissent de plus en plus avec de moins en moins de fichiers – si vous me permettez la formule. Films en 4K, photographies… tout cela prend beaucoup de place. Les deux géants japonais comptent bien y remédier avec l’Archival Disc qui fait donc office de solution à court terme.

Par Sébastien Tribot

La NASA travaille sur un nouveau système de freinage pour vaisseau spatial

Alors que l’Académie des sciences vient de publier un rapport concluant à l’échec des missions pour Mars (pour des raisons économiques, les budgets alloués seraient très nettement insuffisants), la NASA continue à travailler d’arrache-pied sur les navettes spatiales. Loin d’être découragée, la NASA teste actuellement un nouveau système de freinage qui devrait permettre d’optimiser l’atterrissage sur la planète rouge. Baptisée Low-Density Supersonic Decelerator (LDSD), une soucoupe équipée d’un décélérateur va être expérimentée ces jours-ci dans le ciel d’Hawaï.

Voilà ce qui va se passer. Un ballon d’hélium va élever la soucoupe jusqu’à 36 kilomètres d’altitude. Elle sera alors lâchée pendant une seconde et demie. Puis, quatre moteurs de fusée stabiliseront la LDSD, qui sera à peine une seconde plus tard propulsée aux limites de la stratosphère, à 55 kilomètres d’altitude. Le système de freinage pourra alors être déclenché et testé.

La LDSD, qui a tout d’une « vraie » soucoupe volante extra-terrestre,  lance un décélérateur gonflable.  Dans un deuxième temps, un parachute supersonique géant, le plus grand jamais construit, se déploie pour la ralentir et faciliter son atterrissage. Ou plutôt, dans ce cas, son amerrissage dans l’océan Pacifique seulement 45 minutes après le lancement.

La NASA prévoit que ce décélérateur sera opérationnel dès 2018 et permettra de transporter deux fois plus de marchandises, augmentant la quantité de fret à 3 tonnes. En effet, un voyage vers Mars nécessitera d’emporter bien plus de matériels que lors d’un simple voyage sur la Lune par exemple. La masse totale sera donc plus lourde et les systèmes de freinage équipant les sondes spatiales des programmes Viking visant à positionner un satellite d’observation en orbite autour de Mars sont insuffisants.

Le premier test prévu le 5 juin a été reporté pour cause de mauvais temps. Les scientifiques disposeront d’une nouvelle fenêtre de tir le 14 juin.

Découvrez cette soucoupe volante humaine et son nouveau système de freinage :

Par Audrey Loubens

Brazuca, l’arme fatale de la coupe du monde de foot

Bien que les caractéristiques du ballon de foot soient soumises à une réglementation rigoureuse, chaque coupe du monde football possède son propre ballon. Les règles de base à respecter sont les suivantes : le ballon doit être sphérique, en cuir ou autre, avec une circonférence comprise entre 68 et 70 cm. Pour le reste, l’équipementier peut laisser libre cours à son imagination, l’innovation étant la bienvenue.

Cette année, les joueurs auront entre les crampons un petit bijou  fabriqué par Adidas et doté de nouvelles innovations, toujours dans l’objectif de favoriser la technicité du jeu. Cette année, le ballon est doté de la technologie du Tango 12 de la Ligue des Champions de l’UEFA. Le Tango 12 était le ballon utilisé pour l’Euro 2012. Ce dernier avait déjà nécessité deux années de développement par l’équipementier.

Tout comme le Tango 12 était recouvert  de panneaux triangulaires thermosoudés, un procédé qui stabilise la trajectoire, le Brazuca dispose à sa surface de six panneaux identiques recouverts  d’une structure d’accroche idéale pour le contrôle du ballon et assurer une bonne vitesse de balle. Avec ses 437g, ce ballon a passé avec succès tous les tests et s’est vu récompensé par le plus haut niveau d’approbation de la FIFA, le FIFA Approved.

Le ballon de l’édition 2014 de la coupe du monde de football est décoré suivant les formes des bracelets de la chance, des accessoires typiques du Brésil.

Le Brazuca sera utilisé pour la  première fois en match officiel le 12 juin à Sao Paulo, soit aujourd’hui ! Ce n’est donc pas le ballon utilisé lors du match France-Jamaïque qui a vu une victoire insolente des tricolores, les jamaïquains ayant été balayés 8-0.

Vous le trouvez magnifique ? Il vous faudra quand même débourser 140€ pour avoir le plaisir de taper dans la balle comme les champions !

Par Audrey Loubens

Et aussi dans l’actualité :

L’industrie spatiale visée par des hackers de l’armée chinoise

Ce piratage s’est développé après l’inculpation par les Etats-Unis en mai de cinq militaires chinois pour « piratage informatique » et « espionnage économique », a précisé Crowdstrike.

Cette unité basée à Shanghai (est de la Chine) est un « groupe ennemi déterminé » qui opère depuis au moins 2007, en envoyant des courriels visant la messagerie Microsoft Outlook, le programme Adobe Reader et d’autres logiciels, a précisé Crowdstrike.

Sa stratégie consiste à envoyer des messages à partir d’une adresse apparemment inoffensive, [email protected] par exemple, avec de fausses invitations, dans l’espoir que les utilisateurs cliquent dessus par inadvertance, ce qui permet alors aux pirates d’accéder au contenu de l’ordinateur.

Une pièce jointe envoyée ainsi au centre spatial de Toulouse en France (sud-ouest) faisait de la publicité pour un cours de yoga promouvant une « méthode universelle pour mieux se connaître (…) et connaître l’Univers et les Dieux, comme le recommandait Socrate! ».

Il s’agit pour les militaires chinois « d’obtenir des secrets économiques ou de brevets liés aux technologies du secteur de la défense » dans le but de « surveiller l’espace, de détecter et d’intercepter les communications par satellite ».

Crowdstrike est parvenu, via ces fausses adresses de courriels, à remonter jusqu’au blog d’un homme de 35 ans, nommé Chen Ping, qui affirme travailler pour « l’armée/la police » et qui publie sur son blog des photos apparemment de lui, participant à des exercices militaires ou vêtu d’un uniforme en train de célébrer un anniversaire arrosé.

La société a relié ses activités à l’unité chinoise 61486, localisée dans un immeuble du nord-ouest de Shanghai.

Ce groupe vient s’ajouter à l’unité 61398, accusée par la société de sécurité informatique Mandiant d’avoir employé des milliers de salariés pour dérober les secrets de pays étrangers.

Un grand jury américain a inculpé en mai cinq officiers de cette unité 61398 pour avoir, entre 2006 et 2014, volé des secrets économiques d’entreprises américaines spécialisées dans l’énergie nucléaire ou solaire, et dans la métallurgie.

La Chine avait alors convoqué l’ambassadeur des Etats-Unis et accusé Washington « d’hypocrisie », après que l’ancien consultant de l’agence américaine NSA Edward Snowden eut révélé l’ampleur de l’espionnage mené par les Etats-Unis.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

A quand des champs de Stévia en France ?

Rangez la boite à sucre et mettez une feuille de Stévia dans votre café. Vous pourrez profiter du goût du sucré sans risquer une carie.  La Stévia Rebaudiana de son vrai nom est une super-plante au super pouvoir sucrant jusqu’à 300 fois supérieur à celui du saccharose. Malgré cet atout de poids, la Stevia reste un produit de niche, boudé par l’Europe. Interdite jusqu’en 2009, la Stévia est autorisée sous forme de poudre utilisée comme additif alimentaire. Mais seuls les extraits purifiés de rébaudioside A, un stéviol glycoside, sont concernés. Ce n’est qu’en 2011 que l’Union Européenne permet la commercialisation de toutes les molécules sucrantes de la Stévia. 

De consommation courante au Brésil, au Japon et en Chine, la Stévia y profite de l’interdiction des édulcorants de synthèse pour s’imposer comme alternative au sucre. Cette herbe sucrée est vite devenue à la mode, suscitant l’intérêt de géants de l’alimentaire comme Coca-Cola qui développe Truvia et PepsiCo pour PureVia. Alors que la Stévia est utilisée depuis une trentaine d’années par les Japonais et depuis des siècles en médecine traditionnelle en Amérique du sud, la consommation de la plante reste interdite en France par  les autorités sanitaires.

Pourtant, la réglementation évolue et les pays s’ouvrent à l’utilisation de la Stévia pour les aliments. La Suisse vient tout juste d’autoriser la Stévia dans les tisanes. En France, des cultures de Stévia ont été lancées dans l’Hérault et le Lot-et-Garonne. Des plantations bios qui, dans l’attente d’un assouplissement des règles pour des utilisations alimentaires, pourraient servir à des applications dans le domaine des cosmétiques, un secteur épargné par les restrictions sur la Stévia. 

Ces cultures sont encore des expérimentations. Lancées en 2011, elles vont permettre de maîtriser la culture de Stévia, sa transformation et de proposer un produit fini.  « Malgré des soucis liés aux aléas climatiques exceptionnels comme une température en baisse, nous obtenons de bons résultats. Nous avons défini un itinéraire culturel et prévoyons une production pérenne et rentable. » se félicite Philippe Boutie, président de l’association Sweet Via. Maintenant que la preuve est faite que la plante s’adapte au climat du Sud-Ouest, la filière Aquitaine Stévia Innovation  collabore avec l’Institut national de recherche agronomique (INRA) pour sélectionner la variété la plus compétitive.  « Dès 2015, nous aurons un produit à commercialiser auprès des industriels » ajoute Philippe Boutie.

Aujourd’hui, 100% de la Stévia consommée en France est importée. C’est dire comme la demande est forte. Les industriels devront toutefois patienter encore quelques mois avant de pouvoir utiliser de la Stévia française.

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

La lavande pourrait bientôt être classée produit chimique par le REACH

Le REACH veut-il la peau de la lavande ? C’est en tout cas l’inquiétude des producteurs de lavande, qui se mobilisent contre la nouvelle réglementation qui prévoit d’assimiler l’huile essentielle de lavande à un produit chimique. En cause, le linalol présent dans la lavande sous sa forme naturelle mais qui est considéré comme un allergène. Le linalol est montré du doigt depuis une étude suédoise de 2009 mettant en garde contre son pouvoir allergène. Un avertissement mal interprété car le danger provient de la réaction entre le linalol et l’oxygène, et  non du linalol lui-même. Autre élément à charge, la lavande serait porteuse de produits phytosanitaires. Une allégation niée en bloc par les producteurs de lavande, et qualifiée de fantaisiste par l’Institut national de la recherche agronomique (INRA). 

Alors que l’huile essentielle de lavande est une des rares huiles essentielles réputée pour son innocuité, voilà que le REACH évoque même le marquage des flacons avec une tête de mort. Une aberration pour l’Association des producteurs d’origine protégée d’huile essentielle de lavande (APAL). Reçue par Jean-Louis Bianco, conseiller au ministère de l’écologie, l’APAL a fait part de son opposition et de sa volonté de continuer à considérer l’huile essentielle de lavande comme un produit agricole.

De plus, les caractéristiques physico-chimiques dépendent de l’environnement.  Le sol et les conditions climatiques sont des facteurs influençant leurs propriétés. Monter un dossier à l’identique des produits chimiques est donc impossible. Pour les lavandiculteurs, il est évident que REACH n’est pas adapté aux huiles essentielles. 

La lavande étant très utilisée chez les parfumeurs, les producteurs de lavande peuvent compter sur le soutien de grosses entreprises comme L’Oréal. Un lobby dont ils auront bien besoin pour se faire entendre de Bruxelles.

Par Audrey Loubens, journaliste scientifique

Le marché des drogues de synthèse explose

L’ampleur du phénomène inquiète. En à peine 5 ans, quatre vingt une nouvelles substances ont été recensées dans toute l’Europe dont trente-six en 2013 rien qu’en France. Ces drogues de synthèse sont de nouveaux produits capables d’imiter les effets des drogues comme le cannabis, la cocaïne ou l’ecstasy. Souvent moins chers que les substances traditionnelles, ces nouveaux produits de synthèse, les NPS, échappent à la législation et ne sont pas fichées comme des substances illicites. Un vide juridique séduisant à la fois pour les consommateurs et les dealers. Problème : les effets sur la santé sont mal connus car non documentés. Les NPS profitent aussi de la révolution internet et peuvent s’acheter directement en ligne. Une facilité d’accès dangereuse car certains produits peuvent être des contrefaçons, présentant des risques sanitaires pour les consommateurs. 

Ces NPS sont donc une préoccupation croissante pour les pouvoirs publics, comme le souligne le rapport européen EMSDDA sur les drogues paru fin mai. Beaucoup de questions restent sans réponse sur ce phénomène apparu dans la dernière décennie des années 2000 : quel est le profil des consommateurs ? Combien de NPS sont commercialisés ? Consommés ? Quels sont les effets sur la santé ? Quel est le mode de consommation ? 

Pour en savoir plus sur les NPS et pouvoir informer les consommateurs des dangers encourus à en consommer, l’Observatoire français des drogues et des toxicomanies (OFDT) s’empare du sujet et lance une enquête en ligne. Celle-ci comporte trente questions visant à en savoir plus sur la motivation des usagers, qu’ils soient occasionnels ou réguliers,  à utiliser ces drogues de synthèse. L’étude porte aussi sur leur expérience, l’OFDT espère ainsi analyser les comportements et caractériser la consommation de ces nouvelles drogues.

L’OFDT travaille déjà sur les NPS via son  pôle Tendances récentes et nouvelles drogues (TREND), à l’origine du projet européen  I-TREND visant à informer au mieux les personnes susceptibles d’être en contact avec les NPS, usagers comme pouvoirs publics. Le questionnaire réalisé s’inscrit dans cette dynamique et va être diffusé aux Pays-Bas, en Pologne et en République Tchèque. La Grande Bretagne est aussi très impliquée et a déjà mis en place une telle enquête.

Les résultats des données recueillies seront communiqués en 2015 et serviront de base à l’élaboration d’un plan de prévention contre les NPS.

Questionnaire en ligne : i-trend.eu/survey

Par Audrey Loubens, journaliste scientifique

Et aussi dans les
ressources documentaires :

Astuce du Web #10 : comment ouvrir deux comptes Gmail dans le même navigateur

Deux cas de figure : soit ces adresses ont des comptes différents (Gmail, yahoo, hotmail…), soit c’est le même. Quand les comptes mail varient, il suffit d’ouvrir un nouvel onglet et de se connecter. Mais dans le cas contraire, impossible d’ouvrir les deux comptes car par défaut, un même navigateur ne peut gérer qu’un seul compte à la fois. Vous pouvez toujours ouvrir une nouvelle fenêtre, dès que les pages se rafraîchiront, elles afficheront le même compte. Ce qui devient vite très énervant. La seule solution est d’utiliser deux  navigateurs différents, Explorer et Firefox par exemple, chacun gérant une adresse mail. A l’exception de ceux qui ont deux comptes Gmail. Les veinards peuvent gérer leurs deux messageries sous le même navigateur, dans deux fenêtres différentes. Pour cela, ouvrez un premier compte. Il vous suffit alors de cliquer (clic gauche) tout en haut à droite sur l’image de votre profil. Cela affiche une petite fenêtre qui détaille votre identité, vous propose de modifier votre photo, d’afficher votre profil. Mais ce qui vous intéresse est l’onglet en bas à gauche « Ajouter un compte ». Cliquez dessus pour ouvrir un nouvel onglet de connexion à Gmail. Il ne vous reste plus qu’à vous connecter sur votre deuxième compte. Vous pourrez ainsi accéder en même temps à vos deux comptes tout en restant sur le même navigateur. Les rafraichissements des pages concernent bien chaque compte indépendamment.

Par Audrey Loubens, journaliste scientifique