Découvrez 4 navigateurs web alternatifs

SlimBoat n’est certes pas le plus beau navigateur web qui existe, mais il est rapide et offre de nombreuses fonctionnalités intéressantes. Il propose ainsi un mode permettant de remplir automatiquement des formulaires, un bloqueur de publicités, un gestionnaire de téléchargement, une option pour organiser vos sites favoris, ainsi qu’un outil de traduction très performant, utile quand il s’agit de traduire de longs documents (en un clic).

Très populaire au Japon, Sleipnir est un navigateur hautement personnalisable, rapide et économe en ressources. Il permet d’installer une multitude d’extensions, et permet de surfer à travers une multitude d’onglets, sans que cela ne ralentisse la navigation, comme c’est souvent le cas avec Internet Explorer ou Google Chrome.

Très rapide, Epic permet de surfer anonymement, tout en empêchant le plus possible les publicitaires de collecter vos données. Basé sur Chromium, le navigateur libre à la base de Google Chrome, il chiffre les navigations, empêche les publicités de s’afficher, oblige les recherches sur Google à passer par un proxy, et empêche les “cookies” de glaner des informations sur votre compte. Par défaut, Epic permet de surfer en “mode privé” (aucun historique, aucune donnée n’est stockée). Il utilise aussi son propre moteur de recherche, qui respecte la vie privée : Epic Search.

Tout aussi efficace que Internet Explorer ou Firefox, Maxthon Cloud offre de nombreuses fonctionnalités très intéressantes : bloc note accessible en un clic, filtre anti-pub, capture de pages web sous forme d’images, navigation par gestes de souris, “inspecteur” permettant de télécharger les fichiers d’une page (images, sons, vidéos), ou encore remplissage automatique de formulaires.

Maxthon possède aussi une fonctionnalité très utile : un outil de recherche multiple. Pour une requête, il affiche une fenêtre permettant de basculer entre les résultats de moteurs de recherches différents.

Par Fabien Soyez

Un photon téléporté à 25 kilomètres de distance !

L’ancien record, établi 10 ans auparavant, n’était « que » de 6 kilomètres mais il était déjà détenu par l’équipe de physiciens de l’Université de Genève (UNIGE). Encore une fois, il s’agit d’une prouesse inédite à ce jour et encore une fois, l’expérience s’est déroulée au sein du laboratoire du professeur de physique Nicolas Gisin.

Pour ce faire, les scientifiques se sont servi du phénomène d’intrication quantique, qui fait que deux objets, bien que spatialement séparés, forment un tout, un système unique. Cela signifie qu’agir sur l’un, c’est agir sur l’autre car « un état intriqué est par définition un état non séparable ». C’est sur cette constatation qu’est basée l’expérience de Nicolas Gisin.

Trois photons en tout ont été utilisé : A et B étant intriqués et C. A et B ont été lancés dans deux directions opposées. Le premier a fait le trajet le long d’une fibre optique tandis que le second s’est inséré dans un cristal – considéré actuellement comme le matériau permettant le stockage de photons. Lorsque les photons A et B se sont retrouvés séparés par une distance de 25 kilomètres, C le troisième larron, a percuté B. La collision a provoquée la destruction des deux photons, mais pas seulement, puisque l’état quantique de B a été instantanément transféré dans le cristal.

La téléportation d’un être humain n’est pas pour demain

C’est un pas de plus, bien sûr, vers le futur de la téléportation. Néanmoins toutes les conclusions des scientifiques tendent à modérer les résultats de ce genre d’expérience. La téléportation d’un être humain n’est pas pour demain, cela reste utopique et réservé à l’imagination des scénaristes. Il en est de même pour la matière. Avant de pouvoir téléporter ne serait-ce qu’un petit objet, pourquoi pas une clé, le temps semble bien long.

Toutefois, l’expérience est fascinante. Elle ne cessera pas de l’être avant un bon moment et continuera à inspirer à la fois les scientifiques et les réalisateurs, romanciers pour qui la téléportation est un thème récurrent dans de nombreuses oeuvres de science-fiction. Pour l’heure, les services de communication y voient déjà le futur du cryptage et imaginent un internet quantique ultra-sécurisé pour faire circuler l’information. La téléportation quantique d’information, basée sur le phénomène d’intrication, rendrait en effet impossible son traçage, de son émetteur jusqu’à son point d’arrivé. A suivre.

Par Sébastien Tribot

Présentation de l’Iron Train, le nouveau projet de Safran

Techniques de l’Ingénieur : Vous venez de présenter, ici à la NI Week 2014, le projet Iron Train. Pouvez-vous nous présenter ce projet, le contexte dans lequel il est né, et le retour d’expérience sur ce projet ?

Xavier Berger : Le projet est né d’une demande d’un client qui s’est aperçu qu’il avait besoin de nouvelles solutions pour réaliser l’intégration des différents systèmes de son train. Précédemment, pour faire la validation, l’intégration de tous les systèmes d’un train. Cela prenait beaucoup de temps, il fallait faire des essais sur un train zéro, donc fabriquer un premier  train, et louer des rails à un organisme. Cela coûtait très cher, prenait beaucoup de temps, et ne permettait pas une couverture complète des tests avant mise en service.

L’objectif du client était donc d’améliorer la maturité directement à la mise en service de son train. Pour cela, nous lui avons proposé de transposer une technologie que nous utilisons beaucoup dans l’industrie aéronautique, qui s’appelle l’Iron Bird. C’est ce que nous avons réalisé en faisant cet Iron Train.

L’une des choses à laquelle nous avons fait attention, c’est d’avoir la possibilité de faire évoluer ce système dans le temps, soit dans le sens où nous aurions des modifications à réaliser, soit dans le sens où nous voudrions ajouter différents systèmes au niveau du train. C’est-à-dire que nous pouvons démarrer avec un train 100 % simulé, et puis rajouter au fur et à mesure des éléments réels, et avoir ainsi un mode hybride de fonctionnement.

 

C’est donc une méthode suffisamment souple pour être transposée sur d’autres modèles de trains ?

Effectivement, j’ai présenté l’architecture pour un train à grande vitesse, mais nous avons démarré un deuxième projet six mois plus tard pour un train régional. A priori, ces deux trains n’avaient rien à voir, par contre, notre banc était capable de s’adapter aux deux trains. C’est une solution utilisable pour différents trains du même constructeur. Imaginons demain, avoir à faire la même chose pour un autre fabriquant de trains ayant ses propres technologies propriétaires, nous aurions juste à développer des nouvelles briques technologiques, et à venir les implémenter sur le squelette existant de l’Iron Train.

 

Les contraintes de temps n’étant pas les mêmes pour les tests sur trains que sur avions, comment avez-vous réduit le temps de travail sur ce projet ?

C’est là qu’intervient National Instruments. Notre client avait des délais très courts, dix-huit mois, beaucoup plus courts que ceux de l’aéronautique. Si nous n’étions pas partis sur les solutions VeriStand, Compact RIO, PXI, FPGA, etc, des solutions très flexibles disponibles sur étagères, nous n’aurions jamais pu tenir les délais.

 

Cette méthode qui est à la fois fiable et rapide, allez-vous la transposer à nouveau des trains vers l’aéronautique ?

En aéronautique, pour tout ce qui est Iron Bird, les produits National Instruments ne sont à ce jour pas utilisés par Safran. Par contre ils le sont pour différents autres projets dans l’aéronautique, par exemple pour les calculateurs de régulation de moteurs d’avions.

Même si l’architecture est différente, nous utilisons donc les mêmes technologies, la même méthode de travail, les mêmes possibilités.

 

Vous disiez lors de votre présentation que votre client souhaitait désormais systématiquement utiliser cette méthode de travail ?

Effectivement, le retour sur investissement et le retour d’expérience du client ont été très positifs. De ce point de vue il a gagné beaucoup de temps sur la partie intégration de son train, puisqu’il a fait rouler des dizaines de milliers de kilomètres avant même de produire le premier train, donc il a débloqué énormément de choses au niveau de l’intégration de ses différents systèmes. Et quand il les a mis sur des vrais rails, tous ses objectifs de tests ont été atteints du premier coup. Ce qui n’avait jamais été vu dans l’industrie ferroviaire.

Aujourd’hui, sa vision est d’essayer de standardiser ce type de produits pour les prochains programmes qu’il pourrait avoir. Et d’essayer d’avoir un outil tout à fait générique qu’il puisse utiliser sur ses différents projets.

 

Pour finir, quel est votre ressenti sur NI Week 2014 ?

C’est la deuxième fois que j’y participe. A chaque fois, c’est l’occasion de découvrir de nouveaux produits, c’est l’occasion aussi d’échanger beaucoup avec les gens de National Instruments, de rencontrer les gens avec qui nous sommes en contact généralement de loin, de mettre un visage sur un nom. Et puis, ça permet de rencontrer de nombreuses personnes avec qui nous pourrions être amenés à travailler.

Par Bruno Decottignies, journaliste

Nobel de chimie: les lauréats des dix dernières années

2014: Eric Betzig et William Moerner (Etats-Unis), et Stefan Hell (Allemagne), qui ont amélioré le microscope, lui permettant de voir l’infiniment petit

2013: Martin Karplus (Etats-Unis/Autriche), Michael Levitt (Etats-Unis/Grande-Bretagne) et Arieh Warshel (Etats-Unis/Israël), pour la mise au point de modèles pour les systèmes chimiques complexes permettant d’optimiser les catalyseurs, les médicaments et les cellules photovoltaïques

2012: Robert Lefkowitz et Brian Kobilka (Etats-Unis), pour leurs travaux sur des récepteurs qui permettent aux cellules de comprendre leur environnement, une percée essentielle pour l’industrie pharmaceutique

2011: Daniel Shechtman (Israël), pour avoir découvert l’existence d’un nouveau type de matériau, un « quasi-cristal »

2010: Richard Heck (Etats-Unis), Ei-ichi Negishi et Akira Suzuki (Japon), pour avoir créé l’un des outils les plus sophistiqués de la chimie ouvrant la voie à des traitements du cancer et à des produits électroniques et plastiques révolutionnaires

2009: Venkatraman Ramakrishnan, Thomas Steitz (Etats-Unis) et Ada Yonath (Israël), pour leurs travaux sur les ribosomes qui ouvrent la voie à de nouveaux antibiotiques

2008: Roger Tsien, Martin Chalfie (Etats-Unis) et Osamu Shimomura (Japon) pour leurs recherches sur les protéines fluorescentes dont les applications permettent de détecter des tumeurs cancéreuses

2007: Gerhard Ertl (Allemagne) pour ses travaux sur les catalyseurs qui ont connu des applications industrielles allant des fertilisants aux pots catalytiques

2006: Roger Kornberg (Etats-Unis), pour ses travaux fondamentaux sur la transcription des gènes

2005: Yves Chauvin (France), Robert H. Grubbs (Etats-Unis) et Richard R. Schrock (Etats-Unis) pour leurs recherches sur la métathèse en synthèse organique dont l’impact est énorme sur la fabrication de médicaments

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Revue du web #67 : les vidéos les plus étonnantes de la semaine

Cette semaine dans la revue du Web :

  • De toute beauté : des ferrofluides, de la couleur, et du mouvement ;
  • Au plus près d’un volcan islandais en éruption, avec un quadricoptère et une GoPro ;
  • Biomimétisme : premier bain réussi pour une pieuvre robotique en mer Égée ;
  • Assembler un réacteur à fusion nucléaire : un véritable jeu d’enfant ;
  • Le gadget (inutile?) de la semaine : une prothèse de pouce pour n’importe quelle « phablette » ;
  • Et en bonus cette semaine : le plaisir jouissif de casser des trucs (chers).

De toute beauté : des ferrofluides, de la couleur, et du mouvement

Sérosité (nom féminin) : « liquide voisin du sérum sanguin, contenu normalement dans les membranes séreuses, et constituant les œdèmes ou certains épanchements » (d’après le Larousse). Peu de chances qu’une vidéo baptisée « Serosity » puisse exciter le chaland, et pourtant : pour débuter en beauté notre soixante-septième Revue du Web, voici « Serosity », une vidéo réalisée par Alistair Moncur, un Anglais touche-à-tout qui a eu la très bonne idée de filmer des ferrofluides colorés en mouvement, un vrai petit bijou concentré sur la surface approximative d’une pièce de cinq centimes d’euros.

Les ferrofluides sont des dispersions colloïdales de nanoparticules ferromagnétiques d’une dizaine de nanomètres environ, dans un liquide porteur. L’application d’un champ magnétique extérieur permet au tour de magie de commencer : les liquides colorés se meuvent doucement, semblent palpiter pour former des vitraux d’inspiration païenne, ou se hérissent de pointes à l’équilibre instable, construisant des figures microbiennes dans un ballet organique proprement envoûtant.

Au plus près d’un volcan islandais en éruption, avec un quadricoptère et une GoPro :

L’ Islande – comme l’Indonésie – peut avoir des allures de terre promise pour tous les amateurs de volcans. L’île, forte de ses 130 volcans actifs, fait même régulièrement la une comme lors de l’éruption de l’Eyjafjöll (en 2010) qui avait eu des répercussions sans précédents sur le trafic aérien à l’échelle mondiale. Eric Cheng sait donc à quoi s’en tenir lorsqu’il fait ses bagages pour la petite république insulaire. Le directeur de l’imagerie aérienne du fabricant chinois de drone DJI ne part d’ailleurs pas les mains vides : dans ses valises se retrouvent évidemment un drone de type quadricoptère, ainsi qu’une caméra GoPro.

Répondant à l’appel de l’un de ses amis photographes, il obtient sans souffrance toutes les autorisations nécessaires et se retrouve assez rapidement aux abords du Bárðarbunga, un volcan associé à une fissure volcanique, entré en éruption il y a près d’un mois. Bien décidé à s’approcher au plus près du cratère avec son drone, il finit néanmoins par perdre systématiquement à la fois le contrôle de son bolide et le signal vidéo.

Lors du tout dernier voyage, le signal vidéo disparaît complètement, l’obligeant une fois de plus à déclencher le mode « récupération », sorte de pilote automatique de la dernière chance conçu pour que le bolide puisse rentrer au bercail. Après quelques minutes, le bourdonnement rassurant du drone put se faire entendre, à son grand soulagement, mais le quadricoptère n’était pas revenu complètement indemne : la partie avant de la GoPro avait quelque peu fondu.

Heureusement, la carte mémoire était restée intacte, gardant « au chaud » les fantastiques derniers plans de cette petite vidéo de l’extrême. Pour la petite histoire, les parois de la caldeira se sont rompues le lendemain de son départ, inondant de lave la zone où il se trouvait encore la veille.

Biomimétisme : premier bain réussi pour une pieuvre robotique en mer Égée

Le biomimétisme – faire de la recherche en s’inspirant du vivant – est un domaine qui a le vent en poupe. Les chercheurs grecs du FORTH (« Foundation for Research and Technology-Hellas ») ne risquent pas de nous contredire, puisqu’ils viennent de présenter la dernière mouture de leur petit protégé, une sorte de pieuvre robotique baptisée « Roboctopus ». Surs d’eux, les scientifiques grecs vont jusqu’à laisser évoluer librement le céphalopode robotique en mer Égée, nageant de manière très réaliste et naturelle, mais toujours sous leur surveillance bienveillante.

Au début de la vidéo, on aperçoit une version antérieure du robot, malhabile, semblant lutter pour se déplacer. L’ajout d’une membrane entre les tentacules et jusqu’à mi-hauteur va alors multiplier la vitesse du robot par deux, tout en réduisant drastiquement ses besoins énergétiques. L’équipe du FORTH lui a également appris à ramper – une démarche qui ne lui semble toutefois pas vraiment naturelle – et à transporter des objets tels qu’une balle. A suivre !

Assembler un réacteur à fusion nucléaire : un véritable jeu d’enfant ?

C’est en tout cas ce que pourrait suggérer la vidéo qui suit, si l’on ne sait pas que le timelapse de l’assemblage du Wendelstein 7-X couvre la période de 2005 à… 2014. Ce prototype de réacteur à fusion du type « stellarator » – dispositif analogue au tokamak, mais dont le confinement du plasma « est entièrement réalisé par le champ magnétique hélicoïdal créé par l’arrangement complexe de bobines autour du tore, alimentées en courants forts et appelées bobines poloïdales » – a trouvé refuge à l’institut Max-Planck de physique des plasmas, à Greifswald, en Allemagne.

La bête est composée de cinq imposants modules, presque identiques, qui furent préinstallés puis assemblés en cercle dans le hall d’expérimentation. L’un des objectifs affichés du Wendelstein 7-X est de déterminer si les réacteurs à fusion du type « stellarator » sont adaptés pour les centrales nucléaires civiles.

Le gadget (inutile?) de la semaine : une prothèse de pouce pour n’importe quelle « phablette »

L’arrivée en fanfare sur le marché de l’iPhone 6 Plus – bientôt suivi par le Google Nexus 6 – confirme l’orientation prise par les constructeurs d’aller vers des smartphones aux écrans plus grands, sorte d’intermédiaire entre les smartphones classiques et les tablettes, ces fameuses « phablettes » au nom si disgracieux. Pourtant, nombreuses sont les voix qui s’élèvent pour s’unir dans une douce élégie paradoxale, celle de l’utilisateur ému aux larmes de posséder un écran si grand, mais qui réalise finalement que pour la prise en main ou pour la navigation à une main… il va devoir s’accrocher.

Notre gadget (inutile?) de la semaine leur propose une solution originale, perpétuant avec brio l’art japonais du « chindōgu », cette fâcheuse manie qu’ont certains inventeurs à créer des objets « utiles mais inutilisables », répondant efficacement mais de manière inappropriée ou ridicule aux menus problèmes de notre quotidien. Cette solution s’appelle « Yubi Nobiiru », une prothèse de pouce en silicone conçu par les Japonais de Thanko, 11 grammes d’inélégance qui s’utilisent à peu de chose près comme un stylet pour écran tactile. Vous l’aurez compris : pour un peu plus de 10 euros, vous gagnez un peu plus qu’un simple centimètre et demi…

Bonus : le plaisir jouissif de casser des trucs (chers)

« Will it blend ? », ça vous dit quelque chose ? La série de petites vidéos old-school faisant l’apologie de la destruction des objets de notre quotidien, campagne de pub virale assez réussie pour le compte du fabricant américain Blendtec, a fait des émules. En bonus de notre soixante-septième Revue du Web, rien de tel que de plonger tout entier dans le plaisir jouissif et enfantin du saccage pur et dur avec cette première vidéo, démontrant (si toutefois il en était besoin) qu’un iPhone 6, de l’azote liquide et une masse ne font pas bon ménage. Étonnamment, le smartphone semble fonctionner encore quelques secondes après le petit bain d’azote liquide, mais finit tout de même par  rendre l’âme. Avec la masse, la messe est dite.

Mais puisque rien ne vaut vraiment l’original, terminons avec la vidéo du fabricant de blenders, qui reprend du service en s’occupant du nouveau smartphone d’Apple, mais également du Galaxy Note 3, du constructeur sud-coréen Samsung. Will it blend ? Sans aucun doute, les deux téléphones finissant pulvérisés – au sens propre.

Par Moonzur Rahman

Climat: les eaux dans les fonds océaniques ne se réchauffent plus depuis 2005 (Nasa)

Une des principales hypothèses avancées jusqu’à présent pour expliquer ce paradoxe était que la chaleur accumulée par les océans descendait dans les grandes profondeurs.

Mais les scientifiques de la Nasa, au Jet Propulsion Laboratory (JPL) à Pasadena, en Californie (ouest), ont analysé les relevés de température des océans de 2005 à 2013. Ces mesures ont été faites par des satellites, et directement dans les eaux océaniques à l’aide de 3.000 bouées réparties partout dans le monde.

« Ils ont découvert qu’au-dessous de 1.995 mètres il n’y a eu quasiment aucun changement de température durant cette période », ont-ils noté dans leurs travaux publiés dans la revue britannique Nature.

Malgré cela, « le niveau des océans continue à monter », avec surtout la fonte de la banquise au pôle Nord et au Groenland, souligne Josh Willis du JPL, co-auteur de cette recherche. Celui-ci juge que ce phénomène inexpliqué ne remet pas pour autant en doute la réalité du réchauffement de la planète.

« Nous essayons seulement de comprendre ce mécanisme », ajoute-t-il.

Au XXIe siècle, les gaz à effet de serre, dont notamment le dioxyde de carbone (CO2) produit par la combustion des sources d’énergie fossile, ont continué à s’accumuler dans l’atmosphère, tout comme ce fut le cas au XXe siècle.

La température de l’eau des océans plus près de la surface (jusqu’à 700 mètres de profondeur) continue toutefois à augmenter, mais pas très rapidement.

La thèse de la chaleur temporairement emmagasinée dans les eaux profondes des océans avait été avancée dans une étude publiée le 21 août dans la revue américaine Science.

Selon cette recherche, un courant cyclique se déplaçant lentement dans l’Atlantique, qui véhicule la chaleur entre les deux pôles, s’est accéléré au début du XXIe siècle, précipitant la chaleur absorbée par les eaux en surface à 1.500 mètres de profondeur.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Un dollar qui s’apprécie et des querelles commerciales byzantines font baisser les cours du pétrole

Un dollar qui s’apprécie contre toutes les monnaies  incite de nombreuses institutions financières dont les fameux « edge fund », à vendre leurs positions longues sur les matières premières et à se positionner sur un marché baissier ou à rester tout simplement en cash, avec un bon dollar qui s’apprécie vis-à-vis des autres monnaies (Figure.1).

Cette valorisation subite du dollar qui a démarré au mois d’Août dernier, est à la base de bien des baisses actuelles des matières premières, exacerbées par de bonnes récoltes agricoles (offre croissante) ou par de faibles demandes asiatiques (demande faible et déstockage massif).

Dans le cas du pétrole dont la taille du marché physique supporte un marché d’échange de papiers de très grande taille, à ce phénomène classique de renversement de marché, se superpose la volonté de l’Arabie Saoudite de vouloir conserver ses parts dominantes de marché en Asie face à l’Irak ou à l’Iran, ce qui la pousse à offrir de larges rabais pour maintenir ses ventes.

Ce phénomène est parfaitement expliqué dans un papier de Reuters repris par Trade Arabia le 2 Octobre 2014, et apparaît être en accord avec des extractions soutenues de pétrole de la part de l’Arabie Saoudite qui ont atteint les 10 millions de barils par jour au mois d’Août dernier (Figure.2) alors qu’elles auraient dû décroitre vers les 9 millions de barils par jour pour maintenir les cours mondiaux

 

Dans le cadre d’un profond renversement des marchés du pétrole de l’Ouest vers l’Est il apparaît que l’Arabie Saoudite laisse filer ses parts de marché en Amérique du Nord, au profit du Canada, mais qu’elle ne veut rien céder à ses concurrents en Asie qui est le marché d’avenir.

Cette attitude du premier exportateur mondial, décalée par rapport aux tendances du marché du pétrole, explique pour une large part la baisse subite des cours du BRENT au-dessous des 100 dollars le baril (Figure.3).

 Par Raymong Bonnaterre

Cet été, l’éolien allemand n’a pas tenu ses promesses

Il ressort de ces publications qu’à fin du mois de Juin de cette année la génération éolienne allemande avait produit depuis le début de l’année 26,7 TWh d’énergie. A la fin du mois d’Août, soit deux mois après, le compteur éolien affichait une production cumulée depuis le début de l’année de 32,4 TWh.

Si mes calculs sont exacts,  il en ressort, qu’en deux mois (ou 1488 heures) les éoliennes allemandes ont produit, en Juillet et Août 2014, une énergie totale de 5,7 TWh (dont 2,3 TWh au mois de juillet).

La puissance nominale éolienne installée au 16 Juillet 2014 était de 34,638 GW, dont 0,616 GW en offshore.

Il apparait de ces données que les éoliennes allemandes ont fonctionné en moyenne durant ces deux mois, à leur puissance nominale durant 5700 / 34,638 = 164,6 heures.

Ceci conduit à un facteur de charge de ces équipements de 164,6/1488= 11%

Les éoliennes allemandes ont fonctionné, en moyenne, à leur puissance nominale durant les mois de Juillet et Août 2014 durant 11% du temps

Manque de vent sur le Nord de l’Europe, sûrement ; problèmes de raccordements des éoliennes offshore en Mer du Nord au continent, peut-être. Quoi qu’il-en-soit, il ressort que ces performances estivales médiocres sont très éloignées des facteurs de charge théoriques retenus dans la littérature.

Les importations d’énergie électrique en provenance de ses voisins (voir ci-dessous Figure.1), dont la France, ont permis à l’Allemagne de passer sans trop de mal cette période peu ventée.

Figure.1 : Solde des échanges d’énergie électrique de l’Allemagne avec ses voisins (Fraunhofer)

 

Par Raymond Bonnaterre

Biodiversité: la communauté internationale réunie sur un constat alarmant

Les 194 pays membres de la convention sur la diversité biologique (CDB), née il y a 20 ans à Rio de Janeiro, ont rendez-vous jusqu’au 17 octobre pour la 12e conférence des parties (COP), un cadre équivalent à ce qui se fait chaque année sur le climat.

La réunion survient quelques jours après la publication par le Fonds mondial pour la nature (WWF) d’un rapport sombre montrant que le nombre des animaux sauvages, terrestres ou marins, vivant sur la Terre a été divisé par deux entre 1970 et 2010.

Un rapport d’étape sur la biodiversité destiné à évaluer les progrès réalisés depuis la conférence de Nagoya (Japon) en 2010 qui avait fixé une vingtaine de grands objectifs pour 2020 a été publié. Les buts visés — meilleure gestion des stocks de poisson, extension des aires protégées, restauration d’écosystèmes dégradés, suppression des subventions néfastes à l’environnement — sont loin d’être atteints.

Ce document « devrait secouer le monde entier », a prévenu Achim Steiner, le directeur du Programme des Nations unies pour l’environnement (Pnue), à l’ouverture de la conférence lundi. Beaucoup des objectifs de Nagoya ne seront pas atteints, estime d’ores et déjà le Pnue. « Il s’agit de toute la vie sur Terre. Nous devons en faire plus –et vite– pour protéger le tissu même du monde naturel ».

« Des mesures encourageantes ont été prises de par le monde pour faire face à la perte de biodiversité à plusieurs niveaux », dit le rapport d’étape. « Mais il est clair à mi-parcours qu’elles ne seront pas suffisantes à niveau constant pour remplir la plupart des objectifs fixés ».

« A mi-chemin de notre +grand plan+ pour la nature, il est clair que l’appel d’urgence que nous avons lancé en 2010 n’a pas été entendu », estimait avant la conférence Julia Marton-Lefèvre, déléguée générale de l’Union internationale pour la conservation de la nature (UICN), organisme réunissant agences gouvernementales, experts et ONG.

Réticents à brider les moteurs de leur croissance, par exemple en limitant l’exploitation de leurs ressources naturelles, les pays en voie de développement avaient reçu en 2012 l’assurance d’un doublement de leur aide à la protection de la biodiversité. Mais là encore, les objectifs ne sont pas tenus. Seulement 29 pays ont rendu un rapport sur les montants financiers mobilisés et leurs besoins. Le montant de référence est donc encore flou.

La déforestation se poursuit à un rythme « alarmant » en dépit d’un ralentissement enregistré pour la forêt amazonienne et de la progression de la couverture forestière au Vietnam et en Chine, dit le rapport. Le texte cite aussi une réduction de 20% des populations d’oiseaux sauvages vivant dans les prairies et les forêts d’Amérique du Nord et d’Europe depuis 1980.

La mise en oeuvre du protocole de Nagoya, un accord encadrant le partage des bénéfices issus des ressources génétiques et des savoirs traditionnels, occupera aussi les débats à Pyeongchang. Le protocole, ratifié par plus de 50 États, entrera en vigueur le 12 octobre.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Plus de 60% des Français opposés à l’exploitation du gaz de schiste

Les Français opposés à l’exploitation le sont « tout à fait » pour 31%, autant que « plutôt opposé » (31%). Les personnes « plutôt favorable » et « tout à fait favorable » représentent 36% des opinions exprimées.

Politiquement 80% des sondés « sympathisants » de gauche sont contre (92% des sympathisants verts, 86% des sympathisants « plus à gauche que le PS » et 74% des sympathisants socialistes).

En revanche les « sympathisants » de droite sont divisés. Ils sont 51% à être favorables à l’exploitation alors que 45% sont contre. Les sympathisants UMP y sont à 56% favorables, alors que ceux du Front national y sont majoritairement hostiles (50%).

Ce sondage intervient alors que Nicolas Sarkozy, candidat à la présidence de l’UMP, s’est prononcé le 25 septembre en faveur d’une exploitation du gaz de schiste en France. Mardi, Nathalie Kosciusko-Morizet, présidente du groupe UMP au conseil de Paris, assumant ses désaccords avec l’ancien chef de l’Etat, s’est dite opposée à ce type d’extraction.

Ségolène Royal a assuré dimanche qu’il n’y aurait pas d’exploitation de gaz de schiste, ni même d’investigation sur le gaz de schiste, tant qu’elle serait ministre de l’Ecologie, conformément à la ligne fixée par le président François Hollande.

Le gaz du schiste est du gaz naturel piégé dans le sous-sol à de grandes profondeurs, et qui peut en être extrait grâce à la fracturation hydraulique, un procédé qui consiste à créer des fissures souterraines et y infiltrer un mélange d’eau, de sable et de produits chimiques.

Les inquiétudes autour du gaz de schiste se focalisent sur la pollution que pourraient causer les substances chimiques utilisées, notamment dans les nappes phréatiques.

L’enquête a été réalisée par téléphone le 30 septembre et 1er octobre sur un échantillon de 1064 personnes représentatif de la population française.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

La sécurité sociale autorise le remboursement intégral de l’implant rétinien Argus 2

Les places sont comptées. 36 patients français, pas un de plus, pourront bénéficier de l’implant high tech Argus 2. Depuis l’arrêté du jeudi 14 août 2014, la prise en charge du dispositif se fera à hauteur de 100%, ce qui coutera quand même 95 897 euros par patient. Une somme importante qui explique que plusieurs patients ne se le fassent pas poser d’eux-mêmes. 

L’Argus 2 s’adresse aux personnes ayant perdu partiellement la vue suite à une maladie dégénérative de la rétine, comme une rétinite pigmentaire par exemple, maladie qui touche 1/4000 personnes. L’implant permet de compenser la dégénérescence des cônes et bâtonnets rétiniens, les éléments de l’œil chargés de convertir la lumière en impulsions convoyées par le nerf optique.

Comment fonctionne l’Argus 2 ? Le patient porte des lunettes équipées d’une mini-caméra. L’image est ensuite traitée et les informations lumineuses transmises par connexion sans-fil jusqu’à l’implant connecté au nerf optique grâce à des microélectrodes. Les impulsions électriques émises par ces petites électrodes  vont contourner les cellules rétiniennes endommagées et stimuler les cellules encore fonctionnelles pour propager le signal jusqu’au cortex. 

Attention, la vision obtenue n’est pas d’égale qualité que la vision naturelle. Elle est composée de points lumineux, donnant une impression d’image pixelisée et couvre un champ visuel central de seulement 20°.

Les premiers essais  cliniques menés aux Etats-Unis sur trente patients étaient encourageants puisque la majorité, malgré une cécité importante, a réussi à percevoir les contours d’objets. Un gain suffisant pour regagner de l’autonomie.

Plus récemment, une étude parue dans le British Journal of Ophtalmology a prouvé que des patients aveugles devenaient capables de reconnaitre des lettres et des mots grâce à l’implant. Autant de bénéfices qui ont valu à Second Sight l’autorisation de mise sur le marché par l’agence de sûreté des médicaments américains (FDA) en 2013, les autorités sanitaires européennes lui ayant accordé dès 2011.

En décidant de prendre à sa charge le coût de l’implant rétinien, la France va permettre à 36 malades de recouvrer partiellement la vue. Suffisamment pour être à nouveau capable de longer un trottoir, suivre un passage clouté, lire de grandes lettres et chiffres ou encore rechercher des ustensiles sur une table.

  • Vidéo décrivant le fonctionnement de l’implant rétinien Argus 2 :

  • Pour ceux qui ont le cœur bien accroché, la vidéo de l’intervention chirurgicale de la pose de l’implant dans l’œil d’un patient :

Par Audrey Loubens, journaliste scientifique

Un pas de plus vers les ordinateurs organiques ?

Lire les réseaux tridimensionnels

Les réseaux neuronaux artificiels sont relativement faciles à préparer dans un milieu de culture approprié mais, il y a encore quelques années, on avait du mal à analyser un tel milieu en trois dimensions. Un problème auquel s’est attaqué le groupe du professeur Shy Shoham du Technion. Pour mémoire, celui-ci avait développé au cours des dernières années des lunettes pour aveugles, lui valant un article dans Nature Communications en 2013.

Plus récemment, le groupe s’est donc tourné vers l’analyse optique d’un réseau tridimensionnel de neurones. Pour ce faire, il a placé du tissu cérébral de souris dans un milieu de culture tamponné avec différents agents de croissance (insuline, BDNF, L-glutamine, etc.). Le milieu avait à la fin une concentration en neurones entre 40.000 et 60.000 cellules par micro-L-1. L’ajout d’un indicateur fluorescent de calcium a ensuite permis d’effectuer des analyses avec une méthode développée par le groupe, le Scanning-Line Temporal-Focusing (SLITE)- Two-Photon Laser Scanning Microscopy (TPLSM). Le principe : un microscope à double photon est utilisé pour analyser en profondeur l’échantillon (plusieurs millimètres) et le système est couplé à une lecture grâce à un laser à pulsations ultra-rapide qui irradie toute une ligne.

Les résultats peuvent être visualisés sur le site du groupe. Comme on peut l’apercevoir sur les vidéos, le réseau neuronal apparaît en trois dimensions avec une grande précision. Ce qui a permis d’obtenir plusieurs résultats intéressants, notamment sur la manière dont vieillissent les réseaux neuronaux, ces derniers se propageant de moins en moins vite avec le temps, mais avec une connectivité qui se stabilise.

Un nouveau pas vers les réseaux neuronaux artificiels

La preuve a été apportée que l’on peut maintenant analyser les réseaux neuronaux en 3D, ce qui ouvre la voie à des recherches plus poussées dans les domaines qui se limitaient jusqu’alors à la 2D : cerveaux artificiels, étude des neurones, etc. Cette avancée permettra en outre de renforcer les algorithmes utilisés dans les réseaux neuronaux artificiels informatiques, dont le fonctionnement imite le cerveau. On peut également citer la revue du professeur Shoham sur les progrès en matière d’interface cerveau-machine. Gardons un oeil intéressé sur ce groupe, dont les travaux nous fournissent autant des outils pour faire plus de recherche (visualisation 3D) que des applications pratiques (lunettes pour aveugles).

Capture du carbone: un premier projet d’envergure mondiale au Canada

S’il est concluant, ce projet de 1,4 milliard de dollars canadiens (993 millions d’euros) pourrait susciter un nouvel intérêt pour l’utilisation du charbon à des fins de production d’électricité, au moment où plusieurs pays ferment leurs vieilles centrales polluantes, mises au banc des accusés du réchauffement climatique.

L’inauguration de cette centrale à Estevan, dans le sud de la Saskatchewan, représente « une étape historique » dans les efforts pour réduire les émissions de CO2, le principal gaz à effet de serre produit par l’activité humaine, s’est félicitée l’Agence internationale de l’énergie (AIE) dans un communiqué.

L’ancienne centrale « Boundary Dam », d’une capacité de 110 MW, a été équipée d’une technologie permettant de capter le CO2 s’échappant des fumées et de le stocker sous terre ou de l’injecter dans des champs pétroliers matures pour faire remonter l’or noir.

Pour l’AIE, sans cette technologie, les deux tiers des réserves mondiales de pétrole récupérables ne pourraient être commercialisées, au risque sinon de dépasser le seuil de 2°C fixé par la communauté internationale pour éviter des impacts catastrophiques dans de nombreuses régions du globe.

La combustion du charbon est à l’origine de 40% de l’électricité produite dans le monde, selon SaskPower. Mail il est aussi responsable de près de 30% des émissions de gaz à effet de serre, précise l’AIE.

La société publique de la Saskatchewan possède trois centrales au charbon qui produisent près de la moitié de l’électricité de la province, mais génère aussi 70% de ses émissions de gaz à effet de serre.

Le projet de la centrale « Boundary Dam » doit permettre de capter un million de tonnes de dioxyde de carbone par année, soit l’équivalent de retirer 250.000 voitures de la circulation, précise SaskPower.

Des projets semblables sont en voie de réalisation ailleurs au Canada, aux Etats-Unis, en Arabie saoudite et en Australie.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Sony s’attaque au marché des lunettes connectées avec les SmartEyeglass

Après Google, le premier à s’être implanté dans le marché des lunettes connectées, c’est désormais au tour de la multinationale Japonaise Sony de faire son entrée dans le secteur de la réalité augmentée. Avec les SmartEyeglass, des lunettes à l’esthétique certainement discutable, avec son design sportif et ses montures épaisses… Mais dont les applications, grâce notamment aux modules dont elles disposent, devraient se révéler fort utiles. Seront présents, « une boussole, un accéléromètre, un gyroscope, un capteur de luminosité ainsi qu’une caméra » (de trois mégapixels). En prime, un petit boîtier, relié par fil aux lunettes, intégrera un capteur tactile, un microphone et la batterie.

Sur les deux verres des SmartEyeglass, de résolution 419 x 138 pixels, l’utilisateur pourra lire en vert toutes sortes d’informations et de notifications. Entre autres, et à titre d’exemple, des indications sur les personnes croisées, à la condition qu’elles soient dans sa base de données. Mais bien sûr, cela ira beaucoup plus loin que cela. On peut d’ailleurs se demander si les lunettes intégreront des applications du genre de Style-Eyes, qui permet, à la manière de Shazam pour la musique, de scanner les vêtements afin d’en connaître la marque. Concernant la lisibilité de ces informations, Sony promet que le soleil ne sera pas un souci.

SmartEyeglass

Tout récemment, Sony a rendu disponible un kit de développement logiciel à l’attention des développeurs dans le but de les encourager à concevoir des applications pour les lunettes. Plusieurs sociétés s’en seraient déjà emparés. Cookpad notamment, un site Japonnais spécialisé dans les recettes de cuisine, aurait conçu une application permettant de dérouler progressivement la méthode de préparation de différents plats.

Toutefois, rappelons le encore une fois, les SmartEyeglass dévoilées par Sony ne sont qu’un prototype dont le développement n’est pas finalisé. Le design peut donc évoluer d’ici l’année prochaine, tout comme les fonctionnalités, qui pourraient être revues et certaines ajoutées… Des nouvelles devraient nous parvenir dans le courant de l’année. Pour l’heure, si une version réservée aux développeurs est censée voir le jour en mars 2015, nous n’en savons pas beaucoup plus. La date de commercialisation et le prix des lunettes n’ayant pas encore été clairement indiqué par Sony.

Par Sébastien Tribot

288102/TI382/72-WQ-VBZ3801

Reach/CLP : toute l’actualité de septembre (2/2)

Actualités échéances 2015 CLP 

16/09/2014

La commission européenne a organisé une journée relative aux échéances de 2015 pour le CLP. Cette journée est le début d’une période de réflexion et de mise en œuvre d’actions pour atteindre les objectifs de juin 2015 : appliquer le règlement CLP aux mélanges.

Etiquetage Légal a dédié sur son site internet une nouvelle page à l’échéance de 2015. Cette page sera un espace de mise en avant d’actualités, de focus, d’avis ou de notas règlementaires.

http://www.etiquetage-legal.com/index.php?page=128-accueil-actualite-clp-echeance-2015

Adoption de 5 avis de classification et d’étiquetage harmonisé

17/09/2014

Le Comité d’Evaluation de Risques (RAC) de l’ECHA a adopté, par consensus, 5 avis de classification et d’étiquetage harmonisé pour les substances suivantes : méthanol ; chloralose (INN) ; N,N dimethylacetamide (DMAC) ; Iodomethane ; Acide heptadecafluorononanoique et ses sels de sodium et d’ammonium (PFNA).

Les comités de l’ECHA soutiennent 16 utilisations de substances extrêmement préoccupantes (SVHC)

17/09/2014

Le comité d’évaluation des risques (RAC) et le comité d’analyse socio-économique (SEAC) ont émis des avis pour autoriser l’utilisation de substances extrêmement préoccupantes (SVHC). Les avis sont fondés sur huit demandes pour 16 utilisations spécifiques.

Consultation publique pour une restriction

17/09/2014

L’ECHA a lancé une consultation publique pour la restriction d’une nouvelle substance : Bis(pentabromophenyl) ether (DecaBDE)  (N° EC : 214-604-9, N° CAS : 1163-19-5).

Les commentaires sont à soumettre avant le 17 mars 2015.

Consultation publique pour la classification et l’étiquetage harmonisé de l’acetochlor

18/09/2014

L’ECHA a lancé une consultation publique additionnelle pour la classification et l’étiquetage harmonisé de l’acetochlor (N° EC : 251-899-3, N° CAS : 34256-82-1), pour sa toxicité sur la reproduction. Les commentaires sont à soumettre avant le 20 janvier 2015.

Nouvelle consultation pour éviter les tests sur les animaux

18/09/2014

L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. 47 propositions sont concernées. Les informations relatives à ces substances sont à soumettre pour le 3 novembre 2014.

L’ECHA fournit des avis sur les substances considérées pour la gestion des risques 

23/09/2014

A partir de maintenant, le site web de l’ECHA donnera un avis sur les substances envisagées par les autorités pour la gestion du risque réglementaire, ainsi que les voies envisagées. Les voies sont par exemple la classification et l’étiquetage harmonisés, l’autorisation ou la restriction. L’information est utile pour de nombreuses parties prenantes, y compris les fabricants et importateurs de produits chimiques, les utilisateurs en aval et la société civile.

Liste des produits biocides publiée (article 95)

24/09/2014

Suite aux corrections de la liste provisoire des substances actives et des fournisseurs, la première liste officielle de l’article 95 en vertu du règlement sur les produits biocides est maintenant disponible sur le site web de l’ECHA.

Données commerciales sur les produits dangereux disponibles (PIC)

25/09/2014

Les informations sur les produits chimiques dangereux importés et exportés (règlement PIC), ainsi que les détails sur les pays importateurs et exportateurs sont maintenant accessibles au public sur le site Internet de l’ECHA.

Nouvelle proposition de classification et d’étiquetage harmonisé

26/09/2014

L’ECHA a lancé une consultation pour l’harmonisation et l’étiquetage harmonisé de quatre nouvelles substances : Cyanamide, dibutyltin dilaurate, fipronil (ISO); 5-amino-1-[2,6-dichloro-4-(trifluoromethyl)phenyl]-4-[(trifluoromethyl)sulfinyl]-1H-pyrazole-3-carbonitrile, quinolin-8-ol; 8-hydroxyquinoline. Les parties intéressées sont invitées à soumettre leur commentaire sur le site de l’ECHA, et ce avant le 10 novembre 2014.

 

Par Céline GABORIAUD, Ingénieur Environnement aux Ateliers d’Orval
 

Et aussi dans les
ressources documentaires :

Les pesticides interdits dans les espaces verts publics fin 2016 ?

L’examen du projet de loi sur la transition énergétique commence aujourd’hui à l’Assemblée Nationale. Il comprend un amendement voté en commission spéciale de l’Assemblée en fin de semaine dernière pour anticiper l’interdiction des pesticides de 4 ans.

L’anticipation de l’interdiction « est techniquement réalisable car elle ne porte que sur les espaces verts et les promenades ouvertes au public, surfaces pour lesquelles il existe des solutions alternatives à l’emploi des pesticides chimiques« , explique le Gouvernement. Ces produits alternatifs sont les produits autorisés en agriculture biologique, les produits de bio-contrôle et les produits à faible risque. Les pesticides resteront toutefois autorisés en cas d’urgence sanitaire. La loi ne concerne pas les espaces verts le long de la voirie, des voies ferrées, des pistes d’aéroport ou encore dans les cimetières qui pourront encore être traitées par des pesticides.

Les fabricants d’intrants réagissent vivement

Face à cette anticipation, l’Union des entreprises pour la protection des jardins et des espaces publics (UPJ) n’a pas attendu longtemps pour faire entendre sa voix. Cette entité regroupe aujourd’hui 34 fabricants de produits destinés aux jardiniers amateurs ou aux professionnels des espaces publics. On y retrouve les géants de l’agrochimie Bayer SAS, Dow Agrosciences et Syngenta. Pas étonnant donc qu’ils essayent de faire jouer de leur influence pour expliquer que cet amendement est un non sens.

Dans un long communiqué, l’UPJ explique que « l’amendement du Gouvernement qui vise à interdire les produits phytopharmaceutiques aux collectivités locales en décembre 2016 n’a pas fait l’objet de concertation avec les professionnels du secteur« . Selon cette union de professionnels, le secteur risquerait de ne pas avoir le temps de s’adapter et près de 2 000 emplois seraient menacés. Si les pesticides sont interdits, des « milliers d’emplois directs sur tout le territoire » seraient menacés et les budgets des municipalités pour l’entretien des espaces verts se trouveraient multipliés par près de cinq. De plus, selon l’UPJ, « cet amendement n’a rien à voir avec la transition énergétique, les solutions de remplacement (désherbage thermique, vapeur) présentant un bilan énergétique négatif dans toutes les études« .

L’UPJ défend sa bonne foi. En effet, les PME du secteur ont déjà fait des efforts pour diminuer les intrants. Pour répondre au plan Ecophyto 2018 du ministère de l’Agriculture, la filière a déjà diminué le recours aux pesticides, en passant de 1 200 à 700 tonnes de produits en quelques années. Mais faut-il réellement s’arrêter là ? Ne peut-on pas imaginer avoir des espaces verts plus sauvages et laisser plus de « mauvaises herbes »? Car un espace vert public ne doit pas forcément être un massif constitué de fleurs et arbres poussés en pots; plusieurs communes l’ont déjà compris.

Par Matthieu Combe, journaliste scientifique

L’origine d’Uranus et de Neptune enfin révélée ?

Uranus et Neptune sont les planètes les plus lointaines du Système Solaire. Elles possèdent chacune une masse d’environ quinze fois celle de la Terre, sont composées jusqu’à 90% de glace et sont riches en carbone. En raison de leurs caractéristiques particulières, la question concernant l’origine d’Uranus et de Neptune demeurait à ce jour irrésolue. Les observations du Système Solaire externe et les modèles antérieurs décrivant la formation des deux planètes ne permettaient pas d’expliquer comment celles-ci se sont formées dans la zone où elles se trouvent aujourd’hui. Située très loin du Soleil, cette zone ne contenait pas assez de blocs de construction pour former Uranus et Neptune suffisamment vite avant la dissipation de la nébuleuse primordiale. Une fois la nébuleuse dissipée, il est en effet impossible pour les deux planètes de mettre en place leurs enveloppes gazeuses.

Récemment, l’Observatoire spatial Herschel s’est intéressé à la composition isotopique d’Uranus et de Neptune et en particulier la mesure du rapport deutérium sur hydrogène (D/H). Le rapport D/H est un traceur utilisé en planétologie pour connaître l’origine des éléments ayant formés le Système Solaire. Ce rapport isotopique est très sensible à la température de la nébuleuse primordiale : il est faible à des distances proches du Soleil et augmente à des distances plus élevées. Les modèles dynamiques suggèrent qu’Uranus et Neptune se sont formés dans la même zone lointaine que les comètes, et donc devraient posséder un rapport D/H élevé. Cependant, les mesures d’Herschel montrent de manière surprenante que le rapport D/H dans les deux planètes est très inférieur à celui mesuré dans toutes les comètes.

Cette nouvelle étude résout tous ces problèmes à la fois. Le nouveau modèle proposé est basé sur des simulations détaillées de la distribution et du transport des éléments volatiles les plus abondants dans la nébuleuse primordiale du Système Solaire (H2O, CO et N2). Ces simulations montrent la présence de « pics » de densités de solides dans des régions où la température de la nébuleuse devient suffisamment basse pour permettre à un élément gazeux de se condenser (ou lignes de glace). Les résultats montrent que Uranus et Neptune se seraient formées au niveau de la ligne de glace du monoxyde de carbone (CO), ce qui expliquerait qu’elles soient constituées de solides riches en carbone mais appauvris en azote. L’accrétion des quantités importantes de CO avec une quantité faible de H2O cométaire donne la valeur D/H mesuré dans l’atmosphère de ces planètes. De plus, comme la ligne de glace de l’azote se trouve légèrement plus loin, les planètes se sont alors naturellement formées appauvries en azote. Le modèle proposé fourni des abondances en carbone et en azote compatibles avec les observations,  et permet d’établir que la formation d’Uranus et de Neptune s’est faite dans cette zone lointaine.

© NASA

Uranus et Neptune vues par la mission Voyager 2 de la NASA.

Source : CNRS

Star des investissements verts, l’Europe pourrait se voir déclassée

L’Europe attire énormément d’investisseurs internationaux, notamment pour le solaire et l’éolien. Cependant, une politique plus progressiste est nécessaire en vue de renforcer le mouvement, selon un réseau d’investisseurs tournés vers le développement durable.

Selon un registre volontaire de fonds d’investissement internationaux dans le développement durable, l’Europe est de loin la région la plus attrayante. En effet, plus de 90 projets mobilisant des capitaux d’institutions financières européennes, américaines, ou encore australiennes sont menés sur le Vieux Continent. L’Australie représente plus de 40 projets, alors que les « marchés développés » et les États-Unis représentent environ 30 projets chacun.

Des membres issus de différents réseaux tels Asia Investor Group on Climate Change et Investor Network on Climate Risk se sont inscrits sur le registre. Dévoilé le 18 septembre, ce registre est maintenant ouvert aux fonds d’investissement n’appartenant pas à ces réseaux d’investisseurs.

En Europe, le nombre d’inscrits dans le registre concerne en premier lieu l’éolien (27 inscrits) et le solaire (15 inscrits). Les fonds publics (10 inscrits) et privés (10 inscrits), qui investissent principalement dans les technologies à faible émission de CO2, sont également bien représentés.

L’efficacité énergétique, la transmission et la distribution d’énergie ainsi que les processus de production industriels comptent respectivement sept inscrits. La construction verte, les obligations vertes, les hydroénergies, les bioénergies, le secteur forestier et les marchés du carbone sont moins bien représentés dans le registre.

La majorité des projets en Europe reçoivent moins de 10 millions de dollars (7 millions d’euros) de la part des membres du réseau, dont font partie les fonds de pension américains et européens, comme PensionDanmark ou le California State Teachers’ Retirement System. Les fonds d’investissement religieux et de charité, tels que le fonds d’investissement de l’Église de Suède, et de l’Église d’Angleterre, représentent également des investisseurs clés.

Un second rapport publié en même temps que le registre donne des exemples concrets de contributions cruciales de la communauté d’investisseurs institutionnels dédiée au développement de l’économie à faible émission de carbone.

Ainsi, PensionDanmark attribue 3 milliards de dollars (2,3 milliards d’euros) aux projets d’infrastructures à faible émission de carbone et infrastructures de réseau, ce qui représente 9 % des actifs consacrés. Le groupe ING a pour sa part accru ses engagements en faveur d’énergies renouvelables dans son portefeuille de prêts de 6 % en 2006 à 39 % en 2013.

Stephanie Pfeifer, directrice générale de Investors Group on Climate considère cependant qu’il est trop tôt pour dire que les projets européens sont les plus attrayants pour la communauté d’investissement. « Nous n’en sommes qu’au début de la mise en place du registre », explique-t-elle.

« L’Europe a été une destination attrayante pour les investissements verts et le nombre d’inscrits reflète cette tendance », indique-t-elle. « Actuellement, l’Europe n’est plus attrayante en raison de l’incertitude politique qui règne et du faible prix du carbone », poursuit-elle.

Une politique plus progressiste

L’autosatisfaction n’est en effet pas de mise mettent en garde les 347 investisseurs, qui représentent ensemble une quantité d’actifs de 24 milles milliards de dollars (18,7 milles milliards d’euros).

Dans une déclaration publiée en amont du sommet de l’ONU sur le climat cette semaine, les membres des réseaux soulignent la nécessité d’avoir « une direction politique plus forte et des politiques plus ambitieuses afin que nous puissions investir plus… Nous demandons [plus spécifiquement] aux gouvernements de fournir une tarification fiable du carbone qui soit significative sur le plan économique. [Cette fixation des prix] contribuerait à réorienter les investissements en rapport avec l’ampleur du défi du changement climatique ? Nous leur demandons également de renforcer le soutien réglementaire pour l’efficacité énergétique ainsi que pour les énergies renouvelables ».

Les fonds de financement publics

Par ailleurs, l’Europe obtient des financements pour lutter contre le changement climatique de la part des banques multilatérales de développement (BMD), telles la Banque européenne d’investissement (BEI) et la Banque mondiale.

Ces institutions publiques financent des programmes d’adaptation au réchauffement climatique, y compris pour les infrastructures et les projets de développement des énergies renouvelables, principalement au sein des économies émergentes et en voie de développement.

Les pays non membres de l’UE en Europe et en Asie centrale (Albanie, Kosovo, Arménie, etc.) et les 13 nouveaux États membres (UE 13) ont reçu respectivement 22 % et 14 % des financements en provenance des BMD, selon un rapport commun sur le financement des BMD qui a été publié le 19 septembre.

Le montant des investissements est plus bas que ceux de 2012. À l’époque, les 13 nouveaux États membres de l’UE avaient décroché 11 % de la totalité des fonds alloués par les BMD, tandis que les pays tiers et ceux d’Asie centrale en avaient remporté 15 %.

À l’échelle mondiale, les fonds climatiques investis par les BMD ont chuté de plus de 11 % en 2013 pour atteindre un niveau de 23,8 milliards de dollars (18,5 milliards d’euros) cette année.

À l’instar des tendances en 2012, quelque 80 % des fonds sont alloués à la réduction des gaz à effet de serre. Les 20 % restant sont consacrés aux mesures d’adaptation et de précaution mises en place dans le cadre du réchauffement climatique.

Richard Willis, porte-parole de la Banque européenne d’investissement, n’est que moyennement inquiet. « La faiblesse de l’économie et la nature conjoncturelle des investissements dans les énergies renouvelables expliquent en grande partie ce déclin. Dans ce dernier secteur, les investissements tendent à augmenter de nouveau avec l’avènement d’une nouvelle génération de technologies. Puis ils chuteront jusqu’à ce que de nouvelles technologies soient développées », a-t-il expliqué à EurActiv.

« La prise de conscience sur l’importance des financements climatiques a encouragé une bonne coopération et à un partage de l’expertise entre les BMD, les banques commerciales renouvelables, les entreprises privées, les gouvernements, etc.

Le défi qui se présente est de maintenir cette dynamique afin de continuer à attirer des investisseurs, parmi lesquels les obligations vertes, mais aussi d’apporter des solutions simples à l’échelle mondiale, par exemple sur l’évaluation des projets verts.

Donner confiance en ces projets, en leur efficacité à la fois environnementale et financière, notamment quand il s’agit de basculer d’un modèle basé sur les énergies fossiles vers un système fondé sur les énergies propres en Afrique ou ailleurs, représente un autre défi de taille ».

PROCHAINES ÉTAPES

  • 23 septembre : sommet de l’ONU sur le climat
  • 23-24 octobre : les dirigeants européens se mettront d’accord sur le paquet énergie-climat 2030 et sur les recommandations pour la conférence sur le climat de l’ONU en 2015 qui se tiendra à Paris
  • Du 30 novembre au 11 décembre 2015 : la Conférence sur le climat 2015 se tiendra à Paris et les États essaieront de trouver un accord contraignant en vue de lutter contre le changement climatique
  • 2020 : le nouvel accord sur le changement climatique entrerait en vigueur
  • 2020 : date butoir pour respecter les objectifs sur la réduction de 20 % en émission de gaz à effet de serre, l’amélioration de l’efficacité énergétique, les parts de marché dédié aux énergies renouvelables.

EurActiv.comBeatrice Denis – traduction de l’anglais par Pascal Hansens 

Et aussi dans les
ressources documentaires :

Les irréductibles algues rouges de Bretagne résistent encore au réchauffement des eaux

Les travaux des chercheurs1 se sont fondés sur une approche de terrain et un travail de modélisation considérable. Les équipes de plongeurs scientifiques des stations marines de Dinard et de Roscoff ont réalisé des inventaires sur 65 sites, du Golfe Normand Breton à la Baie de Vilaine, entre 2010 et 2012. Ils ont porté sur la variabilité des assemblages d’algues rouges présents sous les « forêts de laminaires », habitats sous marins emblématiques de la côte de Bretagne. Les patrons d’organisation récents ont été comparés à des donnéescollectées sur 163 sites, localisés dans la même zone, entre 1992 et 1998. Couvrant ainsi autotal une vingtaine d’années, les chercheurs ont pu analyser l’évolution de la diversité des assemblages d’algues rouges entre les deux périodes.

L’équipe de chercheurs a montré que la température des eaux de surface de Bretagne s’est élevée de plus de 0,7°C en 20 ans, sensiblement plus que ce qui es t observé au niveau mondial. Par ailleurs, les écarts saisonniers de températures se sont amplifiés, notamment dans le Golfe Normand Breton, avec un réchauffement estival et un refroidissement hivernal plus marqué en 2010-2012 qu’en 1992-1998.

Les chercheurs ont observé un changement significatif de la composition spécifique des assemblages d’algues rouges au cours des 20 dernières années, qui peut être corrélé à l’augmentation de la température. De plus, l’amplitude saisonnière des températures est le principal facteur gouvernant l’aire de distribution des espèces. Les modèles des chercheurs ont mis en avant des changements significatifs de l’aire de distribution de 7 sur 10 espèces les plus fréquentes.

Les modifications observées concernent le plus souvent une restriction de la zone occupée par les espèces avec un déplacement vers le nord ouest de la Bretagne ou un resserrementautour de la mer d’Iroise où les eaux sont restées plus fraîches. Ces résultats montrent que le schéma habituellement accepté de remontée des espèces vers le nord en réponse auréchauffement climatique se décline d’une manière particulière en milieu marin de la Bretagne. En effet, si la température des eaux de surface a plus fortement augmenté en Bretagne qu’en moyenne dans l’Océan mondial au cours des vingt dernières années, le réchauffement est hétérogène à l’échelle de la Bretagne. 

Ainsi, bien que les chercheurs constatent un déplacement des communautés algales vers le nord ouest de la Bretagne, les eaux de la mer d’Iroise, restées plus froides, pourraient fonctionner comme un refuge pour les espèces non tolérantes au réchauffement.

Enfin, ces changements soulèvent également la question de l’effet de ces déplacements d’algues sur la faune et la flore environnantes. Ainsi, la communauté scientifique travaille aujourd’hui sur l’impact de ces modifications sur le fonctionnement écologique des milieux marins côtiers.

1 Laboratoire Biologie des Organismes et Ecosystèmes Aquatiques (Muséum national d’Histoire naturelle/CNRS/IRD/UPMC/UNICAEN), de l’Institut de Systématique, Evolution, Biodiversité (Muséum national d’Histoire naturelle/CNRS/EPHE/UPMC), de la station biologique de Roscoff (CNRS/UPMC) et de l’équipe Biodiversité et gestion des territoires de l’Université de Rennes

RÉFÉRENCES : 

R.K. Gallon, M. Robuchon, B. Leroy, L. Le Gall, M. Valero and E. Feunteun. Twenty years of observed and predicted changes in subtidal red seaweed assemblages along a biogeographical transition zone: inferring potential causes from environmental data. Journal of Biogeography, sous presse (mis en ligne le 4 août 2014)

Source : CNRS

Et aussi dans les
ressources documentaires :

Sciences et société, « un débouché professionnel non-négligeable pour les ingénieurs »

Bertrand Bocquet, vous êtes enseignant-chercheur en Physique au sein du laboratoire SCité de l’Université de Lille 1, pouvez-vous nous présenter ce laboratoire et ses travaux ?

bocquetBertrand Bocquet. C’est une équipe de recherche interdisciplinaire, regroupant physiciens, mathématiciens, historiens des sciences et biologistes, formée en 2013, donc toute récente, qui travaille sur les relations entre sciences et société. Ce qui nous caractérise, c’est que nous travaillons de façon permanente avec d’une part, des membres associés issus d’autres laboratoires et d’autres disciplines, notamment des sociologues, et d’autre part, avec des membres associés issus de la société civile, toujours sur des sujets très contextualisés. Et ce sur quatre thématiques qui sont la représentation des sciences dans le cadre des technologies émergentes, la transition énergétique, la recherche participative et le numérique.

Notre cheval de bataille, ce sont donc les sciences en société, par ailleurs apparues comme un nouvel objectif dans la loi pour l’enseignement supérieur et la recherche du 22 juillet 2013.

En quoi consistent exactement les « sciences en société » ?

Bertrand Bocquet. Cela regroupe plusieurs choses et il est encore difficile de bien les caractériser. D’abord, la vulgarisation, la plus fréquente, difficilement quantifiable, qui est limitée essentiellement par le facteur temps : avec la professionnalisation de la recherche dans un cadre de plus en plus concurrentiel, les scientifiques sont de plus en plus soumis aux mêmes contraintes que le monde de l’entreprise, et n’ont plus beaucoup de temps à consacrer à cette mission qui peut consister, par exemple, à intervenir dans une école de sa ville pour présenter ses travaux aux élèves.

Ensuite, il y a les controverses scientifiques qui dépassent le cadre académique, s’invitant dans le débat public, où différents acteurs, notamment issus de la société civile, vont s’impliquer, et proposer une expertise.

Enfin, ce que l’on appelle la recherche participative, historiquement très développée en astronomie et en naturalisme, mais encore marginale dans les autres disciplines. Dans ces deux domaines historiques, les scientifiques construisent l’objet de recherche, et les passionnés les aident ensuite dans leur recherche. Dans les nouveaux modèles de recherche participative, il y a co-construction de l’objet de recherche avec la société civile. Le premier exemple en France étant les Partenariats Institutions-Citoyens pour la Recherche et l’Innovation (PICRI), créés en 2005 en Île-de-France.

Vous avez élaboré pour « Techniques de l’Ingénieur » la rubrique Sciences et société de la base documentaire Ingénierie et responsabilité. Pourquoi les ingénieurs devraient-ils s’intéresser à travailler avec la société civile ?

Bertrand Bocquet. D’abord parce que les associations impliquées dans ces processus de recherche participative, qui ont développé ou développent une expertise, ont besoin d’ingénieurs. C’est donc un débouché professionnel non-négligeable pour les ingénieurs, et pas seulement pour les chercheurs. Pour les ingénieurs travaillant en entreprises, la notion de responsabilité maitrisée est un atout en plus dans la compétition économique : prendre en compte les aspirations sociétales est important pour savoir y répondre.

Enfin, pour la société dans son ensemble, cela permet d’avoir des personnes plus ouvertes d’esprit. Si la société civile se retrouve face à des interlocuteurs ayant déjà réfléchi en amont à ses attentes, cela favorise les relations entre ces différents acteurs, et l’implantation, par exemple, d’unités de production au niveau local, si l’entreprise est jugée responsable, et compatible aux intérêts locaux.

Sciences et société, « un débouché professionnel non-négligeable pour les ingénieurs »

Entretien avec Bertrand Bocquet, conseiller éditorial pour Ingénierie et Responsabilité.

Techniques de l’Ingénieur : Bertrand Bocquet, vous êtes enseignant-chercheur en Physique au sein du laboratoire SCité de l’Université de Lille 1, pouvez-vous nous présenter ce laboratoire et ses travaux ?

bocquetBertrand Bocquet : C’est une équipe de recherche interdisciplinaire, regroupant physiciens, mathématiciens, historiens des sciences et biologistes, formée en 2013, donc toute récente, qui travaille sur les relations entre sciences et société. Ce qui nous caractérise, c’est que nous travaillons de façon permanente avec d’une part, des membres associés issus d’autres laboratoires et d’autres disciplines, notamment des sociologues, et d’autre part, avec des membres associés issus de la société civile, toujours sur des sujets très contextualisés. Et ce sur quatre thématiques qui sont la représentation des sciences dans le cadre des technologies émergentes, la transition énergétique, la recherche participative et le numérique.

Notre cheval de bataille, ce sont donc les sciences en société, par ailleurs apparues comme un nouvel objectif dans la loi pour l’enseignement supérieur et la recherche du 22 juillet 2013.

Techniques de l’Ingénieur : En quoi consistent exactement les « sciences en société » ?

Bertrand Bocquet : Cela regroupe plusieurs choses et il est encore difficile de bien les caractériser. D’abord, la vulgarisation, la plus fréquente, difficilement quantifiable, qui est limitée essentiellement par le facteur temps : avec la professionnalisation de la recherche dans un cadre de plus en plus concurrentiel, les scientifiques sont de plus en plus soumis aux mêmes contraintes que le monde de l’entreprise, et n’ont plus beaucoup de temps à consacrer à cette mission qui peut consister, par exemple, à intervenir dans une école de sa ville pour présenter ses travaux aux élèves.

Ensuite, il y a les controverses scientifiques qui dépassent le cadre académique, s’invitant dans le débat public, où différents acteurs, notamment issus de la société civile, vont s’impliquer, et proposer une expertise.

Enfin, ce que l’on appelle la recherche participative, historiquement très développée en astronomie et en naturalisme, mais encore marginale dans les autres disciplines. Dans ces deux domaines historiques, les scientifiques construisent l’objet de recherche, et les passionnés les aident ensuite dans leur recherche. Dans les nouveaux modèles de recherche participative, il y a co-construction de l’objet de recherche avec la société civile. Le premier exemple en France étant les Partenariats Institutions-Citoyens pour la Recherche et l’Innovation (PICRI), créés en 2005 en Île-de-France.

Techniques de l’Ingénieur : Vous avez élaboré pour Techniques de l’Ingénieur la rubrique Sciences et société de la base documentaire Ingénierie et responsabilité. Pourquoi les ingénieurs devraient-ils s’intéresser à travailler avec la société civile ?

Bertrand Bocquet : D’abord parce que les associations impliquées dans ces processus de recherche participative, qui ont développé ou développent une expertise, ont besoin d’ingénieurs. C’est donc un débouché professionnel non-négligeable pour les ingénieurs, et pas seulement pour les chercheurs. Pour les ingénieurs travaillant en entreprises, la notion de responsabilité maitrisée est un atout en plus dans la compétition économique : prendre en compte les aspirations sociétales est important pour savoir y répondre.

Enfin, pour la société dans son ensemble, cela permet d’avoir des personnes plus ouvertes d’esprit. Si la société civile se retrouve face à des interlocuteurs ayant déjà réfléchi en amont à ses attentes, cela favorise les relations entre ces différents acteurs, et l’implantation, par exemple, d’unités de production au niveau local, si l’entreprise est jugée responsable, et compatible aux intérêts locaux.

Mise en orbite autour de Mars réussie pour la première sonde indienne

Les Indiens utilisent le mot « jugaad », qui signifie que le travail est contraint par l’obsession du toujours moins cher. D’où le surnom de sonde low-cost donné à MOM. Contre toute attente, cela marche très bien. Les Indiens ont ainsi fabriqué une sonde pour mesurer le taux de méthane, un marqueur de vie primitive, dans l’atmosphère de Mars. Pour l’instant, le robot américain Curiosity n’en a pas détecté dans l’air martien, mais MOM va compléter ces observations. MOM n’a coûté que 70 millions de dollars, une broutille comparée aux 450 millions des sondes spatiales dites à bas coût, et aux 3 milliards de dollars des sondes les plus onéreuses. La sonde américaine d’exploration de Mars MAVEN lancée en 2013 avait couté … 485 millions. Avec seulement 14% du budget de MAVEN, les Indiens ont réussi à placer en orbite de Mars leur sonde dès la première tentative. Positionnée à 500 km du sol, elle analysera pendant six mois l’atmosphère, à la recherche de méthane.

Les ingénieurs indiens ont relevé le défi grâce à leur ingéniosité et leur imagination audacieuse. Par exemple, la fusée utilisée pour le lancement n’avait pas la puissance nécessaire. Peu importe. Il aura suffit à l’équipe indienne de faire tourner la fusée autour de la Terre pendant un mois entier pour lui faire prendre la vitesse requise pour s’échapper de l’attraction terrestre.

La NASA a félicité cette performance qui est une belle leçon de débrouillardise et d’efficacité. Ce succès propulse l’Inde comme une grande nation de la conquête spatiale. De quoi rendre jaloux la Chine et le Japon dont les tentatives d’envoi d’une sonde martienne se sont soldées par des échecs.

Par Audrey Loubens, journaliste scientifique

Et si les preuves du Big Bang étaient fausses ?

Voilà un sérieux camouflet envers la théorie du Big Bang. Rappelez-vous. En avril 2014, nous présentions des mesures exceptionnelles rapportées par des scientifiques américains. Grâce au télescope de l’observatoire BICEP2 basé au pôle sud, ils avaient observé directement ce qu’ils ont cru être des ondes gravitationnelles primordiales, preuves irréfutables de la validité de la théorie du Big Bang. Heureusement que nous présentions ces résultats au conditionnel, attendant des mesures complémentaires confirmant ces observations ! Car non seulement cette confirmation n’est toujours pas faite, mais en plus ces résultats sont remis en cause par des astronomes à partir de mesures réalisées par  l’Agence spatiale européenne (ESA). Les chercheurs ont ainsi pu cartographier la poussière présente dans l’espace, et plus particulièrement dans la zone observée par le télescope de BICEP2.  L’étude révèle que « la portion du ciel observée pour la découverte du mois de mars contient plus de poussière que ce que l’on pensait ». Une telle quantité de poussière pourrait s’être regroupée en spirales suite à une polarisation par des champs magnétiques par exemple. Ces nuages de poussières pourraient parfaitement être à l’origine des ondulations précédemment identifiées comme gravitationnelles.

Ce résultat ne contredit pas celui supposant attester de la validité du modèle d’Einstein, mais offre une lecture alternative beaucoup moins remarquable.

Cette carte de poussières pourra désormais guider les scientifiques pour qu’ils braquent leurs télescopes vers les zones les moins poussiéreuses, de façon à obtenir des mesures les plus fiables possibles, écartant les artefacts et les signaux parasites de ces particules spatiales.

Par Audrey Loubens, journaliste scientifique

Derniers jours : Gagnez une tablette Nexus 7, une enceinte Jambox et un mini drone !

Pour remporter un de ces bijoux high tech, rien de plus simple ! Remplissez vos coordonnées (pour que nous puissions vous envoyer votre lot si vous êtes l’heureux/se gagnant/e) et répondez à 3 questions de science étonnante.

Indices :
Pourquoi le cerveau se souvient-il des rêves ?

6 choses extraordinaires qui se cachent sous terre

Pourquoi les oiseaux volent en V ?

 

Nexus 7 – La nouvelle tablette de Google

Plus fine, plus légère et plus rapide, la nouvelle Nexus 7 allie puissance et praticité, et est dotée d’un écran à résolution inégalée de plus de 2,3 millions de pixels.

Avec 128 pixels par centimètre tout devient plus net, plus précis et plus beau. Découvrez toujours plus de livres et BD avec un confort de lecture exceptionnel. La HD de 1080 pixels transformera vos films et vos photos.

 

 

Mini Jambox – Du bon son, partout

Cette petite enceinte offre un son d’une exceptionnelle qualité. Légère, elle se glisse facilement dans une poche ou un sac à main, pour l’emmener partout.

 

Mini drone Rolling Spider

La marque française Parrot lance enfin son mini drone volant Rolling Spider en juillet 2014. Il ne pèse que 55g, vole dans les airs, aussi bien en intérieur qu’en extérieur, prend des photos et monte le long des murs grâce à ses deux roues (amovibles).

Bonne chance à tous !

Règlement du jeu

*Photos non contractuelles

  

Zoom sur le SensorWake, le réveil olfactif du jeune Français Guillaume Rolland

Inventer un réveil odorant, on ne l’avait pas encore fait celle-là, ou en tout cas on ne l’avait pas breveté. Pourtant ne s’agit-il pas là de l’une des plus agréables façons de sortir du sommeil – exit la vieille alarme stridente ? L’inventeur du SensorWake, un jeune étudiant nantais nommé Guillaume Rolland, reconnaît d’ailleurs avoir créé ce réveil par frustration des « réveils classiques sonores ou lumineux ».

À la source de cette idée, le jeune homme invoque également le travail de son père, directeur de maison de retraite. En effet, pour lui, le SensorWake est un moyen de réoffrir un supplément d’autonomie aux personnes âgées qui ne détectent plus ni le son ni la lumière.

Quoi qu’il en soit, il semblerait que les technologies à « odeurs » aient la cote en ce moment. Car peu de temps après l’oPhone, c’est peut-être au tour du SensorWake, le fameux réveil à odeurs, de faire son apparition. 

Si le réveil olfactif a attiré l’attention du géant américain Google, – outre le fait que le jeune prodige tente de synthétiser l’odeur du dollar – c’est sûrement en raison de sa simplicité. Le réveil fonctionne un peu comme une machine à café dans laquelle on glisse des dosettes parfumées. La différence est que la senteur est diffusée à l’heure programmée par un ventilateur. L’efficacité serait redoutable : moins d’une minute suffirait au dormeur pour s’échapper des bras de Morphée.

Le jeune homme n’en est pas à son premier coup d’essai, bien que cette fois-ci, son invention soit remontée jusqu’aux plus « hautes instances » si l’on peut dire. Le jeune homme a en effet obtenu la première place du concours Science et Vie junior ainsi que la médaille d’or au concours Lépine junior. Une notoriété qui lui a permis de s’appuyer sur l’aide d’Exhalia, une entreprise experte dans le marketing olfactif, et sur celle d’un étudiant spécialisé dans le design.

S’il n’a pas remporté le Grand prix de l’innovation Google, il n’a pas pour autant perdu la bataille. Il pourrait bien se retrouver un jour sur notre table de chevet !

Par Sébastien Tribot

 

288102/TI382/72-WQ-VBZ3801

Le Français finaliste du Grand prix de l’innovation Google a-t-il gagné ?

Le concours existe depuis 2011 et récompense des jeunes scientifiques âgés de 13 à 18 ans pour leur inventivité. Sur 2000 candidats, le jury n’en retient que 15 au terme d’une sélection exigeante. Mais Guillaume n’est pas un débutant. Ce lycéen de 18 ans a déjà un beau palmarès avec la médaille d’or du Concours Lépine national et le Prix Euro district Strasbourg Ortenau du concours Lépine européen. Son idée ? Un réveil qui « sonne » l’heure en diffusant des odeurs. Guillaume pensait d’abord aux personnes âgées, à l’ouïe et à la vue parfois déficientes. Mais au fur et à mesure que son projet gagnait en popularité, il est apparu que n’importe quel individu lambda pouvait être intéressé.

Le réveil olfactif fonctionne comme votre cafetière. Vous choisissez un parfum sous forme de dosette, insérez la dosette dans l’appareil et réglez votre alarme. A l’heure fixée, le parfum est doucement diffusé dans la pièce, stimulant votre odorat. Une nouvelle façon de se réveiller, qui change du terriblement efficace bip bip de certains réveils. L’inventeur a prévu plusieurs parfums comme café, sciure de bois ou encore fraise Tagada pour les plus gourmands. Le jeune inventeur n’a pas hésité à emprunter l’imprimante 3D de l’école Centrale de Nantes, ravie de participer au projet, pour fabriquer les pièces de son prototype.

Il ne décrochera pas le 1er prix finalement décerné à 3 Irlandaises souhaitant utiliser des bactéries diazotrophes pour doper les récoltes et lutter contre la faim dans le monde. Un objectif noble, quoique travailler à réveiller les gens en douceur contribue à la bonne humeur ambiante, et donc au bien-être de chacun. Félicitations à Guillaume Rolland d’avoir porté les couleurs de la France jusqu’à la Silicon Valley !

Découvrez son réveil olfactif en vidéo :

Par Audrey Loubens, journaliste scientifique

 

288102/TI382/72-WQ-VBZ3801

Comment sécuriser votre ordinateur portable en cas de vol

Verrouillez votre appareil

Première chose à faire : verrouiller votre appareil. Créez un mot de passe que vous devrez entrer à chaque démarrage. Cela ralentira la personne ayant accès à votre ordinateur. Mais vous devrez garder à l’esprit que pour “craquer” votre ordinateur, il suffit d’utiliser un logiciel de récupération de mots de passe (Ophcrack ou Offline NT Password & Registry Editor pour Windows, Kon-Boot pour Mac), ou de rebooter l’ordinateur puis de passer par les lignes de commandes pour Ubuntu et Linux.

Chiffrez vos données

Le mieux est donc de rendre vos données illisibles en les chiffrant. Windows et Mac vous permettent de chiffrer votre disque dur, avec leurs systèmes intégrés Bitlocker et FileVault 2, quand Linux vous le propose lors de l’installation du système. Mais ces systèmes ne sont pas infaillibles, et l’on s’interroge toujours sur l’existence de “backdoors”, permettant de déjouer le chiffrement. En outre, toutes les éditions de Windows n’intègrent pas BitLocker : il faut posséder une version Professionnelle ou Intégrale. D’où l’utilité de chiffrer vous-même vos fichiers, avec des logiciels tels que RealCrypt, NCrypt, AxCrypt, ou AESCrypt, qui vous permettront de créer des dossiers virtuels chiffrés.

Installez un logiciel de suivi

Ces précautions vous permettront de faire perdre du temps aux voleurs, le temps d’agir à distance, grâce à un logiciel de suivi préalablement installé sur votre ordinateur, comme Absolute LoJack ou Beebip. Cette solution “antivol” vous permettra de géolocaliser votre ordinateur volé, de le verrouiller, puis de supprimer son contenu. Le mouchard sera caché dans le BIOS, ce qui empêchera tout voleur de le supprimer en installant un nouveau système d’exploitation.

Sauvegardez vos données

N’oubliez pas, enfin, de sauvegarder régulièrement vos données ailleurs. Vous pouvez les stocker dans le Cloud, mais vous pouvez aussi utiliser un disque dur externe USB, couplé à un logiciel de synchronisation, tel que Cobian Backup ou Areca Backup, qui copiera toutes vos données de façon automatique.

Les disques externes restent limités en taille de stockage. Ainsi, vous pouvez aussi copier vos données sur un serveur distant, qu’il s’agisse d’un serveur FTP que vous aurez créé vous-même sur une autre machine, ou d’un NAS (Network Attached Storage), qui vous permettra de stocker de grandes quantités de données.

Par Fabien Soyez

Stockage en ligne : les alternatives à Dropbox

La plupart des services ont intégré le chiffrement des données dans leur technologie. Les données stockées sur Google Drive et OneDrive sont chiffrées lors de leur transfert vers les serveurs, via le protocole TLS (Transport Security Layer). Mais une fois dans le Cloud, ces données sont stockées en clair – sauf pour la version professionnelle de OneDrive.

Dropbox, Box et Apple chiffrent les données stockées, mais détiennent les clés de déchiffrement, ce qui leur permet d’accéder aux informations des utilisateurs, même chiffrées. 

En outre, les serveurs de tous ces services sont situés aux Etats-Unis, pays soumis au Patriot Act.

Zero knowledge

Il existe des services moins connus, mais proposant une offre de stockage solide et sûre.

S’il est américain, SpiderOak se démarque en rendant vos données confidentielles, via le chiffrement “zero knowledge” (connaissance zero), qui consiste à faire de l’utilisateur le seul maître à bord. Vous serez ainsi le seul à posséder la “clé” (un couple identifiant / mot de passe) nécessaire au déchiffrement des données – en local, et non sur le serveur.

Wuala est un service français, dont les serveurs se trouvent en Suisse – pays possédant des lois strictes en matière de protection des données. Comme SpiderOak, il propose un chiffrement de bout en bout.

Bien sûr, si SpiderOak ou Wuala le désirent vraiment, vos données sont toujours susceptibles d’être interceptées, via des voies détournées. Pour l’utilisateur, il s’agit avant tout d’une question de confiance.

Votre propre serveur

Reste la solution “manuelle”, encore plus sûre. Les programmes open source, tels que SparkleShare ou Git-annex, vous permettent de créer vos propres serveurs. Mais pour cela, il vous faudra vous plonger dans les lignes de commande.

D’autres logiciels, comme RealCrypt, AxCrypt, ou AESCrypt, vous permettent de chiffrer manuellement vos documents, avant de les envoyer dans les nuages. Enfin, plus simple, Box Cryptor, vous permet de chiffrer vos fichiers automatiquement, avant de les envoyer sur le service de stockage de votre choix.

Par Fabien Soyez

Bleep : une messagerie en mode privé

En juillet, les développeurs de BitTorrent, le célèbre logiciel d’échange de fichiers peer-too-peer (P2P) ont dévoilé une messagerie décentralisée et sécurisée.

Ce logiciel, Bleep, se veut sécurisé grâce à son architecture, qui repose sur le P2P : pas de centralisation, les données partent de l’ordinateur de l’utilisateur jusqu’à celui de son correspondant, sans passer par un serveur tiers – contrairement aux messageries classiques, qui stockent, même temporairement, les données dans leurs machines.

Les communications via Bleep sont intégralement chiffrées. Les clés de chiffrement ne passent pas non plus par un serveur, mais transitent directement d’un utilisateur à un autre. Bleep peut s’utiliser de façon anonyme, sans avoir besoin d’utiliser un nom d’utilisateur.

Pour l’instant, Bleep est disponible sur invitation, en version “Alpha” – sous Windows 7 et 8 (mais le logiciel s’étendra vite à d’autres systèmes d’exploitation). L’application ne propose que des conversations audio ou texte, mais la vidéo devrait rapidement arriver, dans la version suivante.

Echanges confidentiels

Sachez que Bleep n’est pas la seule application de messagerie sécurisée et décentralisée existante. Si vous souhaitez envoyer des courriels confidentiels, Bitmessage est un protocole P2P qui permet d’échanger très simplement des emails chiffrés. De son côté, Freemail, un autre logiciel de messagerie libre, passe par le serveur Freenet, un réseau anonyme et distribué, ce qui garantit l’anonymat de son utilisateur. Les emails sont aussi chiffrés.

Concernant la messagerie instantanée, TorChat est un autre client P2P de messagerie instantanée qui utilise le réseau TOR pour transmettre ses messages. Totalement décentralisé, il garantira à vos échanges une totale confidentialité.

Par Fabien Soyez