Un pas de plus vers les ordinateurs organiques ?

Lire les réseaux tridimensionnels

Les réseaux neuronaux artificiels sont relativement faciles à préparer dans un milieu de culture approprié mais, il y a encore quelques années, on avait du mal à analyser un tel milieu en trois dimensions. Un problème auquel s’est attaqué le groupe du professeur Shy Shoham du Technion. Pour mémoire, celui-ci avait développé au cours des dernières années des lunettes pour aveugles, lui valant un article dans Nature Communications en 2013.

Plus récemment, le groupe s’est donc tourné vers l’analyse optique d’un réseau tridimensionnel de neurones. Pour ce faire, il a placé du tissu cérébral de souris dans un milieu de culture tamponné avec différents agents de croissance (insuline, BDNF, L-glutamine, etc.). Le milieu avait à la fin une concentration en neurones entre 40.000 et 60.000 cellules par micro-L-1. L’ajout d’un indicateur fluorescent de calcium a ensuite permis d’effectuer des analyses avec une méthode développée par le groupe, le Scanning-Line Temporal-Focusing (SLITE)- Two-Photon Laser Scanning Microscopy (TPLSM). Le principe : un microscope à double photon est utilisé pour analyser en profondeur l’échantillon (plusieurs millimètres) et le système est couplé à une lecture grâce à un laser à pulsations ultra-rapide qui irradie toute une ligne.

Les résultats peuvent être visualisés sur le site du groupe. Comme on peut l’apercevoir sur les vidéos, le réseau neuronal apparaît en trois dimensions avec une grande précision. Ce qui a permis d’obtenir plusieurs résultats intéressants, notamment sur la manière dont vieillissent les réseaux neuronaux, ces derniers se propageant de moins en moins vite avec le temps, mais avec une connectivité qui se stabilise.

Un nouveau pas vers les réseaux neuronaux artificiels

La preuve a été apportée que l’on peut maintenant analyser les réseaux neuronaux en 3D, ce qui ouvre la voie à des recherches plus poussées dans les domaines qui se limitaient jusqu’alors à la 2D : cerveaux artificiels, étude des neurones, etc. Cette avancée permettra en outre de renforcer les algorithmes utilisés dans les réseaux neuronaux artificiels informatiques, dont le fonctionnement imite le cerveau. On peut également citer la revue du professeur Shoham sur les progrès en matière d’interface cerveau-machine. Gardons un oeil intéressé sur ce groupe, dont les travaux nous fournissent autant des outils pour faire plus de recherche (visualisation 3D) que des applications pratiques (lunettes pour aveugles).

Capture du carbone: un premier projet d’envergure mondiale au Canada

S’il est concluant, ce projet de 1,4 milliard de dollars canadiens (993 millions d’euros) pourrait susciter un nouvel intérêt pour l’utilisation du charbon à des fins de production d’électricité, au moment où plusieurs pays ferment leurs vieilles centrales polluantes, mises au banc des accusés du réchauffement climatique.

L’inauguration de cette centrale à Estevan, dans le sud de la Saskatchewan, représente « une étape historique » dans les efforts pour réduire les émissions de CO2, le principal gaz à effet de serre produit par l’activité humaine, s’est félicitée l’Agence internationale de l’énergie (AIE) dans un communiqué.

L’ancienne centrale « Boundary Dam », d’une capacité de 110 MW, a été équipée d’une technologie permettant de capter le CO2 s’échappant des fumées et de le stocker sous terre ou de l’injecter dans des champs pétroliers matures pour faire remonter l’or noir.

Pour l’AIE, sans cette technologie, les deux tiers des réserves mondiales de pétrole récupérables ne pourraient être commercialisées, au risque sinon de dépasser le seuil de 2°C fixé par la communauté internationale pour éviter des impacts catastrophiques dans de nombreuses régions du globe.

La combustion du charbon est à l’origine de 40% de l’électricité produite dans le monde, selon SaskPower. Mail il est aussi responsable de près de 30% des émissions de gaz à effet de serre, précise l’AIE.

La société publique de la Saskatchewan possède trois centrales au charbon qui produisent près de la moitié de l’électricité de la province, mais génère aussi 70% de ses émissions de gaz à effet de serre.

Le projet de la centrale « Boundary Dam » doit permettre de capter un million de tonnes de dioxyde de carbone par année, soit l’équivalent de retirer 250.000 voitures de la circulation, précise SaskPower.

Des projets semblables sont en voie de réalisation ailleurs au Canada, aux Etats-Unis, en Arabie saoudite et en Australie.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Sony s’attaque au marché des lunettes connectées avec les SmartEyeglass

Après Google, le premier à s’être implanté dans le marché des lunettes connectées, c’est désormais au tour de la multinationale Japonaise Sony de faire son entrée dans le secteur de la réalité augmentée. Avec les SmartEyeglass, des lunettes à l’esthétique certainement discutable, avec son design sportif et ses montures épaisses… Mais dont les applications, grâce notamment aux modules dont elles disposent, devraient se révéler fort utiles. Seront présents, « une boussole, un accéléromètre, un gyroscope, un capteur de luminosité ainsi qu’une caméra » (de trois mégapixels). En prime, un petit boîtier, relié par fil aux lunettes, intégrera un capteur tactile, un microphone et la batterie.

Sur les deux verres des SmartEyeglass, de résolution 419 x 138 pixels, l’utilisateur pourra lire en vert toutes sortes d’informations et de notifications. Entre autres, et à titre d’exemple, des indications sur les personnes croisées, à la condition qu’elles soient dans sa base de données. Mais bien sûr, cela ira beaucoup plus loin que cela. On peut d’ailleurs se demander si les lunettes intégreront des applications du genre de Style-Eyes, qui permet, à la manière de Shazam pour la musique, de scanner les vêtements afin d’en connaître la marque. Concernant la lisibilité de ces informations, Sony promet que le soleil ne sera pas un souci.

SmartEyeglass

Tout récemment, Sony a rendu disponible un kit de développement logiciel à l’attention des développeurs dans le but de les encourager à concevoir des applications pour les lunettes. Plusieurs sociétés s’en seraient déjà emparés. Cookpad notamment, un site Japonnais spécialisé dans les recettes de cuisine, aurait conçu une application permettant de dérouler progressivement la méthode de préparation de différents plats.

Toutefois, rappelons le encore une fois, les SmartEyeglass dévoilées par Sony ne sont qu’un prototype dont le développement n’est pas finalisé. Le design peut donc évoluer d’ici l’année prochaine, tout comme les fonctionnalités, qui pourraient être revues et certaines ajoutées… Des nouvelles devraient nous parvenir dans le courant de l’année. Pour l’heure, si une version réservée aux développeurs est censée voir le jour en mars 2015, nous n’en savons pas beaucoup plus. La date de commercialisation et le prix des lunettes n’ayant pas encore été clairement indiqué par Sony.

Par Sébastien Tribot

288102/TI382/72-WQ-VBZ3801

Reach/CLP : toute l’actualité de septembre (2/2)

Actualités échéances 2015 CLP 

16/09/2014

La commission européenne a organisé une journée relative aux échéances de 2015 pour le CLP. Cette journée est le début d’une période de réflexion et de mise en œuvre d’actions pour atteindre les objectifs de juin 2015 : appliquer le règlement CLP aux mélanges.

Etiquetage Légal a dédié sur son site internet une nouvelle page à l’échéance de 2015. Cette page sera un espace de mise en avant d’actualités, de focus, d’avis ou de notas règlementaires.

http://www.etiquetage-legal.com/index.php?page=128-accueil-actualite-clp-echeance-2015

Adoption de 5 avis de classification et d’étiquetage harmonisé

17/09/2014

Le Comité d’Evaluation de Risques (RAC) de l’ECHA a adopté, par consensus, 5 avis de classification et d’étiquetage harmonisé pour les substances suivantes : méthanol ; chloralose (INN) ; N,N dimethylacetamide (DMAC) ; Iodomethane ; Acide heptadecafluorononanoique et ses sels de sodium et d’ammonium (PFNA).

Les comités de l’ECHA soutiennent 16 utilisations de substances extrêmement préoccupantes (SVHC)

17/09/2014

Le comité d’évaluation des risques (RAC) et le comité d’analyse socio-économique (SEAC) ont émis des avis pour autoriser l’utilisation de substances extrêmement préoccupantes (SVHC). Les avis sont fondés sur huit demandes pour 16 utilisations spécifiques.

Consultation publique pour une restriction

17/09/2014

L’ECHA a lancé une consultation publique pour la restriction d’une nouvelle substance : Bis(pentabromophenyl) ether (DecaBDE)  (N° EC : 214-604-9, N° CAS : 1163-19-5).

Les commentaires sont à soumettre avant le 17 mars 2015.

Consultation publique pour la classification et l’étiquetage harmonisé de l’acetochlor

18/09/2014

L’ECHA a lancé une consultation publique additionnelle pour la classification et l’étiquetage harmonisé de l’acetochlor (N° EC : 251-899-3, N° CAS : 34256-82-1), pour sa toxicité sur la reproduction. Les commentaires sont à soumettre avant le 20 janvier 2015.

Nouvelle consultation pour éviter les tests sur les animaux

18/09/2014

L’ECHA a lancé un appel visant à collecter des informations sur des substances pour éviter les tests inutiles sur les animaux. 47 propositions sont concernées. Les informations relatives à ces substances sont à soumettre pour le 3 novembre 2014.

L’ECHA fournit des avis sur les substances considérées pour la gestion des risques 

23/09/2014

A partir de maintenant, le site web de l’ECHA donnera un avis sur les substances envisagées par les autorités pour la gestion du risque réglementaire, ainsi que les voies envisagées. Les voies sont par exemple la classification et l’étiquetage harmonisés, l’autorisation ou la restriction. L’information est utile pour de nombreuses parties prenantes, y compris les fabricants et importateurs de produits chimiques, les utilisateurs en aval et la société civile.

Liste des produits biocides publiée (article 95)

24/09/2014

Suite aux corrections de la liste provisoire des substances actives et des fournisseurs, la première liste officielle de l’article 95 en vertu du règlement sur les produits biocides est maintenant disponible sur le site web de l’ECHA.

Données commerciales sur les produits dangereux disponibles (PIC)

25/09/2014

Les informations sur les produits chimiques dangereux importés et exportés (règlement PIC), ainsi que les détails sur les pays importateurs et exportateurs sont maintenant accessibles au public sur le site Internet de l’ECHA.

Nouvelle proposition de classification et d’étiquetage harmonisé

26/09/2014

L’ECHA a lancé une consultation pour l’harmonisation et l’étiquetage harmonisé de quatre nouvelles substances : Cyanamide, dibutyltin dilaurate, fipronil (ISO); 5-amino-1-[2,6-dichloro-4-(trifluoromethyl)phenyl]-4-[(trifluoromethyl)sulfinyl]-1H-pyrazole-3-carbonitrile, quinolin-8-ol; 8-hydroxyquinoline. Les parties intéressées sont invitées à soumettre leur commentaire sur le site de l’ECHA, et ce avant le 10 novembre 2014.

 

Par Céline GABORIAUD, Ingénieur Environnement aux Ateliers d’Orval
 

Et aussi dans les
ressources documentaires :

Les pesticides interdits dans les espaces verts publics fin 2016 ?

L’examen du projet de loi sur la transition énergétique commence aujourd’hui à l’Assemblée Nationale. Il comprend un amendement voté en commission spéciale de l’Assemblée en fin de semaine dernière pour anticiper l’interdiction des pesticides de 4 ans.

L’anticipation de l’interdiction « est techniquement réalisable car elle ne porte que sur les espaces verts et les promenades ouvertes au public, surfaces pour lesquelles il existe des solutions alternatives à l’emploi des pesticides chimiques« , explique le Gouvernement. Ces produits alternatifs sont les produits autorisés en agriculture biologique, les produits de bio-contrôle et les produits à faible risque. Les pesticides resteront toutefois autorisés en cas d’urgence sanitaire. La loi ne concerne pas les espaces verts le long de la voirie, des voies ferrées, des pistes d’aéroport ou encore dans les cimetières qui pourront encore être traitées par des pesticides.

Les fabricants d’intrants réagissent vivement

Face à cette anticipation, l’Union des entreprises pour la protection des jardins et des espaces publics (UPJ) n’a pas attendu longtemps pour faire entendre sa voix. Cette entité regroupe aujourd’hui 34 fabricants de produits destinés aux jardiniers amateurs ou aux professionnels des espaces publics. On y retrouve les géants de l’agrochimie Bayer SAS, Dow Agrosciences et Syngenta. Pas étonnant donc qu’ils essayent de faire jouer de leur influence pour expliquer que cet amendement est un non sens.

Dans un long communiqué, l’UPJ explique que « l’amendement du Gouvernement qui vise à interdire les produits phytopharmaceutiques aux collectivités locales en décembre 2016 n’a pas fait l’objet de concertation avec les professionnels du secteur« . Selon cette union de professionnels, le secteur risquerait de ne pas avoir le temps de s’adapter et près de 2 000 emplois seraient menacés. Si les pesticides sont interdits, des « milliers d’emplois directs sur tout le territoire » seraient menacés et les budgets des municipalités pour l’entretien des espaces verts se trouveraient multipliés par près de cinq. De plus, selon l’UPJ, « cet amendement n’a rien à voir avec la transition énergétique, les solutions de remplacement (désherbage thermique, vapeur) présentant un bilan énergétique négatif dans toutes les études« .

L’UPJ défend sa bonne foi. En effet, les PME du secteur ont déjà fait des efforts pour diminuer les intrants. Pour répondre au plan Ecophyto 2018 du ministère de l’Agriculture, la filière a déjà diminué le recours aux pesticides, en passant de 1 200 à 700 tonnes de produits en quelques années. Mais faut-il réellement s’arrêter là ? Ne peut-on pas imaginer avoir des espaces verts plus sauvages et laisser plus de « mauvaises herbes »? Car un espace vert public ne doit pas forcément être un massif constitué de fleurs et arbres poussés en pots; plusieurs communes l’ont déjà compris.

Par Matthieu Combe, journaliste scientifique

L’origine d’Uranus et de Neptune enfin révélée ?

Uranus et Neptune sont les planètes les plus lointaines du Système Solaire. Elles possèdent chacune une masse d’environ quinze fois celle de la Terre, sont composées jusqu’à 90% de glace et sont riches en carbone. En raison de leurs caractéristiques particulières, la question concernant l’origine d’Uranus et de Neptune demeurait à ce jour irrésolue. Les observations du Système Solaire externe et les modèles antérieurs décrivant la formation des deux planètes ne permettaient pas d’expliquer comment celles-ci se sont formées dans la zone où elles se trouvent aujourd’hui. Située très loin du Soleil, cette zone ne contenait pas assez de blocs de construction pour former Uranus et Neptune suffisamment vite avant la dissipation de la nébuleuse primordiale. Une fois la nébuleuse dissipée, il est en effet impossible pour les deux planètes de mettre en place leurs enveloppes gazeuses.

Récemment, l’Observatoire spatial Herschel s’est intéressé à la composition isotopique d’Uranus et de Neptune et en particulier la mesure du rapport deutérium sur hydrogène (D/H). Le rapport D/H est un traceur utilisé en planétologie pour connaître l’origine des éléments ayant formés le Système Solaire. Ce rapport isotopique est très sensible à la température de la nébuleuse primordiale : il est faible à des distances proches du Soleil et augmente à des distances plus élevées. Les modèles dynamiques suggèrent qu’Uranus et Neptune se sont formés dans la même zone lointaine que les comètes, et donc devraient posséder un rapport D/H élevé. Cependant, les mesures d’Herschel montrent de manière surprenante que le rapport D/H dans les deux planètes est très inférieur à celui mesuré dans toutes les comètes.

Cette nouvelle étude résout tous ces problèmes à la fois. Le nouveau modèle proposé est basé sur des simulations détaillées de la distribution et du transport des éléments volatiles les plus abondants dans la nébuleuse primordiale du Système Solaire (H2O, CO et N2). Ces simulations montrent la présence de « pics » de densités de solides dans des régions où la température de la nébuleuse devient suffisamment basse pour permettre à un élément gazeux de se condenser (ou lignes de glace). Les résultats montrent que Uranus et Neptune se seraient formées au niveau de la ligne de glace du monoxyde de carbone (CO), ce qui expliquerait qu’elles soient constituées de solides riches en carbone mais appauvris en azote. L’accrétion des quantités importantes de CO avec une quantité faible de H2O cométaire donne la valeur D/H mesuré dans l’atmosphère de ces planètes. De plus, comme la ligne de glace de l’azote se trouve légèrement plus loin, les planètes se sont alors naturellement formées appauvries en azote. Le modèle proposé fourni des abondances en carbone et en azote compatibles avec les observations,  et permet d’établir que la formation d’Uranus et de Neptune s’est faite dans cette zone lointaine.

© NASA

Uranus et Neptune vues par la mission Voyager 2 de la NASA.

Source : CNRS

Star des investissements verts, l’Europe pourrait se voir déclassée

L’Europe attire énormément d’investisseurs internationaux, notamment pour le solaire et l’éolien. Cependant, une politique plus progressiste est nécessaire en vue de renforcer le mouvement, selon un réseau d’investisseurs tournés vers le développement durable.

Selon un registre volontaire de fonds d’investissement internationaux dans le développement durable, l’Europe est de loin la région la plus attrayante. En effet, plus de 90 projets mobilisant des capitaux d’institutions financières européennes, américaines, ou encore australiennes sont menés sur le Vieux Continent. L’Australie représente plus de 40 projets, alors que les « marchés développés » et les États-Unis représentent environ 30 projets chacun.

Des membres issus de différents réseaux tels Asia Investor Group on Climate Change et Investor Network on Climate Risk se sont inscrits sur le registre. Dévoilé le 18 septembre, ce registre est maintenant ouvert aux fonds d’investissement n’appartenant pas à ces réseaux d’investisseurs.

En Europe, le nombre d’inscrits dans le registre concerne en premier lieu l’éolien (27 inscrits) et le solaire (15 inscrits). Les fonds publics (10 inscrits) et privés (10 inscrits), qui investissent principalement dans les technologies à faible émission de CO2, sont également bien représentés.

L’efficacité énergétique, la transmission et la distribution d’énergie ainsi que les processus de production industriels comptent respectivement sept inscrits. La construction verte, les obligations vertes, les hydroénergies, les bioénergies, le secteur forestier et les marchés du carbone sont moins bien représentés dans le registre.

La majorité des projets en Europe reçoivent moins de 10 millions de dollars (7 millions d’euros) de la part des membres du réseau, dont font partie les fonds de pension américains et européens, comme PensionDanmark ou le California State Teachers’ Retirement System. Les fonds d’investissement religieux et de charité, tels que le fonds d’investissement de l’Église de Suède, et de l’Église d’Angleterre, représentent également des investisseurs clés.

Un second rapport publié en même temps que le registre donne des exemples concrets de contributions cruciales de la communauté d’investisseurs institutionnels dédiée au développement de l’économie à faible émission de carbone.

Ainsi, PensionDanmark attribue 3 milliards de dollars (2,3 milliards d’euros) aux projets d’infrastructures à faible émission de carbone et infrastructures de réseau, ce qui représente 9 % des actifs consacrés. Le groupe ING a pour sa part accru ses engagements en faveur d’énergies renouvelables dans son portefeuille de prêts de 6 % en 2006 à 39 % en 2013.

Stephanie Pfeifer, directrice générale de Investors Group on Climate considère cependant qu’il est trop tôt pour dire que les projets européens sont les plus attrayants pour la communauté d’investissement. « Nous n’en sommes qu’au début de la mise en place du registre », explique-t-elle.

« L’Europe a été une destination attrayante pour les investissements verts et le nombre d’inscrits reflète cette tendance », indique-t-elle. « Actuellement, l’Europe n’est plus attrayante en raison de l’incertitude politique qui règne et du faible prix du carbone », poursuit-elle.

Une politique plus progressiste

L’autosatisfaction n’est en effet pas de mise mettent en garde les 347 investisseurs, qui représentent ensemble une quantité d’actifs de 24 milles milliards de dollars (18,7 milles milliards d’euros).

Dans une déclaration publiée en amont du sommet de l’ONU sur le climat cette semaine, les membres des réseaux soulignent la nécessité d’avoir « une direction politique plus forte et des politiques plus ambitieuses afin que nous puissions investir plus… Nous demandons [plus spécifiquement] aux gouvernements de fournir une tarification fiable du carbone qui soit significative sur le plan économique. [Cette fixation des prix] contribuerait à réorienter les investissements en rapport avec l’ampleur du défi du changement climatique ? Nous leur demandons également de renforcer le soutien réglementaire pour l’efficacité énergétique ainsi que pour les énergies renouvelables ».

Les fonds de financement publics

Par ailleurs, l’Europe obtient des financements pour lutter contre le changement climatique de la part des banques multilatérales de développement (BMD), telles la Banque européenne d’investissement (BEI) et la Banque mondiale.

Ces institutions publiques financent des programmes d’adaptation au réchauffement climatique, y compris pour les infrastructures et les projets de développement des énergies renouvelables, principalement au sein des économies émergentes et en voie de développement.

Les pays non membres de l’UE en Europe et en Asie centrale (Albanie, Kosovo, Arménie, etc.) et les 13 nouveaux États membres (UE 13) ont reçu respectivement 22 % et 14 % des financements en provenance des BMD, selon un rapport commun sur le financement des BMD qui a été publié le 19 septembre.

Le montant des investissements est plus bas que ceux de 2012. À l’époque, les 13 nouveaux États membres de l’UE avaient décroché 11 % de la totalité des fonds alloués par les BMD, tandis que les pays tiers et ceux d’Asie centrale en avaient remporté 15 %.

À l’échelle mondiale, les fonds climatiques investis par les BMD ont chuté de plus de 11 % en 2013 pour atteindre un niveau de 23,8 milliards de dollars (18,5 milliards d’euros) cette année.

À l’instar des tendances en 2012, quelque 80 % des fonds sont alloués à la réduction des gaz à effet de serre. Les 20 % restant sont consacrés aux mesures d’adaptation et de précaution mises en place dans le cadre du réchauffement climatique.

Richard Willis, porte-parole de la Banque européenne d’investissement, n’est que moyennement inquiet. « La faiblesse de l’économie et la nature conjoncturelle des investissements dans les énergies renouvelables expliquent en grande partie ce déclin. Dans ce dernier secteur, les investissements tendent à augmenter de nouveau avec l’avènement d’une nouvelle génération de technologies. Puis ils chuteront jusqu’à ce que de nouvelles technologies soient développées », a-t-il expliqué à EurActiv.

« La prise de conscience sur l’importance des financements climatiques a encouragé une bonne coopération et à un partage de l’expertise entre les BMD, les banques commerciales renouvelables, les entreprises privées, les gouvernements, etc.

Le défi qui se présente est de maintenir cette dynamique afin de continuer à attirer des investisseurs, parmi lesquels les obligations vertes, mais aussi d’apporter des solutions simples à l’échelle mondiale, par exemple sur l’évaluation des projets verts.

Donner confiance en ces projets, en leur efficacité à la fois environnementale et financière, notamment quand il s’agit de basculer d’un modèle basé sur les énergies fossiles vers un système fondé sur les énergies propres en Afrique ou ailleurs, représente un autre défi de taille ».

PROCHAINES ÉTAPES

  • 23 septembre : sommet de l’ONU sur le climat
  • 23-24 octobre : les dirigeants européens se mettront d’accord sur le paquet énergie-climat 2030 et sur les recommandations pour la conférence sur le climat de l’ONU en 2015 qui se tiendra à Paris
  • Du 30 novembre au 11 décembre 2015 : la Conférence sur le climat 2015 se tiendra à Paris et les États essaieront de trouver un accord contraignant en vue de lutter contre le changement climatique
  • 2020 : le nouvel accord sur le changement climatique entrerait en vigueur
  • 2020 : date butoir pour respecter les objectifs sur la réduction de 20 % en émission de gaz à effet de serre, l’amélioration de l’efficacité énergétique, les parts de marché dédié aux énergies renouvelables.

EurActiv.comBeatrice Denis – traduction de l’anglais par Pascal Hansens 

Et aussi dans les
ressources documentaires :

Les irréductibles algues rouges de Bretagne résistent encore au réchauffement des eaux

Les travaux des chercheurs1 se sont fondés sur une approche de terrain et un travail de modélisation considérable. Les équipes de plongeurs scientifiques des stations marines de Dinard et de Roscoff ont réalisé des inventaires sur 65 sites, du Golfe Normand Breton à la Baie de Vilaine, entre 2010 et 2012. Ils ont porté sur la variabilité des assemblages d’algues rouges présents sous les « forêts de laminaires », habitats sous marins emblématiques de la côte de Bretagne. Les patrons d’organisation récents ont été comparés à des donnéescollectées sur 163 sites, localisés dans la même zone, entre 1992 et 1998. Couvrant ainsi autotal une vingtaine d’années, les chercheurs ont pu analyser l’évolution de la diversité des assemblages d’algues rouges entre les deux périodes.

L’équipe de chercheurs a montré que la température des eaux de surface de Bretagne s’est élevée de plus de 0,7°C en 20 ans, sensiblement plus que ce qui es t observé au niveau mondial. Par ailleurs, les écarts saisonniers de températures se sont amplifiés, notamment dans le Golfe Normand Breton, avec un réchauffement estival et un refroidissement hivernal plus marqué en 2010-2012 qu’en 1992-1998.

Les chercheurs ont observé un changement significatif de la composition spécifique des assemblages d’algues rouges au cours des 20 dernières années, qui peut être corrélé à l’augmentation de la température. De plus, l’amplitude saisonnière des températures est le principal facteur gouvernant l’aire de distribution des espèces. Les modèles des chercheurs ont mis en avant des changements significatifs de l’aire de distribution de 7 sur 10 espèces les plus fréquentes.

Les modifications observées concernent le plus souvent une restriction de la zone occupée par les espèces avec un déplacement vers le nord ouest de la Bretagne ou un resserrementautour de la mer d’Iroise où les eaux sont restées plus fraîches. Ces résultats montrent que le schéma habituellement accepté de remontée des espèces vers le nord en réponse auréchauffement climatique se décline d’une manière particulière en milieu marin de la Bretagne. En effet, si la température des eaux de surface a plus fortement augmenté en Bretagne qu’en moyenne dans l’Océan mondial au cours des vingt dernières années, le réchauffement est hétérogène à l’échelle de la Bretagne. 

Ainsi, bien que les chercheurs constatent un déplacement des communautés algales vers le nord ouest de la Bretagne, les eaux de la mer d’Iroise, restées plus froides, pourraient fonctionner comme un refuge pour les espèces non tolérantes au réchauffement.

Enfin, ces changements soulèvent également la question de l’effet de ces déplacements d’algues sur la faune et la flore environnantes. Ainsi, la communauté scientifique travaille aujourd’hui sur l’impact de ces modifications sur le fonctionnement écologique des milieux marins côtiers.

1 Laboratoire Biologie des Organismes et Ecosystèmes Aquatiques (Muséum national d’Histoire naturelle/CNRS/IRD/UPMC/UNICAEN), de l’Institut de Systématique, Evolution, Biodiversité (Muséum national d’Histoire naturelle/CNRS/EPHE/UPMC), de la station biologique de Roscoff (CNRS/UPMC) et de l’équipe Biodiversité et gestion des territoires de l’Université de Rennes

RÉFÉRENCES : 

R.K. Gallon, M. Robuchon, B. Leroy, L. Le Gall, M. Valero and E. Feunteun. Twenty years of observed and predicted changes in subtidal red seaweed assemblages along a biogeographical transition zone: inferring potential causes from environmental data. Journal of Biogeography, sous presse (mis en ligne le 4 août 2014)

Source : CNRS

Et aussi dans les
ressources documentaires :

Sciences et société, « un débouché professionnel non-négligeable pour les ingénieurs »

Bertrand Bocquet, vous êtes enseignant-chercheur en Physique au sein du laboratoire SCité de l’Université de Lille 1, pouvez-vous nous présenter ce laboratoire et ses travaux ?

bocquetBertrand Bocquet. C’est une équipe de recherche interdisciplinaire, regroupant physiciens, mathématiciens, historiens des sciences et biologistes, formée en 2013, donc toute récente, qui travaille sur les relations entre sciences et société. Ce qui nous caractérise, c’est que nous travaillons de façon permanente avec d’une part, des membres associés issus d’autres laboratoires et d’autres disciplines, notamment des sociologues, et d’autre part, avec des membres associés issus de la société civile, toujours sur des sujets très contextualisés. Et ce sur quatre thématiques qui sont la représentation des sciences dans le cadre des technologies émergentes, la transition énergétique, la recherche participative et le numérique.

Notre cheval de bataille, ce sont donc les sciences en société, par ailleurs apparues comme un nouvel objectif dans la loi pour l’enseignement supérieur et la recherche du 22 juillet 2013.

En quoi consistent exactement les « sciences en société » ?

Bertrand Bocquet. Cela regroupe plusieurs choses et il est encore difficile de bien les caractériser. D’abord, la vulgarisation, la plus fréquente, difficilement quantifiable, qui est limitée essentiellement par le facteur temps : avec la professionnalisation de la recherche dans un cadre de plus en plus concurrentiel, les scientifiques sont de plus en plus soumis aux mêmes contraintes que le monde de l’entreprise, et n’ont plus beaucoup de temps à consacrer à cette mission qui peut consister, par exemple, à intervenir dans une école de sa ville pour présenter ses travaux aux élèves.

Ensuite, il y a les controverses scientifiques qui dépassent le cadre académique, s’invitant dans le débat public, où différents acteurs, notamment issus de la société civile, vont s’impliquer, et proposer une expertise.

Enfin, ce que l’on appelle la recherche participative, historiquement très développée en astronomie et en naturalisme, mais encore marginale dans les autres disciplines. Dans ces deux domaines historiques, les scientifiques construisent l’objet de recherche, et les passionnés les aident ensuite dans leur recherche. Dans les nouveaux modèles de recherche participative, il y a co-construction de l’objet de recherche avec la société civile. Le premier exemple en France étant les Partenariats Institutions-Citoyens pour la Recherche et l’Innovation (PICRI), créés en 2005 en Île-de-France.

Vous avez élaboré pour « Techniques de l’Ingénieur » la rubrique Sciences et société de la base documentaire Ingénierie et responsabilité. Pourquoi les ingénieurs devraient-ils s’intéresser à travailler avec la société civile ?

Bertrand Bocquet. D’abord parce que les associations impliquées dans ces processus de recherche participative, qui ont développé ou développent une expertise, ont besoin d’ingénieurs. C’est donc un débouché professionnel non-négligeable pour les ingénieurs, et pas seulement pour les chercheurs. Pour les ingénieurs travaillant en entreprises, la notion de responsabilité maitrisée est un atout en plus dans la compétition économique : prendre en compte les aspirations sociétales est important pour savoir y répondre.

Enfin, pour la société dans son ensemble, cela permet d’avoir des personnes plus ouvertes d’esprit. Si la société civile se retrouve face à des interlocuteurs ayant déjà réfléchi en amont à ses attentes, cela favorise les relations entre ces différents acteurs, et l’implantation, par exemple, d’unités de production au niveau local, si l’entreprise est jugée responsable, et compatible aux intérêts locaux.

Sciences et société, « un débouché professionnel non-négligeable pour les ingénieurs »

Entretien avec Bertrand Bocquet, conseiller éditorial pour Ingénierie et Responsabilité.

Techniques de l’Ingénieur : Bertrand Bocquet, vous êtes enseignant-chercheur en Physique au sein du laboratoire SCité de l’Université de Lille 1, pouvez-vous nous présenter ce laboratoire et ses travaux ?

bocquetBertrand Bocquet : C’est une équipe de recherche interdisciplinaire, regroupant physiciens, mathématiciens, historiens des sciences et biologistes, formée en 2013, donc toute récente, qui travaille sur les relations entre sciences et société. Ce qui nous caractérise, c’est que nous travaillons de façon permanente avec d’une part, des membres associés issus d’autres laboratoires et d’autres disciplines, notamment des sociologues, et d’autre part, avec des membres associés issus de la société civile, toujours sur des sujets très contextualisés. Et ce sur quatre thématiques qui sont la représentation des sciences dans le cadre des technologies émergentes, la transition énergétique, la recherche participative et le numérique.

Notre cheval de bataille, ce sont donc les sciences en société, par ailleurs apparues comme un nouvel objectif dans la loi pour l’enseignement supérieur et la recherche du 22 juillet 2013.

Techniques de l’Ingénieur : En quoi consistent exactement les « sciences en société » ?

Bertrand Bocquet : Cela regroupe plusieurs choses et il est encore difficile de bien les caractériser. D’abord, la vulgarisation, la plus fréquente, difficilement quantifiable, qui est limitée essentiellement par le facteur temps : avec la professionnalisation de la recherche dans un cadre de plus en plus concurrentiel, les scientifiques sont de plus en plus soumis aux mêmes contraintes que le monde de l’entreprise, et n’ont plus beaucoup de temps à consacrer à cette mission qui peut consister, par exemple, à intervenir dans une école de sa ville pour présenter ses travaux aux élèves.

Ensuite, il y a les controverses scientifiques qui dépassent le cadre académique, s’invitant dans le débat public, où différents acteurs, notamment issus de la société civile, vont s’impliquer, et proposer une expertise.

Enfin, ce que l’on appelle la recherche participative, historiquement très développée en astronomie et en naturalisme, mais encore marginale dans les autres disciplines. Dans ces deux domaines historiques, les scientifiques construisent l’objet de recherche, et les passionnés les aident ensuite dans leur recherche. Dans les nouveaux modèles de recherche participative, il y a co-construction de l’objet de recherche avec la société civile. Le premier exemple en France étant les Partenariats Institutions-Citoyens pour la Recherche et l’Innovation (PICRI), créés en 2005 en Île-de-France.

Techniques de l’Ingénieur : Vous avez élaboré pour Techniques de l’Ingénieur la rubrique Sciences et société de la base documentaire Ingénierie et responsabilité. Pourquoi les ingénieurs devraient-ils s’intéresser à travailler avec la société civile ?

Bertrand Bocquet : D’abord parce que les associations impliquées dans ces processus de recherche participative, qui ont développé ou développent une expertise, ont besoin d’ingénieurs. C’est donc un débouché professionnel non-négligeable pour les ingénieurs, et pas seulement pour les chercheurs. Pour les ingénieurs travaillant en entreprises, la notion de responsabilité maitrisée est un atout en plus dans la compétition économique : prendre en compte les aspirations sociétales est important pour savoir y répondre.

Enfin, pour la société dans son ensemble, cela permet d’avoir des personnes plus ouvertes d’esprit. Si la société civile se retrouve face à des interlocuteurs ayant déjà réfléchi en amont à ses attentes, cela favorise les relations entre ces différents acteurs, et l’implantation, par exemple, d’unités de production au niveau local, si l’entreprise est jugée responsable, et compatible aux intérêts locaux.

Mise en orbite autour de Mars réussie pour la première sonde indienne

Les Indiens utilisent le mot « jugaad », qui signifie que le travail est contraint par l’obsession du toujours moins cher. D’où le surnom de sonde low-cost donné à MOM. Contre toute attente, cela marche très bien. Les Indiens ont ainsi fabriqué une sonde pour mesurer le taux de méthane, un marqueur de vie primitive, dans l’atmosphère de Mars. Pour l’instant, le robot américain Curiosity n’en a pas détecté dans l’air martien, mais MOM va compléter ces observations. MOM n’a coûté que 70 millions de dollars, une broutille comparée aux 450 millions des sondes spatiales dites à bas coût, et aux 3 milliards de dollars des sondes les plus onéreuses. La sonde américaine d’exploration de Mars MAVEN lancée en 2013 avait couté … 485 millions. Avec seulement 14% du budget de MAVEN, les Indiens ont réussi à placer en orbite de Mars leur sonde dès la première tentative. Positionnée à 500 km du sol, elle analysera pendant six mois l’atmosphère, à la recherche de méthane.

Les ingénieurs indiens ont relevé le défi grâce à leur ingéniosité et leur imagination audacieuse. Par exemple, la fusée utilisée pour le lancement n’avait pas la puissance nécessaire. Peu importe. Il aura suffit à l’équipe indienne de faire tourner la fusée autour de la Terre pendant un mois entier pour lui faire prendre la vitesse requise pour s’échapper de l’attraction terrestre.

La NASA a félicité cette performance qui est une belle leçon de débrouillardise et d’efficacité. Ce succès propulse l’Inde comme une grande nation de la conquête spatiale. De quoi rendre jaloux la Chine et le Japon dont les tentatives d’envoi d’une sonde martienne se sont soldées par des échecs.

Par Audrey Loubens, journaliste scientifique

Et si les preuves du Big Bang étaient fausses ?

Voilà un sérieux camouflet envers la théorie du Big Bang. Rappelez-vous. En avril 2014, nous présentions des mesures exceptionnelles rapportées par des scientifiques américains. Grâce au télescope de l’observatoire BICEP2 basé au pôle sud, ils avaient observé directement ce qu’ils ont cru être des ondes gravitationnelles primordiales, preuves irréfutables de la validité de la théorie du Big Bang. Heureusement que nous présentions ces résultats au conditionnel, attendant des mesures complémentaires confirmant ces observations ! Car non seulement cette confirmation n’est toujours pas faite, mais en plus ces résultats sont remis en cause par des astronomes à partir de mesures réalisées par  l’Agence spatiale européenne (ESA). Les chercheurs ont ainsi pu cartographier la poussière présente dans l’espace, et plus particulièrement dans la zone observée par le télescope de BICEP2.  L’étude révèle que « la portion du ciel observée pour la découverte du mois de mars contient plus de poussière que ce que l’on pensait ». Une telle quantité de poussière pourrait s’être regroupée en spirales suite à une polarisation par des champs magnétiques par exemple. Ces nuages de poussières pourraient parfaitement être à l’origine des ondulations précédemment identifiées comme gravitationnelles.

Ce résultat ne contredit pas celui supposant attester de la validité du modèle d’Einstein, mais offre une lecture alternative beaucoup moins remarquable.

Cette carte de poussières pourra désormais guider les scientifiques pour qu’ils braquent leurs télescopes vers les zones les moins poussiéreuses, de façon à obtenir des mesures les plus fiables possibles, écartant les artefacts et les signaux parasites de ces particules spatiales.

Par Audrey Loubens, journaliste scientifique

Derniers jours : Gagnez une tablette Nexus 7, une enceinte Jambox et un mini drone !

Pour remporter un de ces bijoux high tech, rien de plus simple ! Remplissez vos coordonnées (pour que nous puissions vous envoyer votre lot si vous êtes l’heureux/se gagnant/e) et répondez à 3 questions de science étonnante.

Indices :
Pourquoi le cerveau se souvient-il des rêves ?

6 choses extraordinaires qui se cachent sous terre

Pourquoi les oiseaux volent en V ?

 

Nexus 7 – La nouvelle tablette de Google

Plus fine, plus légère et plus rapide, la nouvelle Nexus 7 allie puissance et praticité, et est dotée d’un écran à résolution inégalée de plus de 2,3 millions de pixels.

Avec 128 pixels par centimètre tout devient plus net, plus précis et plus beau. Découvrez toujours plus de livres et BD avec un confort de lecture exceptionnel. La HD de 1080 pixels transformera vos films et vos photos.

 

 

Mini Jambox – Du bon son, partout

Cette petite enceinte offre un son d’une exceptionnelle qualité. Légère, elle se glisse facilement dans une poche ou un sac à main, pour l’emmener partout.

 

Mini drone Rolling Spider

La marque française Parrot lance enfin son mini drone volant Rolling Spider en juillet 2014. Il ne pèse que 55g, vole dans les airs, aussi bien en intérieur qu’en extérieur, prend des photos et monte le long des murs grâce à ses deux roues (amovibles).

Bonne chance à tous !

Règlement du jeu

*Photos non contractuelles

  

Zoom sur le SensorWake, le réveil olfactif du jeune Français Guillaume Rolland

Inventer un réveil odorant, on ne l’avait pas encore fait celle-là, ou en tout cas on ne l’avait pas breveté. Pourtant ne s’agit-il pas là de l’une des plus agréables façons de sortir du sommeil – exit la vieille alarme stridente ? L’inventeur du SensorWake, un jeune étudiant nantais nommé Guillaume Rolland, reconnaît d’ailleurs avoir créé ce réveil par frustration des « réveils classiques sonores ou lumineux ».

À la source de cette idée, le jeune homme invoque également le travail de son père, directeur de maison de retraite. En effet, pour lui, le SensorWake est un moyen de réoffrir un supplément d’autonomie aux personnes âgées qui ne détectent plus ni le son ni la lumière.

Quoi qu’il en soit, il semblerait que les technologies à « odeurs » aient la cote en ce moment. Car peu de temps après l’oPhone, c’est peut-être au tour du SensorWake, le fameux réveil à odeurs, de faire son apparition. 

Si le réveil olfactif a attiré l’attention du géant américain Google, – outre le fait que le jeune prodige tente de synthétiser l’odeur du dollar – c’est sûrement en raison de sa simplicité. Le réveil fonctionne un peu comme une machine à café dans laquelle on glisse des dosettes parfumées. La différence est que la senteur est diffusée à l’heure programmée par un ventilateur. L’efficacité serait redoutable : moins d’une minute suffirait au dormeur pour s’échapper des bras de Morphée.

Le jeune homme n’en est pas à son premier coup d’essai, bien que cette fois-ci, son invention soit remontée jusqu’aux plus « hautes instances » si l’on peut dire. Le jeune homme a en effet obtenu la première place du concours Science et Vie junior ainsi que la médaille d’or au concours Lépine junior. Une notoriété qui lui a permis de s’appuyer sur l’aide d’Exhalia, une entreprise experte dans le marketing olfactif, et sur celle d’un étudiant spécialisé dans le design.

S’il n’a pas remporté le Grand prix de l’innovation Google, il n’a pas pour autant perdu la bataille. Il pourrait bien se retrouver un jour sur notre table de chevet !

Par Sébastien Tribot

 

288102/TI382/72-WQ-VBZ3801

Le Français finaliste du Grand prix de l’innovation Google a-t-il gagné ?

Le concours existe depuis 2011 et récompense des jeunes scientifiques âgés de 13 à 18 ans pour leur inventivité. Sur 2000 candidats, le jury n’en retient que 15 au terme d’une sélection exigeante. Mais Guillaume n’est pas un débutant. Ce lycéen de 18 ans a déjà un beau palmarès avec la médaille d’or du Concours Lépine national et le Prix Euro district Strasbourg Ortenau du concours Lépine européen. Son idée ? Un réveil qui « sonne » l’heure en diffusant des odeurs. Guillaume pensait d’abord aux personnes âgées, à l’ouïe et à la vue parfois déficientes. Mais au fur et à mesure que son projet gagnait en popularité, il est apparu que n’importe quel individu lambda pouvait être intéressé.

Le réveil olfactif fonctionne comme votre cafetière. Vous choisissez un parfum sous forme de dosette, insérez la dosette dans l’appareil et réglez votre alarme. A l’heure fixée, le parfum est doucement diffusé dans la pièce, stimulant votre odorat. Une nouvelle façon de se réveiller, qui change du terriblement efficace bip bip de certains réveils. L’inventeur a prévu plusieurs parfums comme café, sciure de bois ou encore fraise Tagada pour les plus gourmands. Le jeune inventeur n’a pas hésité à emprunter l’imprimante 3D de l’école Centrale de Nantes, ravie de participer au projet, pour fabriquer les pièces de son prototype.

Il ne décrochera pas le 1er prix finalement décerné à 3 Irlandaises souhaitant utiliser des bactéries diazotrophes pour doper les récoltes et lutter contre la faim dans le monde. Un objectif noble, quoique travailler à réveiller les gens en douceur contribue à la bonne humeur ambiante, et donc au bien-être de chacun. Félicitations à Guillaume Rolland d’avoir porté les couleurs de la France jusqu’à la Silicon Valley !

Découvrez son réveil olfactif en vidéo :

Par Audrey Loubens, journaliste scientifique

 

288102/TI382/72-WQ-VBZ3801

Phrases de passe : comment sécuriser vos comptes au maximum

Il est en outre probable que les victimes du “Celebgate” aient choisi des mots de passe très simples. Il aurait alors suffit au hacker de pirater directement le mot de passe d’Apple ID (identifiant Apple), ou de mener une attaque par force brute contre d’autres comptes utilisés par l’utilisateur visé, comme un compte Gmail ou Twitter – en émettant l’hypothèse que cet utilisateur utilise le même mot de passe un peu partout.

Difficile à croire, mais nombre d’internautes continuent à utiliser des mots de passe d’une simplicité déconcertante, comme “aqwzsx”, “123456”, ou encore “05081958” (une date de naissance). D’autres utilisent des mots du dictionnaire agrémentés de quelques chiffres, ce qui peut donner “vivelesvacances75”. Des mots de passe infiniment simples à trouver pour un pirate passant par l’attaque par force brute et des répertoires de mots. Mieux vaut leur préférer un mot de passe long et complexe.

Utilisez des phrases de passe

Il n’est pas question ici d’aligner à la suite des combinaisons de lettres difficiles à retenir, comme “fb’cplf11&pdl@55”. Il s’agit plutôt d’utiliser des mots existants, qui placés côte à côte n’auront aucun sens, que vous pourrez retenir facilement, et qui seront difficiles à craquer. 

Beaucoup d’internautes utilisent des suites de mots tirées de romans, de films, ou du langage commun – que la plupart des hackers auront préalablement compilées, et qui seront donc faciles à retrouver.

Mieux vont donc utiliser des mots sans lien entre eux, et inventer des phrases sans signification aucune – sauf pour vous. Par exemple, vous pouvez aligner les mots “plantes, téléphone, chapeau, stylo” parce que dans votre bureau, se trouvent autour de vous un téléphone, des plantes vertes, un stylo et un chapeau. A priori, ces mots n’ont pas de lien entre eux et ne forment pas une phrase cohérente. Mais pour vous, elles auront un sens, et rendront votre mot de passe (ou “phrase de passe”) presque impossible à percer.

Ne faites pas l’erreur de nombre d’internautes, qui utilisent le même mot de passe partout : si votre phrase est déchiffrée, tous vos comptes sont potentiellement accessibles. N’utilisez donc jamais deux fois la même phrase de passe, et changez la régulièrement, tous les 3 mois si possible. Si vous avez peur d’oublier vos différentes phrases, il existe des “coffres forts”, ou “portefeuilles de mots de passe”, tels que KeePass, LastPass, 1Password, oneSafe ou Dashlane, qui vous permettront de les stocker en lieu sûr. Dans ce dernier cas, attention, simplement, à changer régulièrement la phrase de passe que vous utilisez pour ce coffre fort.

Par Fabien Soyez

Cloud : verrouillez vos comptes avec l’authentification en deux étapes

31 août 2014, panique dans le Cloud : un hacker a piraté une centaine de comptes iCloud appartenant à des célébrités, leur dérobant des photos intimes.

Comment s’y est pris le pirate ? Probablement en menant une attaque par force brute, qui consiste à tester, à la volée, des milliers de mots de passe possibles, jusqu’à trouver la bonne combinaison. Une telle attaque, basée sur la possibilité de trouver le bon mot de passe, aurait été impossible si les stars hackées avaient eu recours à un procédé certes fastidieux, mais qui permet de verrouiller un maximum ses comptes : l’authentification en deux étapes.

Cette option de sécurité est proposée par la plupart des services en ligne. A chaque connexion, l’utilisateur doit entrer son nom d’utilisateur, son mot de passe, et un code spécial que le service utilisé lui aura envoyé par SMS, sur son smartphone. Un système qui ferme donc la porte aux hackers. Pour l’utilisateur, le temps passé à se connecter sera doublé, mais la sécurité est à ce prix.

Un tour dans les paramètres

Rendez-vous donc dans les options, puis dans les paramètres de sécurité de chacun de vos comptes, qu’il s’agisse de Gmail, de Facebook, d’Outlook, de Twitter,  d’iCloud ou de Dropbox.

Chaque service vous proposera d’activer la validation en deux étapes, et vous demandera votre numéro de téléphone.

  • Pour Gmail, partez dans les paramètres de votre compte, option sécurité.
  • Pour Facebook, cliquez sur l’option « sécurité » dans vos paramètres de confidentialité avancés. Dans « approbations de connexion », cochez la case « demander un code de sécurité lors de l’accès à mon compte ».
  • Pour Outlook, rendez-vous dans la rubrique « sécurité« , option « configurer la vérification en deux étapes »
  • Pour Twitter, dans les “paramètres” du compte, choisissez “sécurité et confidentialité”, et cochez la case “envoyer les demandes de vérification à mon téléphone”.
  • Si vous utilisez Dropbox, cliquez sur “Paramètres “, sélectionnez l’onglet “sécurité”, et activez tout simplement l’option “validation en deux étapes.”
  • Enfin, pour iCloud, partez dans les réglages du compte. Dans “gérer votre identifiant Apple”, cliquez sur “mot de passe et sécurité”.

Important : si les stars visées par le “Celebgate” ont été piratées, c’est aussi, peut être, à cause de l’ingénierie sociale, pratique qui consiste à se renseigner sur la vie de quelqu’un grâce au web. Si la validation en deux étapes nécessite de répondre à une question secrète, choisissez donc une question et une réponse que personne ne pourra trouver en allant surfer sur Google…

Par Fabien Soyez

Comment utiliser un PC public de façon sécurisée grâce à Linux

Certains pirates informatiques utilisent des keyloggers – des malwares qui permettent de capturer les touches frappées par d’autres clients, puis de collecter ensuite toutes les informations personnelles saisies. D’autres utilisent des logiciels leur permettant de récupérer des fichiers supprimés.

Linux dans votre poche

Alors, que faire ? Pourquoi ne pas embarquer une distribution Linux sur une clé USB (ou sur un CD / DVD) ? Ce faisant, vous pourrez exécuter ce système d’exploitation (OS) sur n’importe quel ordinateur, depuis votre support externe, sans laisser de traces. En outre, les OS utilisant le noyau Linux sont réputés pour être moins exposés au piratage que les autres systèmes, donc plus sûrs.

Utiliser Linux peut inquiéter ceux qui ne sont pas familiarisés avec ce noyau d’OS. Pourtant, il s’agit d’une procédure très simple – puisque l’essentiel pour vous sera d’utiliser un navigateur web, dans un environnement sûr. Les PC publics pouvant être parfois anciens, mieux vaut installer une distribution Linux à la fois sur une clé USB, et sur un CD / DVD.

Pour commencer, téléchargez une distribution Linux Live. Vous pouvez trouver une liste de ces distributions sur le site LiveCD List.

Le fichier téléchargé sera au format ISO – un fichier image. A partir d’un logiciel de gravure, comme ImgBurn ou PowerISO, vous pourrez graver facilement votre fichier image sur un CD ou DVD. Dans le cas d’une clé USB, vous devrez utiliser un autre logiciel, spécialisé dans la gravure des ISO sur des clés USB, tels que LinuxLiveUSB ou UnetBootin – deux freeware, simples à utiliser, qui fonctionnent sur Windows, Mac et Linux.

Il vous suffit ensuite d’insérer votre clé USB ou votre CD / DVD dans l’ordinateur visé, puis de le redémarrer. La machine lancera alors Linux – si ce n’est pas le cas, vous devrez lancer le BIOS ou l’UEFI, et ordonner à l’ordinateur de démarrer à partir de votre clé USB ou de votre CD / DVD. Une fois cela fait, vous n’aurez plus qu’à utiliser un navigateur web – en règle générale, les distributions Linux (par exemple, Linux Mint ou Ubuntu) intègrent Firefox.

Votre clé USB (ou votre CD / DVD) “live” vous permettra en outre d’enregistrer des paramètres et d’installer des logiciels dans votre OS. Vous aurez probablement besoin d’installer, par exemple, des pilotes d’imprimante pour utiliser celles de l’hôtel. Pour le reste, vous serez libre de surfer sans contrainte.

Par Fabien Soyez

Comment lutter contre le stalking et effacer ses traces

Ces informations ne sont pas là par hasard : il s’agit de données que vous avez confié, un jour, à certains sites. Il peut s’agir de comptes que vous avez créé il y a longtemps, de blogs ou de forums internet. Il peut aussi s’agir de réseaux sociaux, comme Facebook.

Que faire ? Effacer vos traces – sans forcément faire appel à une société spécialisée dans la suppression des traces numériques.

Ménage de printemps

Commencez par faire un tour sur vos comptes sur les réseaux sociaux. Sur Facebook, rendez-vous dans les options en cliquant sur le cadenas en haut à droite de votre compte. Rendez inaccessibles les informations que vous partagiez jusqu’ici avec les “amis de vos amis” ou avec le “public” – et ne les partagez plus qu’avez vos amis proches, grâce à des listes où vous les aurez placé au préalable.

Vous pouvez aussi être plus radical, et supprimer votre compte, en vous rendant sur la page dédiée. Pour conserver les photos partagées sur votre compte, Facebook propose de télécharger une archive de vos données, via l’option « télécharger une copie de vos données sur Facebook » (dans “paramètres”). Pour supprimer vos comptes Twitter ou Google +, il vous suffira de vous rendre dans les options de Twitter, ou dans les informations de votre compte Google.

Après ce ménage de printemps, il vous restera à lister les URL des sites, blogs ou forums qui possèdent des informations sur vous. Ensuite, contactez les responsables de ces sites, via la rubrique “contact”, ou via les mentions légales, puis demandez leur de supprimer ce qui vous porte préjudice. En cas de refus, vous pourrez adresser une plainte à la CNIL. Concernant Google et sa mémoire d’éléphant, vous pouvez remplir ce formulaire, mis en place récemment.

Barrez la route aux “stalkers”

Une fois vos traces supprimées, il ne vous restera plus qu’à adopter une certaine ligne de conduite, afin de ne plus partager d’informations avec le plus grand nombre, notamment avec les “stalkers”, ces individus qui aiment espionner les autres grâce à Google.

Il suffit de bien paramétrer vos comptes sur les réseaux sociaux, et de bien réfléchir avant de publier une photo ou un commentaire, qu’il s’agisse de Facebook, ou encore de Twitter ou YouTube.

Par Fabien Soyez

Comment sécuriser votre ordinateur portable en cas de vol

Verrouillez votre appareil

Première chose à faire : verrouiller votre appareil. Créez un mot de passe que vous devrez entrer à chaque démarrage. Cela ralentira la personne ayant accès à votre ordinateur. Mais vous devrez garder à l’esprit que pour “craquer” votre ordinateur, il suffit d’utiliser un logiciel de récupération de mots de passe (Ophcrack ou Offline NT Password & Registry Editor pour Windows, Kon-Boot pour Mac), ou de rebooter l’ordinateur puis de passer par les lignes de commandes pour Ubuntu et Linux.

Chiffrez vos données

Le mieux est donc de rendre vos données illisibles en les chiffrant. Windows et Mac vous permettent de chiffrer votre disque dur, avec leurs systèmes intégrés Bitlocker et FileVault 2, quand Linux vous le propose lors de l’installation du système. Mais ces systèmes ne sont pas infaillibles, et l’on s’interroge toujours sur l’existence de “backdoors”, permettant de déjouer le chiffrement. En outre, toutes les éditions de Windows n’intègrent pas BitLocker : il faut posséder une version Professionnelle ou Intégrale. D’où l’utilité de chiffrer vous-même vos fichiers, avec des logiciels tels que RealCrypt, NCrypt, AxCrypt, ou AESCrypt, qui vous permettront de créer des dossiers virtuels chiffrés.

Installez un logiciel de suivi

Ces précautions vous permettront de faire perdre du temps aux voleurs, le temps d’agir à distance, grâce à un logiciel de suivi préalablement installé sur votre ordinateur, comme Absolute LoJack ou Beebip. Cette solution “antivol” vous permettra de géolocaliser votre ordinateur volé, de le verrouiller, puis de supprimer son contenu. Le mouchard sera caché dans le BIOS, ce qui empêchera tout voleur de le supprimer en installant un nouveau système d’exploitation.

Sauvegardez vos données

N’oubliez pas, enfin, de sauvegarder régulièrement vos données ailleurs. Vous pouvez les stocker dans le Cloud, mais vous pouvez aussi utiliser un disque dur externe USB, couplé à un logiciel de synchronisation, tel que Cobian Backup ou Areca Backup, qui copiera toutes vos données de façon automatique.

Les disques externes restent limités en taille de stockage. Ainsi, vous pouvez aussi copier vos données sur un serveur distant, qu’il s’agisse d’un serveur FTP que vous aurez créé vous-même sur une autre machine, ou d’un NAS (Network Attached Storage), qui vous permettra de stocker de grandes quantités de données.

Par Fabien Soyez

Stockage en ligne : les alternatives à Dropbox

La plupart des services ont intégré le chiffrement des données dans leur technologie. Les données stockées sur Google Drive et OneDrive sont chiffrées lors de leur transfert vers les serveurs, via le protocole TLS (Transport Security Layer). Mais une fois dans le Cloud, ces données sont stockées en clair – sauf pour la version professionnelle de OneDrive.

Dropbox, Box et Apple chiffrent les données stockées, mais détiennent les clés de déchiffrement, ce qui leur permet d’accéder aux informations des utilisateurs, même chiffrées. 

En outre, les serveurs de tous ces services sont situés aux Etats-Unis, pays soumis au Patriot Act.

Zero knowledge

Il existe des services moins connus, mais proposant une offre de stockage solide et sûre.

S’il est américain, SpiderOak se démarque en rendant vos données confidentielles, via le chiffrement “zero knowledge” (connaissance zero), qui consiste à faire de l’utilisateur le seul maître à bord. Vous serez ainsi le seul à posséder la “clé” (un couple identifiant / mot de passe) nécessaire au déchiffrement des données – en local, et non sur le serveur.

Wuala est un service français, dont les serveurs se trouvent en Suisse – pays possédant des lois strictes en matière de protection des données. Comme SpiderOak, il propose un chiffrement de bout en bout.

Bien sûr, si SpiderOak ou Wuala le désirent vraiment, vos données sont toujours susceptibles d’être interceptées, via des voies détournées. Pour l’utilisateur, il s’agit avant tout d’une question de confiance.

Votre propre serveur

Reste la solution “manuelle”, encore plus sûre. Les programmes open source, tels que SparkleShare ou Git-annex, vous permettent de créer vos propres serveurs. Mais pour cela, il vous faudra vous plonger dans les lignes de commande.

D’autres logiciels, comme RealCrypt, AxCrypt, ou AESCrypt, vous permettent de chiffrer manuellement vos documents, avant de les envoyer dans les nuages. Enfin, plus simple, Box Cryptor, vous permet de chiffrer vos fichiers automatiquement, avant de les envoyer sur le service de stockage de votre choix.

Par Fabien Soyez

Bleep : une messagerie en mode privé

En juillet, les développeurs de BitTorrent, le célèbre logiciel d’échange de fichiers peer-too-peer (P2P) ont dévoilé une messagerie décentralisée et sécurisée.

Ce logiciel, Bleep, se veut sécurisé grâce à son architecture, qui repose sur le P2P : pas de centralisation, les données partent de l’ordinateur de l’utilisateur jusqu’à celui de son correspondant, sans passer par un serveur tiers – contrairement aux messageries classiques, qui stockent, même temporairement, les données dans leurs machines.

Les communications via Bleep sont intégralement chiffrées. Les clés de chiffrement ne passent pas non plus par un serveur, mais transitent directement d’un utilisateur à un autre. Bleep peut s’utiliser de façon anonyme, sans avoir besoin d’utiliser un nom d’utilisateur.

Pour l’instant, Bleep est disponible sur invitation, en version “Alpha” – sous Windows 7 et 8 (mais le logiciel s’étendra vite à d’autres systèmes d’exploitation). L’application ne propose que des conversations audio ou texte, mais la vidéo devrait rapidement arriver, dans la version suivante.

Echanges confidentiels

Sachez que Bleep n’est pas la seule application de messagerie sécurisée et décentralisée existante. Si vous souhaitez envoyer des courriels confidentiels, Bitmessage est un protocole P2P qui permet d’échanger très simplement des emails chiffrés. De son côté, Freemail, un autre logiciel de messagerie libre, passe par le serveur Freenet, un réseau anonyme et distribué, ce qui garantit l’anonymat de son utilisateur. Les emails sont aussi chiffrés.

Concernant la messagerie instantanée, TorChat est un autre client P2P de messagerie instantanée qui utilise le réseau TOR pour transmettre ses messages. Totalement décentralisé, il garantira à vos échanges une totale confidentialité.

Par Fabien Soyez

News environnement (septembre 2014) : Quelles avancées pour l’énergie solaire ? / Recharge des voitures électriques par induction…

Découverte d’une corrélation entre proximité des espaces verts et poids des bébés à la naissance

Dans une étude unique en Israël, des chercheurs israéliens et espagnols ont découvert une corrélation entre la proximité d’espaces verts pendant la grossesse et la santé du bébé à la naissance. Les données de près de 40.000 naissances ont été analysé pour parvenir à cet étonnant résultat.

Selon une nouvelle étude intitulée « Green Spaces and Adverse Pregnancy Outcomes » et publiée dans le journal Occupational and Environmental Medicine, les mères qui habitent à proximité d’espaces verts ont tendance à accoucher de bébés au poids significativement supérieur que celles vivant dans des environnements moins verdoyants.

Les chercheurs à l’origine de cette découverte viennent d’Israël et d’Espagne. Pour arriver à ce résultat, ils ont utilisé une base de donnée de près de 40.000 naissances construite à partir d’un registre d’état-civil de Tel Aviv. « Nous avons trouvé que, globalement, la proximité entre l’habitation et espace vert était associée à une augmentation significative du poids à la naissance et à une réduction du risque de faible poids à la naissance, explique le professeur Michael Friger, du département de santé publique de l’Université Ben Gourion. C’est la première étude en dehors des Etats-Unis et de l’Europe qui montre une association entre espace vert et poids à la naissance, mais aussi la première à démontrer un lien avec le risque de faible poids à la naissance. »

Cependant les auteurs ont juste mis en évidence une corrélation entre proximité des espaces verts et poids à la naissance, pas de causalité. Une explication naïve pourrait venir des différences socio-économiques : les logements près des espaces verts sont plus chers et ainsi la causalité serait plutôt entre niveau socio-économique et poids à la naissance, comme expliqué dans de nombreuses études. Mais ce n’est pas le cas : en utilisant l’indicateur SES (socioeconomic status ranking) du bureau des statistiques israélien, les chercheurs ont trouvé que l’effet de la proximité des espaces verts était indépendant du niveau socio-économique, sauf pour les niveaux les plus bas, qui profitent mieux des bénéfices des espaces verts que les autres catégories.

Les chercheurs émettent donc plusieurs nouvelles hypothèses pour expliquer ces résultats. Tout d’abord, vivre à côté d’un espace vert encourage l’exercice physique, ce qui a un impact positif sur la santé en générale. Ensuite les espaces verts peuvent avoir un effet positif sur les émotions en réduisant le stress et en aidant à la relaxation. Ce sont aussi des espaces entretenant les contacts et la cohésion sociale. Enfin, ils sont bénéfiques pour l’environnement en diminuant la pollution sonore et de l’air, tout en ayant un effet modérateur sur la chaleur urbaine.

Source : bulletins-electroniques.com

Quelles avancées pour l’énergie solaire ?

Le plastique

L’utilisation du silicium dans la fabrication de panneaux solaires est aujourd’hui largement répandue. L’utilisation du plastique, bien que sujet de recherche depuis quelques années, est elle un peu moins fréquente. Bien que les cellules solaires à base de matériaux plastiques présentent de nombreux avantages comme la souplesse ou encore le coût, l’espérance de vie du produit (2 à 3 années) est encore trop courte pour qu’il soit viable économiquement. Il faut par ailleurs que des avancées soient faites en termes de rendement car les cellules solaires à base de plastique captent aujourd’hui 10 à 15% de l’énergie du soleil, ce qui engendrerait un besoin de couverture de surface bien supérieur au silicium.

Les matériaux transparents

Le chercheur américain Richard Lunt de l’Université du Michigan a mis au point avec son équipe un concentrateur solaire transparent luminescent. Ce dernier étant transparent, il pourrait être installé sur tout type de surfaces planes, que ce soit un immeuble ou un téléphone cellulaire. L’équipe de R. Lunt a développé un système basé sur des molécules organiques absorbant un rayonnement choisi du soleil. Les rayons infrarouges et ultraviolets captés sont redirigés vers les extrémités du plastique où ils sont convertis en électricité par de fines bandes de cellules de solaire photovoltaïque. Cette découverte nécessite encore des améliorations puisque l’efficacité de la conversion de l’énergie solaire est aujourd’hui de 1%. D’après R. Lunt, un système optimisé atteindrait un rendement d’environ 5%.

Les cellules photovoltaïques organiques

Les cellules organiques sont plus complexes que les cellules à base de silicium. C’est justement ce sur quoi une équipe japonaise s’est penchée. Ils ont mis au point une méthode permettant de tester les différentes combinaisons de matériaux organiques permettant de capter l’énergie solaire. Néanmoins, la compétition est féroce et l’avenir des cellules photovoltaïques organiques est plutôt incertain. La fabrication à base de silicium voit son coût se réduire et son intégration plus facile dans des panneaux de verre lui donne une longueur d’avance sur ses concurrents.

Source : bulletins-electroniques.com

Une solution de recharge des voitures électriques par induction

Dans les appareils de la vie quotidienne, la tendance est à la disparition des câbles téléphoniques ou électriques. Pour les véhicules électriques, des chercheurs de l’Institut Fraunhofer pour les systèmes intégrés et la technologie des composants (IISB) d’Erlangen (Bavière) travaillent au développement d’un système de recharge par induction destiné au grand public.

Ces dernières années, d’autres équipes de chercheurs ont travaillé à l’application de l’induction pour la recharge des véhicules électriques. L’approche consiste jusque là à monter des bobines d’induction sur le dessous du véhicule et à installer des stations de recharge dans le sol. Différents défis sont alors à relever :

  • les bobines doivent être puissantes en raison de l’éloignement entre le véhicule et le sol (jusqu’à 15 cm). Or les bobines puissantes sont de grande taille, ce qui augmente le coût du système ;
  • la présence d’objets métalliques dans la zone d’induction, comme les emballages de chewing-gums, qui pourraient entrer en combustion ;
  • les animaux, attirés par la chaleur émise par la station de recharge, peuvent entraver le bon fonctionnement du système.

Les chercheurs de l’IISB, travaillant dans le cadre de la plate-forme de recherche « Energie Campus » de Nuremberg (Bavière), ont développé un système d’induction qui sera très proche du véhicule -quasiment en contact- et intégré dans un appareil, situé hors-sol. Les bobines sont alors réduites en diamètre (10 cm au lieu de 80 pour les systèmes habituels), rendant le système moins onéreuses. Il est également moins probable qu’un obstacle se trouve sur la zone d’induction.

Dans le schéma proposé par l’IISB, le conducteur positionne son véhicule face à une borne verticale. La charge peut avoir lieu même si le véhicule n’est pas exactement positionné au centre de la borne. Des groupes de bobines verticales situées sur le véhicule derrière la plaque d’immatriculation permettent au système d’être utilisé pour tout type de véhicule.

Des travaux ont été menés en parallèle sur l’électronique de puissance et les systèmes d’induction. Afin de minimiser les pertes énergétiques, des bobines spéciales, séparées en différentes bobines minces et isolées les unes des autres, ont été conçues. Le prototype est capable de transmettre trois kilowatts avec un rendement global de 95%. Les chercheurs travaillent désormais à augmenter la puissance globale des bobines, de manière à être en phase avec le développement actuel des batteries, et à réduire le coût de la recharge.

Source : bulletins-electroniques.com

Les voitures électro-solaires sont 200 fois plus efficaces que celles carburant au maïs

Même si cela peut sembler à première vue paradoxal, les plantes sont très peu efficaces pour mettre le soleil en bouteille, c’est-à-dire pour stocker l’énergie solaire. La finalité existentielle d’une pâquerette n’est pas d’emmagaziner de l’énergie pour les êtres humains ou pour les vaches mais de s’épanouir !

Tout d’abord les feuilles d’un végétal, par exemple un arbre ou une céréale, ne sont pas orientées de manière optimale pour capter le flux énergétique de notre étoile. Elles se font de l’ombre les unes vis-à-vis des autres. Et il n’y a pas de système de tracking permettant de faire pivoter le tronc de l’arbre et de suivre le mouvement apparent du soleil. Même le Tournesol, contrairement à ce que laisse croire son nom, ne tourne pas pour suivre la course solaire (par contre, avant la floraison, ses feuilles, et non pas la plante entière, ont une orientation héliotropique).

Seule une fraction de la surface foliaire globale capture à un instant t l’énergie solaire incidente. Une partie de l’énergie solaire n’est pas captée du tout, passe à travers les feuilles et tombe sur le sol. Une autre est réfléchie par les feuilles. Et seule une partie de l’énergie qui pénétre dans les cellules foliaires parvient effectivement au niveau des photosystèmes, le reste est perdu sous forme de chaleur. Au final environ 20% de l’énergie incidente est capturée.

Ensuite les feuilles ne convertissent que 12% de l’énergie solaire capturée. Les molécules, chlorophylles et caroténoïdes, des antennes collectrices des photosystèmes localisées dans la membrane des thylakoïdes chloroplastiques ne sont capables d’absorber que certaines longueurs d’ondes du spectre solaire. Ce qui explique d’ailleurs la couleur verte des feuilles. Seule une partie du spectre (Photosintesis Active Radiations, PAR) est actif d’un point de vue photosynthétique.

De plus 40% de l’énergie de la plante est utilisée pour la respiration cellulaire, et 60% pour les biosynthèses. Enfin il faut 8 photons d’environ 1,8 eV pour fixer une molécule de carbone, ce qui stocke 4,8 eV. L’efficacité du processus est ainsi de 33%.

Comme le montre Roland Geyer, scientifique de l’Université de Californie, l’efficacité globale de la photosynthèse au sens large est ainsi de 0.20 x 0.12 x 0.60 x 0.33 = 0.005, soit 0,5%. En réalité cette efficacité varie selon les espèces végétales de 0,1% à 2%. Les championnes du monde sont les microalgues, des organismes photosynthétiques microscopiques unicellulaires. Certaines espèces de microalgues, dont jusqu’à 75% de la masse peut être lipidique, sont capables de produire, dans des conditions idéales de laboratoire, 30 tonnes d’huile par hectare de culture et par an.

Pour les organismes pluricellulaires, c’est le palmier à huile qui remporte…la palme. Indépendamment de la croissance de sa biomasse lignocellulosique, qui n’a rien d’exceptionnelle, le palmier est en revanche capable de produire 5 tonnes d’huile par hectare et par an. Soit bien davantage que le colza (3,5 tonnes) ou que Jatropha curcas (1,8 tonnes).

Même les micro-algues et le palmier à huile ne font pas le poids

30 tonnes d’huile à l’hectare et par an pour les micro-algues, est-ce beaucoup ? Sachant qu’un litre d’huile a un contenu énergétique de 9,2 kWh en moyenne, c’est équivalent à 276 MWh par hectare et par an. A supposer que l’huile végétale pure soit utilisée directement dans un moteur thermique, c’est-à-dire sans transformations consommatrices en énergie, il ne reste en sortie de moteur thermique, dont le rendement est de 20%, que 55 MWh.

Sur un hectare on peut installer 1 MW de panneaux solaires photovoltaïques. En prenant une hypothèse basse pour le facteur de capacité (15%), on produit alors chaque année 1314 MWh. 2,5% de l’énergie électrique étant perdue en transmission depuis le panneau PV jusqu’à la prise et le rendement de la prise à la roue d’un véhicule électrique étant d’environ 72%, il reste en sortie de moteur 922 MWh.

L’efficacité de l’électro-mobilité photovoltaïque est ainsi 17 fois supérieure à celle de la thermo-mobilité photosynthétique microalgale. Il convient d’intégrer l’énergie qui a été nécessaire à la construction des panneaux PV et aussi à la culture des microalgues. L’énergie délivrée par un panneau PV permet d’en produire plus de 10 autres, autrement dit le facteur de correction est au maximum de 10%. Pour les microalgues l’énergie consommée pour les cultiver est variable selon les espèces. Même en retenant une hypothèse favorable à la filière microalgale d’une énergie consommée égale à zéro, l’écart avec l’efficacité de l’électromobilité photovoltaïque reste supérieur à 0.90 x 17 = 15 fois.

Les recherches menées en matière d’algocarburants ne sont pas inutiles: les micro-algues restent très intéressantes pour la production de molécules à intérêt alimentaire ou pharmaceutique. Et également pour la production de bioplastiques.

Pour le palmier à huile, qui est pourtant le champion des plantes terrestres, l’écart est de 90 fois. L’électro-mobilité photovoltaïque permet ainsi de réduire d’un facteur 90 l’empreinte surfacique, et de préserver les forêts primaires Indonésiennes et Malaisiennes où vit par exemple une espèce emblématique, l’Oran-Outang. Ces questions d’efficacité énergétique ont ainsi des implications majeures et très concrètes. Il ne s’agit pas de simples discussions théoriques de salon.

L’électro-mobilité solaire, une clé pour préserver la biodiversité

Dans leur étude Sun-to-Wheel (« du Soleil à la roue ») Geyer et al on effectué un comparatif entre l’efficacité de l’électro-mobilité photovoltaïque avec la thermo-mobilité photosynthétique à base de maïs ou à base de switch-grass (Panicum virgatum), qui est aussi une graminée (Spatially-explicit life cycle assessment of sun-to-wheels transportation pathways in the U.S).

Roland Geyer a calculé que si l’ensemble des carburants pétroliers utilisés par les USA étaient remplacés par des agrocarburants à base de maïs, il faudrait cultiver 2,2 millions de kilomètres carrés (220 millions d’hectares). La surface des USA (y compris celle de l’Alaska) est de 9,8 millions de km2. L’efficacité de l’électro-mobilité photovoltaïque est supérieure d’un facteur 200 à celle de la thermo-mobilité au maïs. Les conséquences en termes d’empreinte surfacique sont linéairement proportionnelles. Ces réflexions ont d’ailleurs poussé le Vice-Président Al Gore a reconnaître qu’il avait fait erreur en faisant dans le passé la promotion des agrocarburants. Avec le switch-grass le résultat est un peu moins médiocre : 48 millions d’hectares. Mais cela reste extrêmement mauvais comparativement à l’électro-mobilité photovoltaïque qui requiert une surface de seulement 1,1 million d’hectare.

« Nous faisons fausse route avec les agrocarburant » résument les chercheurs. A cause d’un facteur fondamental en amont – le rendement photosynthétique – qu’aucune amélioration technique en aval ne pourra surmonter. « La photosynthèse a des limitations fondamentales » souligne le scientifique Krassen Dimitrov de l’Université du Queensland en Australie. « Même la mise au point d’organismes génétiquement modifiés super-efficaces ne serait pertinente sur le plan économique sans complètement modifier la machine photosynthétique » (GreenFuel technologies: a case study for industrial photosynthetic energy capture).

Convertir la biomasse solide (par exemple le bois) en carburants liquides aggrave encore davantage le bilan. L’énergie requise pour cette conversion peut d’ailleurs dépasser l’énergie contenue dans le bois lui-même.

Compte des ordres de grandeur en jeu, on peut sérieusement s’interroger sur la pertinence des filières énergétiques reposant sur la collecte de l’énergie solaire avec des plantes pour produire des agrocarburants. A fortiori quand on sait que brûler ces agrocarburants dans un moteur thermique conduit à perdre entre 75 et 80% de l’énergie contenue dans ces carburants végétaux. La prise de conscience concernant les limites intrinsèques des filières agrocarburants va fort heureusement croissante, y compris dans le milieu politique.

Point fondamental, les modules photovoltaïques peuvent être installés partout. Sur les toitures des maisons et des bâtiments commerciaux, au dessus des parkings, au niveau des déserts ou sur les lacs de barrage, ce qui limite d’ailleurs l’évaporation. Leur impact sur les terres cultivables à vocation alimentaire est donc nul. Il est d’ailleurs possible d’effectuer du Solar-Sharing, c’est à dire de cultiver des plantes sous les panneaux solaires judicieusement espacés en fonction du point de compensation de la photosynthèse des espèces cultivées. Et comme le souligne Mark Jacobson de l’université Stanford, ces panneaux solaires, contrairement aux plantes, n’ont besoin ni d’engrais nitratés et phosphatés qui perturbent les écosystèmes comme par exemple avec les fameuses marées vertes, ni de pesticides qui impactent la biodiversité (dont les abeilles pollinisatrices), ni d’eau douce, une ressource précieuse et indispensable à l’épanouissement Humain.

Le phosphore, talon d’Achille de la filière microalgale

L’azote des nitrates absorbés par l’appareil racinaire des plantes ne pose pas de problème étant donné que le diazote constitue 80% de la masse de l’air et que l’on sait fixer le diazote atmosphérique pour produire des engrais (procédé Haber-Bosch). Mais les microalgues ont aussi besoin de grandes quantités de phosphates. Le phosphore est un élément indispensable à l’agriculture moderne. Or les réserves minières de roches phosphatées, principalement au Maroc et au Sahara occidental d’où le conflit entre les habitants de ces deux territoires, ne sont pas infinies. Il est donc inopportun de gaspiller ce stock pour faire rouler les voitures étant donné qu’il existe d’autres solutions.

Les panneaux photovoltaïques, eux, sont construits à partir de silicium, le second élément le plus abondant de la croûte terrestre après l’oxygène. L’entreprise Silveo (SolarCity) produit des panneaux à base de silicium et sans argent.

Et le stockage hydrogène ?

Les voitures dites « à hydrogène » sont des véhicules électriques. L’électro-mobilité à base de batterie est plus efficace que celle à base de dihydrogène. En effet l’efficacité de la production de dihydrogène par électrolyse et de celle de la pile à combustible est sur un cycle d’environ 33% selon ERH2-Bretagne-Observatoire. Cela plombe le bilan d’un facteur 2,5 comparativement à celui des batteries. Autrement dit un parc automobile reposant sur l’hydrogène requiert une surface de collecte de l’énergie solaire 2,5 fois plus importante que le même parc automobile reposant sur le stockage par batteries. Il en résulte que le plein d’hydrogène coûtera fatalement au moins 2,5 fois plus cher que le plein direct d’électricité. Ce problème de compétitivité est directement lié à des données physiques de base.

La prise en compte de l’investissement énergétique nécessaire d’un côté à la construction des batteries, et de l’autre à celle des électrolyseurs, des piles à combustible et des réservoirs à hydrogène n’élimine pas le stockage batterie de la première place du podium de l’efficacité énergétique.

S’ajoutent en outre des problèmes de sécurité soulignés par exemple dans une note d’analyse récente de France Stratégie, le Commissariat général à la stratégie et à la prospective, sous la houlette d’Etienne Beeker. Cette note a été critiquée par une association en faveur de la filière hydrogène. Pour le multimilliardaire Elon Musk, PDG de Tesla Motors et de SpaceX, les Fuel Cells (piles à combustible) sont des « Fool Cells », littéralement des piles pour idiots. Jeu de mots qui a le don d’agacer au plus haut point les promoteurs de l’hydrogène. Il en rappelle en effet un autre, celui sur les « Fossil Fuels » (« Fossil Fools », les idiots des énergies fossiles). 95% de l’hydrogène actuellement disponible sur le marché provient effectivement de l’industrie des combustibles fossiles, et non de l’électrolyse de l’eau.

L’Hyperloop solaire, le mode de transport le plus écologique du monde

Les transports aériens peuvent difficilement être électrifiés compte-tenu de la densité énergétique (massique et volumique) des batteries actuelles. Mais on peut aborder la problématique différemment. Avec l’Hyperloop électro-solaire, projet open source et coopératif d’Elon Musk, les marchandises et les personnes pourront voyager à 1100 km/h dans un tube (presque) sous-vide, et donc avec (presque) aussi peu de frottements que dans l’espace. Avec en plus un système de sustentation sur coussins d’airs, la consommation d’énergie sera minimale, et la vitesse identique à celle des transports aériens. Ceci tout en évitant les longues périodes d’attente dans les aéroports et en augmentant le niveau de sécurité. Le voyage Paris-Marseille sera alors effectué en une demi-heure. Le Bruxelles-Istanbul en 3 heures et le Londres-Pékin en 9 heures. L’Hyperloop aura des conséquences majeures tout autant en matière de transport aérien que maritime. Tant pour le transport des voyageurs que des marchandises. Et il permettra de réduire la dépendance de l’Humanité envers les carburants liquides. L’Hyperloop est le moyen de transport à la fois le plus performant et le plus écologique du monde. Que ce soit avec Tesla Motors, SolarCity ou le projet Hyperloop, sur le plan de la physique Elon Musk et ses collègues ont tout bon.

Le pétrole, lui aussi, est un agrocarburant

La biomasse dont le pétrole dérive a été formée par des micro-algues photosynthétiques océaniques il y a des millions d’années. Le stock de pétrole global, déjà brûlé depuis le début de l’ère industrielle et pas encore brûlé, est de 1200 + 1500 = 2700 milliards de barils selon l’IFP, ce qui est équivalent à 4590 PWh. Il est faible comparativement à la quantité d’énergie solaire interceptée chaque année par le disque terrestre: 1 533 000 PWh.

En 26 heures la Terre intercepte une énergie solaire équivalente à la totalité du stock de pétrole mondial déjà brûlé et pas encore brûlé. Le risque de pénurie énergétique est très relatif face à un flux photonique aussi colossal.

Par Olivier Danielo

L’Anses va étudier la toxicité des OGM sur 6 mois

Les travaux du Professeur Gilles-Eric Séralini ont été publiés le 19 septembre 2012 dans la revue américaine Food and Chemical Toxicology. Ils portaient sur la toxicité à long terme du maïs OGM NK603 et de l’herbicide total Round up de Monsanto, et tendaient à démontrer cette toxicité sur le rat. Suite à la polémique qui a enflée, plusieur travaux de recherche à l’échelle européenne sont en préparation pour étudier cette toxicité supposée.

Au niveau européen, deux projets sont en cours. L’un, dénommé GRACE, a été initié en 2012 avant la publication de l’étude Séralini, pour une durée de 3 ans. Il portait intitialement sur des études de toxicité à 3 mois sur le rat. Compte tenu du contexte, le protocole a évolué et compte désormais une étude toxicologique sur le maïs MON 810 d’une durée d’un an. L’autre projet, dénommé G-TwYST, a été lancé en septembre 2014 pour une durée de 4 ans. Il prévoit la réalisation d’études de toxicité à 1 an et à 2 ans chez le rat, suivant strictement les recommandations internationales en matière de protocole expérimental (OCDE, EFSA). Ces deux projets portent sur le maïs MON810 et le maïs NK603 traité avec du Roundup.

En France, que prévoient les pouvoirs publics?

Un projet voit également le jour en France. Il s’agit du projet OGM90+, financé à hauteur de 2,5 millions d’euros par le Ministère de l’écologie, du développement durable et de l’énergie dans le cadre du programme Risk’OGM : « Risques environnementaux et sanitaires liés aux OGM ».

OGM90+ réunit un consortium composé de l’INRA, de l’INSERM, d’universités (Toulouse, Rennes 1, Paris Descartes, Bordeaux, Lyon) et de l’Anses. Il utilisera les techniques dites « omiques », afin de mieux prévoir les potentiels effets à long terme des plantes génétiquement modifiées sur la santé. »Il s’agit d’une étude de 90 jours, prolongée à 6 mois, pour voir l’évolution des paramètres observés après le délai usuel de surveillance des animaux dans les études requises en matière d’OGM », explique Franck Fourès, directeur adjoint chargé des thématiques santé-alimentation à l’Anses. « L’étude prévoit à la fois des lots de maïs NK603 traités et non traités par du Round-up », précise-t-il.

« L’expérimentation sur animal devrait commencer au printemps 2015 pour une durée de 6 mois. Ensuite commenceront les analyses des tissus et des fluides recueillis par les méthodes omiques (protéomique, génomique, métabolomique…) et le projet devrait se terminer fin 2016″, prévient l’expert de l’Anses. »Par ailleurs OGM90+ est en interaction étroite avec le projet européen G-TwYST avec la même alimentation et la même souche de rat. Nous poursuivrons l’étude de certains paramètres en omiques sur des prélèvements à 1 an et 2 ans », prévient-il en réponse aux critiques des associations.

Pourquoi les associations se sont-elles retirées du dialogue ?

L’Anses voulait piloter un dispositif permettant d’associer les parties prenantes tout au long du processus par la mise en place d’une instance de dialogue. En mars 2014, l’Anses a donc lancé un appel public à manifestation d’intérêt et tous les représentants d’associations, d’entreprises et d’organisations ayant fait acte de candidature ont été retenus.

Au cours de la réunion de lancement qui s’est tenue le 28 mai 2014, des représentants de plusieurs organisations associatives – Greenpeace, Inf’OGM, CRIIGEN – et de la Confédération paysanne ont fait part de leur décision de se retirer de cette instance de dialogue. Le Verbatim de la réunion vient d’être rendu public. On y apprend précisément les raisons de ce refus. On reprend ici les raisons principales ayant motivé leur décision.

« Même si nous approuvons complètement le souhait de l’Anses de constituer une instance de dialogue autour du projet d’étude à long terme sur les risques toxicologiques des OGM, l’organisation de cette instance et le fait que le protocole semble arrêté et non discutable nous posent un souci », explique Anaïs Fourest, Chargée de campagne Agriculture chez Greenpeace France . »Par ailleurs, le porte-parole français de la société Monsanto étant invité à participer à cette instance qui doit se prononcer sur son propre OGM, nous ne pouvons tolérer un conflit d’intérêts aussi direct », ajoute Roxane Mitralias, Animatrice OGM de la Confédération paysanne.

Les associations regrettent également que ce projet ne dure que 6 mois, au lieu des deux ans initialement prévus. Franck Fourès, notre expert de l’Anses, qui était aussi responsable de cette instance de dialogue, explique cette décision « L’appel à projets a été assez large pour viser à couvrir tout ce que des scientifiques pourraient apporter en documentant les effets à long terme des OGM. Cela aurait tout à fait pu être une étude à deux ans. Il se trouve qu’un projet seulement a été soumis et qu’il utilise plutôt les techniques omiques, qui sont chères, ce qui fait que la durée de travail est nécessairement plus courte ».

Dans sa Déclaration relative à la sortie du programme RiskOGM et de son instance de dialogue, le CRIIGEN qui avait joué un rôle important dans l’étude Séralini critique sans détour le protocole retenu. « L’Anses précise que cette étude vient en complément d’une étude européenne d’une durée de deux ans, relative à la cancérogénicité à long terme du maïs NK603 sur le rat. Elle omet toutefois de préciser que seules les tumeurs cancéreuses seront examinées, à l’exclusion de toutes les autres pathologies.

Or, notre étude n’avait pas conclu sur les cancers, mais sur les pathologies rénales, hépatiques, les inversions de taux d’hormones sexuelles et les tumeurs mortelles qui se développaient au cours de la deuxième année », explique ainsi le CRIIGEN. De plus, « l’étude proposée est insuffisante et sera donc non conclusive, un délai de 3 mois (comme celui de 6 mois) étant trop court pour analyser une toxicité chronique, notre étude l’ayant d’ailleurs montré spécifiquement pour cet OGM et l’herbicide Roundup », déplore l’association.

Au final, quel forme va prendre le suivi du projet ?

L’instance de dialogue s’étant dissoute avant même d’avoir commencé son travail, l’Anses organisera à la place des réunions d’informations sur l’étude OGM90+ aux étapes clés du projet. « Les réunions auront lieu notamment avant le lancement de l’expérimentation sur les animaux, à la fin de l’expérimentation et au moment de la mise en forme des premiers résultats », affirme Franck Fourès.

Toutes les données expérimentales seront en accès libre sur un serveur dans le cadre d’un consortium sur le sujet des OGM regroupant GRACE/, G-TwYST et OGM90+.

Par Matthieu Combe, journaliste scientifique 

Apprentissage de la lecture : les bricolages du cerveau

Lorsque l’on commence à lire, notre cerveau doit apprendre à inhiber la généralisation en miroir : un mécanisme qui permet de reconnaître rapidement des objets identiques quelle que soit leur orientation et qui empêche le cerveau de différencier les lettres en miroir qui, bien que symétriques, sont différentes. L’étude, menée par les chercheurs du Laboratoire de psychologie du développement et de l’éducation de l’enfant (CNRS/Université Paris Descartes/Université de Caen Basse-Normandie), est disponible en ligne sur le site du Psychonomic Bulletin & Review (Online First Articles).
Ces dernières années, de nombreuses études se sont basées sur la théorie du recyclage neuronal à propos de l’apprentissage de la lecture : des mécanismes anciens de notre cerveau sont réutilisés dans un rôle adaptatif nouveau, par une sorte de « bricolage biologique ». Ainsi, des neurones initialement dédiés à l’identification rapide d’objets de notre environnement, grâce à la généralisation en miroir, seraient réutilisés au cours de l’enfance pour se spécialiser dans la reconnaissance visuelle des lettres et des mots.

Les chercheurs ont donc montré à 80 jeunes adultes des paires d’images, d’abord deux lettres et ensuite deux animaux. Sont-elles à chaque fois identiques ? Les résultats ont indiqué que les lecteurs mettaient systématiquement plus de temps à déterminer que deux images d’animaux étaient bien identiques quand elles étaient précédées par des lettres en miroir. Cette augmentation du temps de réponse s’appelle « l’amorçage négatif » : les lecteurs ont dû bloquer la stratégie de généralisation en miroir pour réussir à discriminer des lettres de type b/d ou p/q. Ils mettent ensuite un peu plus de temps à déclencher cette stratégie quand elle est à nouveau utile pour reconnaître rapidement des animaux.

Ces résultats montrent que, même à l’âge adulte, l’inhibition de la généralisation en miroir est toujours nécessaire pour éviter les erreurs de lecture. Les enfants doivent donc s’entraîner à inhiber cette stratégie dès le début de l’apprentissage de la lecture. Un défaut d’inhibition cognitive lors du recyclage des neurones visuels du cerveau pourrait alors être un facteur explicatif de la dyslexie. Une piste à explorer, suite à cette découverte.

Le lecteur doit apprendre à discriminer sur l’ordinateur les lettres en miroir (b et d) séparées par une croix de fixation du regard (+).

Dans la séquence expérimentale, une paire d’animaux identiques (un cheval par exemple) est soit précédée à l’écran d’une paire de lettres en miroir (b et d), soit, dans la condition contrôle, d’une paire de lettres qui n’est pas en miroir (f et t). Le participant à l’expérience doit à chaque fois décider si les deux items (lettres ou animaux) sont identiques ou non.

Source : CNRS

News informatique de septembre 2014 : la rentrée des applications pour smartphone

Cap sur l’Innovation

LE 15 octobre 2014, à la Cité Internationale Universitaire de Paris, CAP’TRONIC organise la 2ème édition de « Cap sur l’Innovation », en partenariat avec la Direction Générale de la Compétitivité de l’Industrie et des Services (DGCIS) du Ministère de l’Economie, des Finances et de l’Industrie.

Rappelons que CAP’TRONIC est le programme national d’accompagnement des PME pour l’intégration de nouvelles solutions électroniques et logicielles dans leurs produits. Au programme de cette journée, au cours de laquelle les participants pourront non seulement approfondir les potentialités des technologies mais aussi échanger avec de nombreux dirigeants de PME, 3 tables rondes (« Objets connectés : quels nouveaux services pour le grand public et les professionnels », « Comment rester compétitif en produisant en France ? », « Les ateliers de fabrication numérique pour quels services aux entreprises »), la présentation d’une étude de la DGCIS sur les ateliers de fabrication numérique, les fab lab, une présentation des dispositifs d’aide aux PME, une autre sur « Numérique et gestion de l’information dans l’industrie » au sein de 4 filières (cuir, bâtiment, nautique et aéronautique), enfin la remise des Trophées CAP’TRONIC dans les différentes catégories dont les 12 projets nommés auront été présentés brièvement dans la journée.

 

Yo !

Yo a été un des phénomènes de l’été dans la scène high-tech. Incroyablement simple, cette application créée par deux jeunes Israéliens a su attirer plusieurs milliers d’utilisateurs en quelques semaines et même des investisseurs dernièrement. Yo divise cependant la scène des start-up : véritable innovation pour certains, elle est le symbole d’excès conduisant à l’apparition d’une deuxième bulle Internet pour d’autres.

Le produit d’une simple farce

A l’origine de Yo, une simple farce entre amis : Moshe Hogeg et Or Arbel se sont aperçus qu’ils s’envoyaient régulièrement des messages contenant un simple « Yo » pendant leur journée. Profitant du 1er avril, ils ont codé pour l’occasion une application pour smartphone dont la seule fonction serait d’envoyer un Yo à quelqu’un dans son répertoire. Aucune autre fonctionnalité : une simple liste d’amis à qui transmettre un Yo. Malgré cette extrême simplicité et cette apparente inutilité, l’application a su faire des émules à partir du mois de mai, étant téléchargée et utilisée par plusieurs dizaines de milliers de personnes à travers le monde, qui ont déjà échangé quelques millions de Yo.

Simple mais aux utilisations très diverses

Ce succès aussi inattendu que spectaculaire a changé le regard des créateurs sur leur créature. Au point qu’ils croient maintenant pleinement dans leur concept et sa viabilité. Il faut admettre que l’imagination des utilisateurs a de quoi surprendre et laisse entrevoir de nombreuses possibilités d’utilisation. Ainsi, pour n’en citer que quelques-unes, il fut possible pendant la Coupe de monde de football de s’inscrire afin de recevoir un Yo au moindre but de son équipe fétiche. Dans un domaine plus sérieux, l’application a aussi été utilisée par des Israéliens pour transmettre en temps réel les alertes de lancement de roquettes en provenance de Gaza.

Comprenant les opportunités qu’ouvrait leur concept, Moshe Hogeg et Or Arbel ont mis à jour leur produit afin qu’il devienne une véritable plateforme de notifications. Toujours dans un souci d’extrême simplicité, leur service a été étoffé en ajoutant deux fonctionnalités importantes : la présence d’un hashtag pouvant compléter le Yo et la possibilité de rajouter un lien vers une page simple. En complément, ils ont créé une page, appelée le YoIndex, recensant les différents services dont on souhaite recevoir des notifications. Dans le but d’étendre son réseau, Yo fournit aussi une interface de programmation simple que peuvent utiliser facilement les développeurs du monde entier.

Succès éphémère ou véritable plateforme ?

Si nombreux restent sceptiques quant au potentiel et à la durée de cet engouement, la vision des fondateurs semble avoir suffi à convaincre des investisseurs d’injecter 1,5 millions de dollars dans la jeune start-up [2]. Ainsi, même si cette application a pu commencer comme une farce, il n’est pas forcément exclu qu’elle puisse un jour muter en un concept plus viable. Dans cette perspective, Yo a au moins l’avantage d’avoir une base importante de personnes l’ayant installé et utilisé, ce qui, dans le contexte actuel d’une concurrence exacerbée pour obtenir un espace sur nos smartphones, est un argument non négligeable. Bien sûr, une levée de fonds et un déménagement dans la Silicon Valley sont loin d’être un gage de réussite, mais comme beaucoup d’entrepreneurs, Moshe Hogeg et Or Arbel sont de grands optimistes !

 

Concevoir le Shazam de l’alimentation en France, l’objectif de 3D-Minded

Directeur au sein de la R&D sur les moteurs de recherche au sein de Dassault Systèmes, Arnaud Nonclercq est également le fondateur de 3D-Minded. Tout a commencé il y a cinq ans, quand deux professeurs de médecine lui parlent de leur souhait de créer une application iPhone liée à l’obésité. Après réflexion, il se décide de se lancer dans l’aventure, mais à son rythme, en parallèle de son activité professionnelle qui occupe déjà tout son temps. Il y associe le docteur Arnaud Cocaul, un nutritionniste réputé, « parce qu’il est très important dans une application mobile d’avoir un expert et un relais de communication », observe-t-il. Un peu plus de deux ans vont lui être nécessaire pour développer, en collaboration avec deux autres personnes, une application qu’il souhaite « différente » de ce qui existe déjà sur le marché. C’est la raison pour laquelle il y a appliqué nombre de ses compétences en particuliers dans le domaine de la 3D.

Suite au lancement de cette application, il y a environ trois ans, Arnaud Nonclercq créé officiellement 3D-Minded, l’objectif étant de commercialiser KcalMe (nom de son application) sur iPad et iPhone, qui compte déjà 60.000 utilisateurs. « C’est aujourd’hui la seule application en France pour la mesure des calories en 3D », explique-t-il avec une certaine satisfaction. Face à ses principaux concurrents, en majorité Américains, KcalMe se distingue en effet par son interface 3D qui permet de définir une quantité de nourriture à l’aide de la réalité virtuelle, de la réalité augmentée ou encore de la reconnaissance vocale. Vous pouvez ainsi à l’aide d’une photo de votre assiette savoir quelle est la quantité en 3D de son contenu. « Prononcez vocalement le nom d’un produit et sa quantité et celui-ci s’affichera aussitôt en images de synthèse ». Autrement dit, KcalMe propose trois approches différentes en une seule application. Objectif à plus long terme de cet homme profondément imprégné de l’univers des serious games et habitué depuis longtemps à travailler en réseau, « concevoir le Shazam de l’alimentation en France ».

En attendant, cette application a reçu le 2ème Prix du Concours E-Nutrition, organisé à l’initiative du pôle de compétitivité Vitagora, auquel s’est associé le groupe Seb. Rappelons que l’objectif de ce concours est de mettre en valeur cette nouvelle économie qu’est en train de faire émerger la révolution digitale, en particulier dans le domaine de l’alimentation, de la nutrition et de la santé

Le Français Alim-Louis Benabid récompensé du prix Lasker

« Cette consécration » comme ils l’appellent, les deux hommes la doivent à la mise au point de la technique dite de « stimulation cérébrale profonde » (SCP) qui a permis d’améliorer la vie de dizaines milliers de personnes atteinte de la maladie de Parkinson – la maladie neuro-dégénérative la plus fréquente après Alzheimer. La SCP est en fait l’implantation de fines électrodes dans des régions précises du cerveau. Ce sont elles qui, par injonction d’un « pacemaker », en fait un neurostimulateur qui envoie un courant électrique, stimulent le noyau profond du cortex cérébral. Ainsi, les troubles moteurs (tels que les tremblements, les gestes lents…) inhérents à la maladie de Parkinson sont réduits durablement.

La première pose des électrodes remonte à 1987. Le professeur Alim-Louis Benabid, en pleine intervention, réalise alors une lésion dans la zone cérébrale atteinte d’un patient. Car il faut savoir que si pour la plupart des patients, un traitement médicamenteux suffit pour juguler la maladie, il reste « 20% des cas » pour qui cela n’a pas d’effet. C’est donc en 1987, en opérant un patient pharmaco-résistant, qu’il se rend compte qu’un courant électrique – à hauteur de 100 hertz – a le même effet qu’une lésion. Le neurochirurgien est en train de vérifier qu’il ne va pas s’attaquer à des zones du cerveau essentielles. Il les stimule électriquement, et en augmentant davantage les fréquences, il étouffe un moment les tremblements du patient.

Chose fabuleuse, les impulsions électriques ont un effet durable et permettent d’arrêter les tremblements de manière réversible. Enfin, bien que cette méthode ne résolve pas tout concernant Parkinson : les troubles de la parole et cognitifs persistent; elle peut s’appliquer à une dizaine d’autres maladies. Il était donc normal que l’Élysée, sous la forme de communiqué et plus directement de la bouche du président François Hollande – « Alim-Louis Benabid honore la recherche médicale française » -, ait tenu à féliciter ce grand chercheur, qui est désormais le huitième français à décrocher le prix Lasker.

Par Sébastien Tribot

Et aussi dans les
ressources documentaires :

Philips annonce vouloir se scinder en deux sociétés

« Je reconnais l’importance de la décision que nous prenons mais il est temps de commencer la prochaine étape stratégique pour Philips », a indiqué le directeur exécutif du groupe, Frans van Houten, dans un communiqué.

« Nous préparons Philips pour le siècle à venir », a-t-il fait valoir lors d’une conférence téléphonique avec des journalistes.

« Donner de l’indépendance à nos activités d’Éclairage va leur permettre d’augmenter leur position globale et de s’aventurer dans des opportunités de marchés adjacentes », a-t-il poursuivi.

Les deux sociétés garderont le nom de Philips ainsi qu’un siège social aux Pays-Bas, a affirmé M. van Houten.

Les branches santé et Lifestyle (qui regroupe des objets destinés aux consommateurs, comme des ustensiles de cuisine ou des brosses à dents électriques) seront combinées dans une nouvelle structure nommée « HealthTech ».

Celle-ci a cumulé des ventes de 15 milliards d’euros en 2013 tandis que les activités Éclairage avait récolté quelque 7 milliards d’euros.

Pour cette dernière branche, Philips considère « des structures de propriété alternatives avec un accès direct aux marchés de capitaux », a-t-il indiqué sans plus de précisions. Davantage d’informations seront dévoilées au cours de l’année 2015.

Ces mesures devraient permettre au groupe d’économiser 100 millions d’euros en 2015 et 200 millions en 2016. Le groupe devra néanmoins prendre à sa charge 50 millions d’euros de coûts de restructuration estimés jusqu’en 2016.

Philips, qui emploie quelque 112.000 personnes, a longtemps été spécialisé dans la production de téléviseurs et de petit électroménager. Mais depuis une dizaine d’années, le groupe a développé la production de matériel médical, comme des scanners à résonance magnétique, et des systèmes d’éclairage.

Il se concentre depuis des années sur ces marchés à hautes marges moins vulnérables à la compétition venant des économies émergentes.

Philips avait vendu sa branche divertissement (chaînes hi-fi et lecteurs DVD, notamment) en avril à l’américain Gibson Brands après avoir vendu en 2012 sa branche téléviseurs, alors en difficulté.

Le groupe avait déjà annoncé fin juin vouloir regrouper certaines de ces activités d’éclairages, notamment pour les voitures ou les téléphones mobiles, dans une société autonome.

Il a d’ailleurs abandonné en 2013 le qualificatif d' »Electronics » lié à son nom, afin de marquer son changement de stratégie.

mbr/cjo/ggy/jh

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »