Un objectif : des poids-lourds européens de plus en plus sobres en énergie

La Commission Européenne déclare qu’elle veut s’attaquer à un vrai problème: la réduction des consommations en carburants et des émissions de CO2 des poids lourds et autres bus qui circulent en Europe. Elle annonce avoir défini un logiciel (Vecto) qui lui permettra de simuler les émissions de CO2 prévisibles pour les nouveaux véhicules mis sur le marché, première étape  nécessaire pour établir un état des lieux, puis pour fixer réglementairement,  des objectifs de progrès auprès des constructeurs.

Les émissions de CO2 des poids lourds en Europe représentent aujourd’hui le quart des émissions de l’activité transport routier ou 5% des générations totales européennes de gaz à effet de serre, affirme la Commission.

La progression de la circulation des poids lourds en Europe a entraîné une croissance des consommations de carburants et des émissions de 36% entre 1990 et 2010. Inverser cette tendance, dans un contexte de hausse inexorable des coûts des carburants, apparaît comme étant un défi nécessaire à la bonne santé économique des nations européennes.

Il en résulte que l’objectif pour 2050, fixé par ailleurs, de réduire de 60% les émissions de CO2 par rapport au niveau de référence de 1990 est donc un objectif d’une grande ambition qui nécessitera la mise en place de progrès technologiques significatifs sinon révolutionnaires.

Parmi les grandes familles d’actions envisageables par les constructeurs, les actions portant sur la réduction des pertes d’énergie tout au long de la chaîne de traction, sur l’aérodynamisme du véhicule, sur sa réduction de masse à vide, sur la réduction des déformations des pneumatiques au contact de la chaussée, sur l’aide à la conduite et l’aide au choix d’itinéraire ne seront pas suffisantes pour atteindre l’objectif.

Se posera alors le problème de l’hybridation des poids lourds qui permettra de récupérer l’énergie cinétique au freinage, point clé d’une amélioration réelle de l’efficacité énergétique de ces véhicules très lourds, en particulier durant les phases d’embouteillages de la circulation aux abords des agglomérations, lieux où les consommations de carburant s’emballent.

Une hybridation électrique centralisée, du type de celle mise au point sur les véhicules de tourisme, nécessiterait d’énormes batteries onéreuses associées à des moteurs électriques de très grande puissance. Une option possible, pour fractionner ce bilan énergétique et réduire ainsi les pertes d’énergie, consisterait à traiter ce problème de façon autonome dans chacune des roues ou sur chacun des essieux, y compris ceux des remorques, de  poids lourds qui peuvent dépasser en charge les 40 tonnes.

L’autre option réside dans le stockage pneumatique, si possible adiabatique, de cette énergie.

Formidables défis technologiques en perspective, à affronter sans tabous.

Les économies attendues en achats de carburants devraient permettre d’amortir les surcoûts prévisibles d’une technologie plus complexe des ensembles.

Par Raymond Bonnaterre

Et aussi dans les
ressources documentaires :

Nouvelles réactions politiques au projet de loi sur la transition énergétique

– François de Rugy, coprésident des députés écologistes: « Pour la première fois de notre histoire, le Parlement va être amené à voter une loi définissant la politique énergétique. Et cette loi organisera la décroissance de notre dépendance au nucléaire et aux énergies fossiles au profit de l’efficacité énergétique et des énergies renouvelables. Elle mettra en oeuvre le compromis passé entre les écologistes et les socialistes avant 2012. Contrairement à ce qu’espérait le lobby nucléaire, PDG d’EDF et Arnaud Montebourg en tête, le gouvernement n’est pas revenu sur l’engagement de François Hollande de réduire la part du nucléaire de 75 à 50% dans la production d’électricité à l’horizon 2025. Comme l’a souligné Denis Baupin, vice-président de l’Assemblée nationale, +la transition énergétique est non seulement une obligation écologique, mais aussi une formidable opportunité économique face à la crise : elle peut permettre de créer des centaines de milliers d’emplois non délocalisables, redonner du pouvoir d’achat aux ménages, et réduire notre dépendance aux importations énergétiques+. » (communiqué)

– Yann Wehrling, porte-parole du groupe UDI-MoDem: « La lecture des nombreux articles de la loi donne un sentiment de service minimum. Beaucoup de ces articles confirment des actions déjà engagées et initiées dès le Grenelle de l’environnement. C’est donc un texte sans grande surprise qui assure une continuité sans pour autant donner le coup d’accélérateur qui était attendu. Les grandes orientations sont rassurantes mais les moyens, notamment financiers, restent imprécis. Il est par ailleurs surprenant de constater le calendrier retenu. Cette loi, présentée comme un +moment important du quinquennat+, est annoncée au coeur de l’été, après des reports à répétition dissimulant mal les hésitations au sein du gouvernement. Aurait-on voulu réduire au maximum l’impact médiatique de cette loi et laisser entendre que le gouvernement ne veut pas en faire un temps fort de son action, qu’on ne s’y serait pas pris autrement. » (communiqué)

zl/rh/sd

 

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Réactions politiques au projet de loi sur la transition énergétique

– Association des régions de France: « Ce texte consolidé engage la France sur des objectifs ambitieux et réalistes à la fois. Il introduit un nouveau modèle qui fait une large place aux collectivités locales. Les régions étaient particulièrement attentives aux évolutions du texte permettant d’enclencher une dynamique ambitieuse en faveur de la rénovation énergétique des logements. De leur point de vue, l’enjeu majeur réside dans la capacité des différents acteurs publics à créer un véritable +guichet unique+ susceptible d’accompagner les ménages tout au long de leur projet de travaux, et travaillant à la fois à la structuration de l’offre de professionnels qualifiés. » (communiqué)

– Julien Aubert, député UMP du Vaucluse: « Le gouvernement s’apprête à dépenser des milliards d’euros sans avoir réfléchi aux outils nécessaires pour assurer une dépense efficace. Les objectifs retenus par le projet de Mme Royal sont flous: ils n’ont qu’un but purement politicien, à savoir contenter les Verts. S’agissant du nucléaire, on ne peut que constater la lâcheté dont le gouvernement fait preuve. En voulant copier le modèle allemand, il s’apprête à mettre à mort une filière française d’exception, sans toutefois le reconnaître clairement. (Toutefois) le gouvernement rejoint l’opposition notamment sur la question du tout électrique dans le domaine des transports en ouvrant des voies aux multiples technologies et aux différentes sources énergétiques. De même, s’agissant de la simplification administrative, quelques avancées sont prévues par ce projet de loi. » (communiqué)

– François Brottes, député PS et président de la commission des Affaires économiques de l’Assemblée nationale: « Pour réduire la facture énergétique de la France, lutter contre le chômage et répondre au défi du changement climatique, ce texte engage un travail collectif de pédagogie et de conviction partagée. Chacun de nous en sera décideur et acteur. Ce texte démultiplie les capacités d’initiative pour réussir la transition énergétique, c’est-à-dire gagner la bataille d’une énergie propre, diversifiée et vraiment accessible à tous (…). C’est un texte de réconciliation et de rassemblement. » (communiqué)

– Le Parti communiste français: « L’objectif de diminuer par deux nos consommations d’énergie à l’horizon 2050 est réaffirmé. Cet objectif est contestable et il est pour le Parti communiste un objectif insoutenable! Cette perspective est complètement incohérente avec l’évolution démographique de notre pays dont les prévisions s’acheminent vers 70 millions d’habitants en 2050 et d’autre part par l’exigence du droit à l’énergie pour tous en corrélation avec la satisfaction des besoins sociaux. Les baisses de consommation observées ne sont que les conséquences de la crise sur l’activité économique et l’augmentation de la précarité énergétique. Le PCF ne se résigne pas à la désindustrialisation de notre pays. Et cela suppose un accroissement de nos capacités de production et donc de consommation d’énergie. » (communiqué)

– Didier Guillaume, président du groupe socialiste du Sénat: « Ce projet tant attendu vient concrétiser les engagements du président de la République et constituera sans nul doute l’un des plus gros dossiers de la rentrée parlementaire. Le nouveau modèle énergétique français, c’est un levier important d’investissements d’avenir pour relancer la machine de la croissance et la création d’emplois durables. Un véritable foyer d’innovation pour nos entreprises, dans de nombreux secteurs au premier rang desquels la construction, les transports, les énergies renouvelables, et l’économie circulaire. C’est une chance à saisir sans tarder pour le développement de nos territoires. C’est aussi une chance à saisir pour tous les ménages français: économiser l’énergie, c’est la garantie d’une baisse de factures! » (communiqué)

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Bientôt des batteries flexibles imprimables !

Grâce sa technologie de batterie brevetée ZincPoly, Imprint Energy est en passe de bouleverser le marché des batteries pour les petits appareils électroniques portables,. Ce marché dépasse aujourd’hui les 1 milliard de dollars et devrait croître sensiblement avec l’émergence de l’internet des objets et le développement de l’électronique portable.

Imprint Energy développe des batteries sans dangers pour les applications életroniques portables embarquées sur ou à l’intérieur du corps humain. Ces batteries présentent une faible taille et une grande flexibilité qui permettront la conception de nouveaux produits jusque là non imaginables avec des batteries à base de lithium.

Des batteries solides à base de zinc

Imprint Energy a été fondé en 2010 sur le renforcement des recherches originales de la cofondatrice de la société, Christine Ho, à l’Université de Californie à Berkeley. Elle avait alors collaboré avec un chercheur au Japon pour produire des batteries de zinc microscopiques à l’aide d’une imprimante 3-D.

Les batteries qui alimentent la plupart des nouvelles technologies contiennent du lithium. Mais ce métal est très réactif et doit être protégé par un système électronique de protection, ce qui augmente la taille de la batterie et donc l’encombrement des circuits.

Les batteries lithium-ion fonctionnent mal lorsqu’elles sont extrêmement minces, de sorte que Christine Ho a développé un nouveau type de chimie de la batterie en utilisant du zinc. Le zinc n’étant pas toxique et étant stable, il ne nécessite pas de gaine protectrice. Pour rendre la batterie rechargeable, Christine Ho a eu l’idée de mettre au point une membrane électrolyte polymère solide. Les cellules sont minces comme du papier et pliables. Il est alors possible de les imprimer directement avec une imprimante industrielle ordinaire.

Les innovations de l’entreprise dans la chimie de la batterie rechargeable de zinc lui ont permis de développer des cellules à l’état solide, minces et flexibles, aux performances et fonctionnalités inégalées. Les batteries ZincPoly sont plus minces, plus souples, plus personnalisables et offrent une liberté sans précédent dans la conception des objets.

Des batteries plus fiables et vérifiées

Malgré la demande en batteries flexibles, Christine Ho explique qu’aucun standard n’a encore été développé pour mesurer leur flexibilité, frustrant les clients qui souhaitent comparer les chimies. La société a donc construit son propre banc d’essai et a  entrepris une analyse comparative de ses batteries avec les batteries commerciales prétendues flexibles. Les batteries existantes auraient cessé de fonctionner après moins de 1000 cycles de flexion, tandis que les batteries d’Imprint seraient restées stables.

La flexibilité de cette batterie la rend particulièrement attrayante pour l’électronique portable. La société vise ainsi les fabricants d’appareils électroniques portables, d’appareils médicaux, d’étiquettes intelligentes, et de capteurs environnementaux. Elle a même récemment commencé à travailler sur un projet financé par l’armée américaine pour fabriquer des batteries alimentant des capteurs servant à surveiller l’état de santé de ses soldats.

En juin 2014, la société a levé 6 millions de dollars des fonds de Phoenix Venture Partners, ainsi que d’AME Cloud Ventures, le fonds de placement du cofondateur de Yahoo Jerry Yang. Cette somme lui permettra de développer sa technologie et financer le lancement commercial de ses nouvelles batteries.

Découvrez la technologie en vidéo (en anglais)

Par Matthieu Combe, journaliste scientifique

Le plus grand avion en papier vole à plus de 150 km/h

Le projet retenu a été soumis à une société d’ingénierie pour réaliser l’avion pensé par le jeune garçon de douze ans. Le premier prototype a été réalisé avec des plaques de carton alvéolé. L’avion fait tout de même quatorze mètres de long pour huit mètres d’envergure. Le tout pour un poids plume de trois cent soixante kilogrammes.

 L’Arturo’s Desert Eagle a été testé dans le désert de l’Arizona. Héliporté à 4000 pieds d’altitude, son vol n’a duré que quelques secondes, suffisant pour que l’avion de papier atteigne la vitesse de 160 km/h. Malheureusement, l’arrière de sa structure s’est vite dégradé, suffisamment pour provoquer la chute de l’avion.

La réalisation du plus grand avion en papier au monde est néanmoins un succès, tant sur le plan technique que sur celui de la communication. Cette initiative a motivé une centaine d’enfants et les a sensibilisés à l’ingénierie aéronautique. Le vainqueur du concours a d’ailleurs déclaré souhaiter s’orienter vers une carrière d’ingénieur.

Découvrez le vol spectaculaire filmé par une GoPro :

Par Audrey Loubens, journaliste scientifique

EDF: résultats semestriels solides grâce au nucléaire et aux économies

Sur les six premiers mois de l’année, le bénéfice net du producteur français d’électricité est ressorti en hausse de 8,3% à 3,1 milliards d’euros, pour un chiffre d’affaires en repli de 3,8% à 36,1 milliards, affecté par des conditions météorologiques défavorables qui ont pesé sur la demande d’énergie.

« Cette bonne performance est la preuve de notre capacité à répondre à deux impératifs indissociables: satisfaire les intérêts de nos actionnaires, et accomplir avec détermination notre mission de service public », commente le PDG, Henri Proglio, dans un communiqué du groupe.

Détenu à 84,4% par l’Etat, EDF avait annoncé en février qu’il réduirait progressivement ses investissements et continuerait à maîtriser ses coûts afin de générer une trésorerie positive après dividendes en 2018, en excluant le déploiement du compteur communicant Linky.

Ces efforts en matière de coûts se sont traduits en 2013 par des économies de 1,3 milliard d’euros, tandis que le montant des investissements nets devrait s’établir entre 13 et 13,5 milliards d’euros en 2014.

Le géant de l’électricité a bénéficié aussi de la hausse de 5% des tarifs réglementés de vente en août 2013, mais l’augmentation identique prévue à la même période cette année a été annulée par la ministre de l’Energie Ségolène Royal, qui a invoqué une réforme en cours de leur mode de calcul afin d’en limiter l’inflation et préserver le pouvoir d’achat des consommateurs.

Matignon avait toutefois tempéré cette annonce, qui avait provoqué une chute spectaculaire du cours d’EDF à la Bourse de Paris, en indiquant qu’une « hausse modérée, inférieure à 5% », interviendrait en septembre ou octobre.

mpa/fpo/gf

 

 

 

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Le problème énergétique majeur français : ses importations de pétrole et de produits pétroliers

Les médias parlaient alors du solde commercial « hors pétrole », laissant supposer que cet incident mineur dans les prix de la ressource ne serait que passager et que reviendrait rapidement le temps d’une énergie bon-marché qui avait caractérisé les trois décennies glorieuses d’après-guerre. Or, comme tout le monde le sait à-présent, il n’en a rien été.

Pour renouer avec cette tradition, bien de chez nous, je peux vous annoncer que le solde du commerce extérieur de notre pays, « hors pétrole et gaz » est quasiment à l’équilibre. Alors tout va bien me direz-vous ! A une condition cependant, que les cours du gaz naturel et du pétrole soient réduits de 90% durant la décennie à venir…hypothèse possible mais peu probable.

Un examen  des données publiées par les Douanes sur ce thème du solde du commerce extérieur (TAB.I) à la fin du mois de Mai dernier, montre que les importations sur les douze derniers mois, de pétrole et de produits pétroliers, corrigées des exportations, ont coûté à la France dans les 50 milliards d’euros. Une analyse rigoureuse des effets volumes et des effets prix sur les variations par rapport aux années antérieures n’est pas évidente à mener,  mais il est possible de constater que ce poste, cumul des deux premières lignes du Tableau, a toujours été depuis 2011 supérieur ou égal à ces 50 milliards d’euros, en accord avec une très faible décroissance des consommations de produits pétroliers de la France durant la dernière décennie, et une baisse des activités de raffinage avec transfert des importations de pétrole brut vers celles de produits raffinés plus onéreux.

 

Tableau.1 : solde exportateur net de la France en produits énergétiques  et autres produits à forte teneur énergétique. (Douanes)

 

Il ressort de ces données qu’à court et moyen terme, le problème de la France n’est pas de produire plus d’énergies renouvelables, mais c’est de consommer moins de gaz et de pétrole. Or dans une économie aux ressources contraintes, ce qui est le cas de notre pays, se tromper de « tempo », peut être une faute très grave.

Faut-il investir en priorité dans la suppression des consommations de fioul domestique ou dans les éoliennes offshores en surnombre en Europe ?

Vu des données du commerce extérieur et de l’objectif majeur de rétablissement de bonne santé économique de notre pays, il est clair que c’est le poste de réduction des consommations qu’il faut privilégier et laisser le poste onéreux des énergies intermittentes à notre riche voisine allemande, largement spécialisée sur ce sujet hors de prix.

Lire aussi : Comment réduire la consommation française de produits pétroliers ?

Par Raymond Bonnaterre

Comment réduire la consommation française de produits pétroliers ?

La faible rentabilité du raffinage français et son inaptitude à produire les volumes gazole largement consommés localement, conduit les distributeurs de fioul domestique et de gazole à importer largement cette ressource (56% de la consommation nationale d’après l’UFIP), ce qui conduit le poste « produits de raffinage du pétrole » à un solde négatif sur les douze derniers mois de 17,4 milliards d’euros qui se rajoute au précédent. En bref le solde du commerce extérieur du pétrole et de ses dérivés frôle, sur douze mois, un solde négatif proche des 50 milliards d’euros. Tel est le prix de l’addiction des citoyens de ce pays au pétrole, facture insupportable et pour laquelle les exportations de biens et de services vers les pays pétroliers ne suffisent pas et de beaucoup, à faire revenir ces milliards dépensés. Il y a là, de toute évidence, une des raisons majeures de la faiblesse économique de notre pays qui globalement consomme trop et surtout, ne produit pas assez.

Passons rapidement sur la pertinence de taxer plus encore cette énergie importée pour tenter par un « signal prix » d’en réduire la consommation intérieure. Les taxes  pléthoriques en France, asphyxient notre pays et appauvrissent ses citoyens en raison de l’inefficacité des multiples prestations collectives qu’elles supportent. 

La voie vertueuse de la réforme se situe bien d’avantage vers la réduction des consommations, à prestations équivalentes, par une optimisation, une amélioration continue  de l’efficacité énergétique des processus. La question qui se pose alors est la suivante : quels sont les postes, les cas d’emplois qui doivent être examinés en priorité ?

 

Figure.1 : Estimation de la répartition des consommations de produits pétroliers en France en 2013, à partir de plusieurs sources (UFIP et BP)

 

Un examen de ces cas d’emplois des produits pétroliers en France en 2013 permet d’estimer que sur 1,7 million de barils de produits raffinés consommés quotidiennement, 51% de ces volumes sont dédiés au transport terrestre (Fig.1).

Cette part de la consommation des transports par rapport à toutes les autres utilisations est en croissance en France (Fig.2), comme elle l’est dans de nombreux pays dans le monde en développement, sous l’impact de la croissance trafic routier, et cela malgré une baisse régulière de la consommation moyenne nominale des véhicules constituant le parc.

 

Figure.2 :  Part des consommations annuelles en volumes de carburants routiers rapportées aux consommations totales de produits pétroliers en France.

 

Cet accroissement relatif de la part des carburants routiers se développe sur fond d’une trop lente décroissance des consommations énergétiques (Fig.3) de ce secteur.

En effet la décroissance moyenne des livraisons de carburants routiers durant la décennie précédente peut être estimée à 0,4% par an, tendance dont la faiblesse n’est pas de nature à modifier radicalement l’équation économique défavorable.

Depuis le mois de Janvier 2013, date où la consommation annuelle moyenne en carburants routiers est passée au dessous des 860 mille barils/jour, la consommation sur les douze derniers mois s’est quasiment stabilisée au-dessus des 850 mille barils/jour.

 

Figure.3 : flux des consommations sur douze mois mobiles, en milliers de barils par jour, de carburants routiers en France (UFIP).

 

Un certain nombre d’actions de progrès portant sur l’efficacité énergétique des véhicules neufs par réduction de masse, hybridation, motorisation plus efficace, utilisation de pneumatiques optimisés, ou portant sur les infrastructures et les aides à la conduite en vue de la  réduction des bouchons routiers dans la périphérie et au sein des grandes agglomérations ne suffiront pas à accélérer cette vitesse de décroissance des consommations. Une part essentielle est dans l’évolution trop lente des mentalités qui devraient, peu à peu, se convaincre qu’un véhicule « smart » doit être de faible masse, de forme profilée et de taille réduite. Or, aujourd’hui, sur le modèle américain, nombreux sont convaincus que plus le véhicule est massif ou imposant et plus le conducteur est riche et fort!

En conclusion, il est possible d’affirmer qu’il serait bien illusoire d’espérer, à court ou moyen terme, une baisse des consommations de carburants routiers en France qui permettrait d’améliorer la balance commerciale dans le domaine du pétrole et des produits pétroliers.

Seule une disparition programmée des consommations de fioul domestique dans l’industrie, le commerce et au sein des habitations, est de nature à faire baisser de 10% les consommations françaises en produits pétroliers. La fin des consommations de fioul domestique, largement importées, serait équivalente à une baisse de 20% des consommations de carburants routiers.

Il y a là un bon objectif à mettre en priorité parmi les objectifs de réduction de la dépendance énergétique de notre pays et d’amélioration de son économie, à condition de remplacer une part de la combustion du fioul importé par une ressource autochtone, comme l’électricité, au sein de locaux thermiquement mieux isolés et à l’aide de procédés de très forte efficacité énergétique comme les pompes à chaleur.

Par Raymond Bonnaterre

Comment pister la représentation des odeurs dans le cerveau

Cette structure cérébrale profonde joue un rôle important dans l’olfaction et restait jusqu’à présent inaccessible par imagerie fonctionnelle. Ces travaux apportent également de nouvelles données sur le fonctionnement, encore mal connu, du système olfactif, notamment sur la façon dont sont traitées les informations au niveau cérébral.
Cette étude est le résultat d’une collaboration entre l’équipe de Mickaël Tanter de l’Institut Langevin (CNRS/Inserm/ESPCI ParisTech/UPMC/Université Paris Diderot) et celle de Hirac Gurden du laboratoire Imagerie et modélisation en neurobiologie et cancérologie (CNRS/Université Paris-Sud/Université Paris Diderot). Elle est publiée dans la revueNeuroImage du 15 juillet 2014.

Comment aboutir à une représentation de l’environnement extérieur à partir de la perception des sens ? Comment, par exemple, les informations olfactives liées à la nourriture ou aux parfums sont-elles traitées par le cerveau ? Si l’organisation du système olfactif est bien connue – elle est semblable des insectes jusqu’aux mammifères – son fonctionnement est encore peu compris. Pour répondre à ces questions, les chercheurs se sont donc intéressés à deux structures cérébrales qui constituent des relais majeurs pour l’olfaction : le bulbe olfactif et le cortex piriforme. Chez le rat, le bulbe olfactif se situe entre les deux yeux, juste derrière l’os du nez. Le cortex piriforme est par contre une structure beaucoup plus profonde du cerveau des rongeurs dont aucune image fonctionnelle n’avait pu être enregistrée chez un animal vivant jusqu’à présent.

La technique d’imagerie neurofonctionnelle par ultrasons développée par l’équipe de Mickaël Tanter, baptisée fUS (functional Ultrasound), a permis de suivre l’activité neuronale du cortex piriforme. Elle est basée sur l’envoi d’ondes planes ultrasonores dans les tissus cérébraux. Les échos renvoyés par les structures traversées par ces ondes permettent, après traitement des données, d’obtenir des images ayant une résolution spatiotemporelle inégalée : 80 micromètres et quelques dizaines de millisecondes.
Le contraste obtenu sur ces images est lié aux variations du flux sanguin dans le cerveau. En effet, l’activité des cellules nerveuses nécessite un apport en énergie : elle est donc couplée à un afflux de sang dans la zone concernée. En enregistrant les variations de volume dans les vaisseaux sanguins qui alimentent les différentes structures cérébrales, il est ainsi possible de connaître la localisation des neurones activés.

Plusieurs techniques d’imagerie, comme l’IRM, s’appuient déjà sur le lien entre volume sanguin et activité neuronale. Mais fUS est avantageuse en terme de coût, de maniabilité et de résolution. De plus, elle donne un accès facilité aux structures les plus profondes, situées plusieurs centimètres sous la boîte crânienne.

Les enregistrements effectués par cette technique dans l’équipe de Hirac Gurden ont permis d’observer la répartition spatiale de l’activité dans le bulbe olfactif. Lorsqu’une odeur est perçue, on observe une augmentation du volume sanguin dans des zones bien définies : à chaque odeur correspond une carte spécifique de neurones sollicités. Au-delà de ce résultat, les images révèlent aussi, pour la première fois, l’absence de cette répartition spatiale dans le cortex piriforme. A ce niveau, deux odeurs différentes entraînent la même activation de l’ensemble de la zone.
Les mécanismes cellulaires responsables de la disparition de la signature spatiale ne sont pas encore bien définis mais ce résultat permet déjà de formuler plusieurs hypothèses. Le cortex piriforme pourrait être une structure qui ne sert pas seulement à traiter les stimuli olfactifs mais plutôt à intégrer plusieurs types d’informations et à les mémoriser. Se détacher des cartographies strictes associées à chaque odeur permettrait de faire des associations et d’aboutir à un concept global. Par exemple, à partir de la perception de centaines de molécules odorantes contenues dans le café, le cortex piriforme permettrait de reconnaître une unique odeur : celle du café.

Ces travaux ouvrent de nouvelles perspectives pour l’imagerie et pour la neurobiologie. Les chercheurs vont maintenant s’intéresser à l’effet de l’apprentissage sur l’activité du cortex afin de mieux comprendre son rôle et les spécificités du système olfactif.

Références :
Functional ultrasound imaging reveals different odor-evoked patterns of vascular activity in the main olfactory bulb and the anterior piriform cortex. B.F. Osmanski, C. Martin, G. Montaldo, P. Lanièce, F. Pain, M. Tanter, H. Gurden. NeuroImage. 15 juillet 2014.
DOI: Consulter le site web

Source : CNRS

Un robot de la Nasa bat le record de distance extra-terrestre parcouru en roulant [AFP]

Depuis son arrivée sur Mars, Opportunity, propulsé par l’énergie solaire, a couvert 40 kilomètres. Il a ainsi battu le record officieux établi par le robot Lunokhod 2, lancé par l’Union soviétique sur la Lune en 1973.

« Opportunity est allé plus loin que n’importe quel autre véhicule roulant sur la surface d’un autre monde », a déclaré John Callas, du Jet Propulsion Laboratory (JPL) de la Nasa à Pasadena, en Californie (ouest).

« C’est remarquable si l’on considère qu’Opportunity ne devait à la base rouler que sur 1 kilomètre et qu’il n’a pas été conçu pour de telles distances », a-t-il ajouté.

Opportunity et son jumeau aujourd’hui hors d’usage, Spirit, ont découvert des traces d’environnements humides sur Mars, certains ayant pu être propices à la vie.

Opportunity explore aujourd’hui le cratère Endeavour sur Mars.

Son descendant, le robot Curiosity lancé en 2012, a de son côté parcouru seulement 8,6 kilomètres jusqu’à présent, a précisé la Nasa à l’AFP. Et sa destination finale ne lui permettra pas a priori de rouler autant que son prédécesseur Opportunity.

Selon la Nasa, Lunokhod 2, qui s’était posé sur la Lune le 15 janvier 1973, a parcouru 39 kilomètres en moins de cinq mois. Ce chiffre est basé sur de récents calculs effectués grâce aux images d’un module de reconnaissance autour de la Lune, sur lesquelles on voit les traces laissées par Lunokhod dans le sol lunaire.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Entretien avec Valérie Guillet, experte en risque HSE, à propos du rôle du responsable HSE

Techniques de l’Ingénieur : Quel est le rôle du responsable HSE au sein d’une entreprise ?

valérieguilletValérie Guillet : Il doit être considéré comme un expert interne sur les questions HSE, chargé d’identifier les réglementations applicables, de communiquer dessus auprès de ses collègues afin qu’ils les respectent, et d’anticiper les réglementations à venir. Son travail doit être pris en compte dans la stratégie d’entreprise, tant dans le développement de nouveaux produits que dans l’anticipation des évolutions législatives concernant des produits déjà existants.

Entendons-nous bien : son rôle est un rôle d’animation, dont l’objectif de faire intégrer à la direction et aux équipes les obligations réglementaires, et non pas un rôle d’application directe de celles-ci. Le responsable HSE n’est pas responsable de la sécurité, c’est le manager qui l’est, et qui peut faire changer les comportements. Le Responsable HSE est là pour éviter à la direction des problèmes pouvant relever du pénal, et au personnel d’être victime d’accidents, par un rôle de veille juridique et de conseil. Il n’est pas là pour, comme trop d’entreprises l’imaginent, appliquer directement lui-même les réglementations au sein de l’entreprise.

Techniques de l’Ingénieur : Quelles armes doit posséder le responsable HSE pour mener sa tâche à bien ?

Valérie Guillet : Il doit principalement savoir organiser son travail de veille juridique, sans quoi il risque d’y passer beaucoup trop de temps. Même si les résultats peuvent ne pas sembler flagrants pour l’entreprise, posséder un outil de veille efficace peut être déterminant. Il doit donc se poser comme adjoint à la direction, et chercher à la protéger des retombées judiciaires, en lui faisant appliquer les normes en vigueur. En agissant ainsi, tout le monde y gagnera, et la productivité augmentera. Anticiper sur les évolutions législatives peut même apporter des subventions. C’est au responsable HSE de savoir « vendre » ce type d’initiatives.

Mais surtout, le responsable HSE doit être capable de faire preuve de diplomatie, de persévérance, et d’une grande force de conviction. Il doit pouvoir dire des choses qui vont déplaire, et encaisser des critiques en retour.

Techniques de l’Ingénieur : Vous co-animez chez Techniques de l’Ingénieur un cycle de formation sur cette thématique. A qui s’adresse-t-il ?

Valérie Guillet : Chez les responsables HSE, deux profils se distinguent : les « jeunes » sortant de formations spécialisées, type DUT, et les plus anciens, souvent d’anciens responsables de maintenance, de production, reclassés en fin de carrière sur une tâche moins pénible physiquement. Certains responsables HSE ne réalisent pas cette tâche à temps complet, mais en complément d’autres tâches. Ce programme est donc établi pour ce type de profils, afin de leur éviter certains écueils, le principal, évoqué plus haut, étant de tout faire à la place des autres.

Nous traitons donc de la réglementation, des savoirs et des savoir-faire à maîtriser, mais aussi du rôle d’animateur du responsable HSE, qui est à mon sens fondamental. Nous traitons de ce point en particulier pendant trois jours, car il est crucial : le métier de responsable HSE peut être très intéressant, puisqu’il se situe à l’intersection de tout le monde dans l’entreprise, mais pour cela il faut vraiment être capable de changer les habitudes, et donc disposer des bons outils et des bonnes méthodes pour conduire le changement.

Une première estimation du flux des ressources mondiales de condensats de gaz de schistes assimilables à du pétrole

Ces extractions localisées pour l’instant en Amérique du Nord, viennent conjoncturellement et à bon escient, compenser les manques de productions de certains pays de l’OPEP agités par d’interminables querelles internes à caractères religieux ou claniques.

On sait d’autre-part, ou on soupçonne fortement, que des gisements de gaz de schistes, dont certains seront exploitables, existent par ailleurs dans le monde. Jusque là,  personne ne s’est risqué à échafauder une quelconque projection chiffrée de la ressource.

Cependant, durant la Conférence sur l’Energie 2014 de l’EIA, qui s’est tenue  les 14 et 15 Juillet à Washington, Samuel Gorgen, analyste à l’EIA a présenté un papier sur l’avenir de l’extraction des fractions pétrolières issues des condensats de gaz de schistes aux USA et dans le monde (Figure 1).

Ce spécialiste du Ministère de l’Energie Américain (DOE), estime, à ce jour, que le flux mondial d’extraction de la part des condensats assimilables à du pétrole pourrait dépasser les 9 millions de barils par jour vers 2035. Rappelons que les extractions mondiales de pétrole brut sont de l’ordre de 75 millions de barils/jour et devraient progresser vers les 85 millions de barils/jour durant la décennie à venir.

Il me paraît nécessaire de prendre cette prévision de l’EIA avec beaucoup de philosophie en raison des incertitudes qui pèsent tout d’abord sur les seules prévisions américaines qui oscillent entre un plateau d’extraction situé entre 4 à 5 millions de barils/jour en 2020 (cas de référence représenté ici) et  celui qui atteindrait autour des 8 millions de barils/jour vers 2040 dans le cas d’un scénario beaucoup plus optimiste, auxquelles se rajoutent les erreurs probables des prévisions mondiales.

Retenons pour l’instant et pour simplifier le message, que le monde pourrait extraire des gaz de schistes, dans les décennies à venir,  autour des 10% de ses ressources pétrolières, ce qui ne serait pas si mal.

D’intenses prospections pour mettre à jour ces hypothétiques ressources se déroulent dès à présent en Russie, en Chine et en Amérique du Sud. L’enjeu économique, sur la base d’une industrie mondiale du seul pétrole et de ses dérivés estimée vers les 4000 milliards de dollars en 2014 est considérable, ce qui rend fort plausible cette hypothèse de projection.

Figure 1 : Flux d’extraction de la part des condensats assimilables à du pétrole 

Par Raymond Bonnaterre

Google classe les FAI selon la bande-passante allouée à YouTube

Depuis fin mai, une nouvelle fonctionnalité est apparue chez certains utilisateurs américains de YouTube : le « Video Quality Report ». Dès lors qu’une vidéo met du temps à charger ou que sa qualité est trop faible, une bannière indiquant « Difficile de lire cette vidéo? Découvrez pourquoi » apparaît sous la vidéo. En cliquant dessus, ces utilisateurs découvrent le classement des meilleurs (et des pires!) fournisseurs d’accès à internet (FAI) pour regarder YouTube.
Les opérateurs y sont classés en 3 catégories : « YouTube HD garantie » pour les opérateurs offrant une lecture fluide de vidéos haute définition en streaming (720p minimum), « définition standard » pour les opérateurs offrant un visionnage sans difficulté en résolution standard (360p) et « basse définition » pour les opérateurs ne permettant une lecture des vidéos de moyenne définition qu’à renfort de coupures.
Google indique gentiment à l’utilisateur le débit de son FAI, mais aussi ceux de ses concurrents qui permettent une meilleure lecture de ses vidéos dans son quartier.

Quelles sont les explications de Google ?

Sur le site dédié, Google explique que les FAI jouent un rôle important « en amenant la vidéo à travers leur réseau jusqu’à votre maison ». « Ils doivent s’assurer d’avoir une capacité suffisante pour transporter les données de YouTube. Dans le cas contraire, la qualité de vos vidéos en souffrira », précise-t-il. Mais le géant de l’Internet reconnaît que la qualité de la vidéo peut aussi diminuer si votre connexion Wi-Fi est mal configurée, si trop d’appareils sont connectés simultanément à Internet, ou encore lors des pics d’utilisation d’Internet.

Ainsi, YouTube délivre un message simpliste signifiant grossièrement « Si le chargement est long, c’est sûrement à cause du faible débit réservé à YouTube par votre fournisseur d’accès; si vous souhaitez améliorer ce débit, vous pouvez changer de fournisseur, d’ailleurs on vous en propose quelques-uns ! « . En conseillant implicitement de se tourner vers les opérateurs qui privilégient YouTube dans l’allocation de leurs bandes passantes, Google met directement la pression aux opérateurs pour que ceux qui ne le font pas encore priviligient, à leur tour, YouTube afin de garder leurs clients.
Avant même l’arrivée de ce dispositif en France, Orange critique déjà une fonctionnalité partisane, incomplète, vague et sans garantie d’indépendance. En effet, cet indicateur ne concerne que YouTube et pourrait laisser penser aux utilisateurs que cela vaut pour l’ensemble des sites Internet. Mais, un FAI avec un bon débit sur YouTube délivre-t-il aussi un meilleur débit sur l’ensemble des autres sites? Est-il plus ou moins fiable? Un tel jugement doit être réservé à un observateur indépendant et non à un acteur privé.

Que recherche YouTube avec ce dispositif ?

Cette fonctionnalité sert à peser dans un débat qui fait rage depuis quelque temps et oppose les éditeurs de contenus et les FAI. En somme, la question est assez simple : les gros éditeurs de contenus, nécessitant une bande passante importante doivent-ils payer plus que les autres sites web ? C’est notamment le cas des sites de Streaming, comme YouTube et Netflix. Les FAI estiment que ces éditeurs doivent participer financièrement pour les aider à accroitre leurs capacités. Mais le géant Google ne l’entend pas de cette oreille : pour lui, c’est aux fournisseurs d’accès de prendre en charge les travaux nécessaires, les utilisateurs les payant pour avoir accès convenablement aux sites web.
En filigrane, c’est le principe de neutralité du Net qui est remis en cause. Ce principe garantit l’égalité de traitement de tous les flux de données sur Internet. Ce principe exclut ainsi toute discrimination ou avantage accordé à un site web et à son flux de données.
Ce débat pose plusieurs questions. Les autres fournisseurs de contenus vont-ils accepter d’être délaissés au profit de YouTube et autres gros éditeurs de contenus ? Si YouTube y parvient, il est certain que d’autres sites emboiteront le pas pour être avantagés à leur tour. Il faudra alors s’attendre à ce que les plus petits sites soient défavorisés, faute de moyens pour payer.
Aux Etats-Unis, les opérateurs Verizon et Comcast sont parvenus à faire payer Netflix et YouTube pour bénéficier d’une meilleure bande passante sur leur réseau.La neutralité du Net semble donc bien être compromise…

En France, Free dans le collimateur de YouTube?

Si Google gagne cette bataille, ce sont bien les utilisateurs qui devront payer les travaux. Xavier Niel, patron de Free, précisait en avril 2013 à 01Net Magazine qu’il ne comptait pas se laisser faire. « Si on ne fait pas ça aujourd’hui, les abonnements vont grimper de 5 à 15 euros par mois, juste pour payer le surplus de la bande passante de Google. Mieux vaut une petite crise des débits maintenant que des prix élevés demain. Chaque jour, j’espère qu’on aura la solution. En attendant, on ne bride l’accès à personne, mais on arrête l’escalade : on a un tuyau d’une certaine taille pour le trafic de Google et on n’en rajoute pas » , expliquait-il. Une crise qui dure donc… et qui devrait s’amplifier lorsque YouTube lancera son offensive en France.

Free avait même été accusé de brider l’accès à YouTube. En janvier 2013, l’Arcep ouvrait une enquête sur cette affaire. En juillet, il concluait qu’il n’avait remarqué « aucune pratique discriminatoire ». Alors, comment cette fonctionnalité sera-t-elle adaptée en France et Free sera-t-il classé parmi les « YouTube basse définition » ? Réponse certainement bientôt, le site indiquant que « Les résultats pour votre localisation ne sont pas encore disponibles. SVP, revenez bientôt ».

Par Matthieu Combe, journaliste scientifique

Un oxyde de métaux à la surface similaire à celle du graphène

C’est à un véritable jeu de géométrie que se sont adonnées les équipes Centre de sciences nucléaires et de sciences de la matière (Université Paris sud/CNRS). Ces chercheurs ont réussi à créer un état métallique 2D sur une surface (111) de KTaO3. Ils n’en sont pas à leur coup d’essai, puisqu’en 2011 ils avaient déjà créé de tels états 2D à la surface de différents oxydes isolants comme le SrTiO3 et le KTaO3. Or, réussir à confiner les électrons sur les deux premières couches le long de la direction (111) revient à fabriquer un réseau en nid d’abeille, identique à celui du graphène.  Voilà pour la théorie.

En pratique, s’appuyant sur leur savoir-faire, les scientifiques du CSNSM, aidés de leurs confrères de l’IEF, du LPS et de l’UMR-Thalès, sont donc parvenus à franchir la première étape, celle de la fabrication d’un état métallique en 2 dimensions (gaz d’électrons)  sur une surface (111). Grâce au rayonnement synchrotron, cette surface a été illuminée pour une mesure directe des électrons éjectés. Cette expérience a prouvé que la distribution des états électroniques du réseau cristallin de surface avait effectivement une symétrie hexagonale. Il ne leur reste plus qu’à confiner les électrons sur seulement deux couches atomiques.

En attendant, cette réalisation intéresse les acteurs de l’électronique à base de métaux de transition dont les multiples propriétés physiques (supraconductivité, magnétisme, thermoélectricité…) permettront d’intégrer plusieurs fonctionnalités au sein du même dispositif électronique, et donc de réaliser des transistors multifonctions.

Par Audrey Loubens, journaliste scientifique

Quels freins au développement du véhicule autonome ?

Les véhicules totalement autonomes ne sont pas pour tout de suite. « Avant qu’une voiture soit capable de comprendre quelle va être l’attitude des autres véhicules qui atteignent un carrefour, on a encore du travail », reconnaît Rémi Bastien, Directeur de l’innovation de Renault.

Mais, progressivement, certaines phases de conduite ou des fonctions de conduite vont gagner en autonomie. « Par exemple, on va avoir des convois de véhicules qui vont pouvoir se déplacer de façon autonome et libérer ainsi les chauffeurs, on va avoir des phases de freinages d’urgences qui vont pouvoir être automatisées », prévoit Jean-Hubert Wilbrod, Président de Neavia, entreprise spécialisée dans la surveillance et la gestion du trafic. La voiture autonome, ce sera aussi prochainement la voiture qui peut se garer toute seule. D’ores et déjà, certains véhicules présentent quelques fonctions autonomes : ils allument les feux ou les essuie-glaces automatiquement, ils régulent la vitesse, fournissent une assistance au changement de file…

Bientôt des véhicules de série partiellement autonomes ?

Lors du CES de Las Vegas, Audi a présenté un module de pilotage automatique dans les embouteillages. Si le conducteur peut lâcher ses mains du volant lorsque la voiture évolue en mode automatique, dans l’état actuel de la réglementation française, le conducteur doit rester vigilant et concentré sur la route. Cette A7 automatisée entend libérer le conducteur de la corvée des bouchons, car elle est capable de rouler sans intervention humaine sur des voies rapides embouteillées, jusqu’à 65 km/h.

En France, PSA veut aussi donner plus d’autonomie aux véhicules pour plus de sécurité et plus de confort, notamment dans les bouchons. Les travaux du constructeur portent sur des arrêts automatiques et le redémarrage tout en restant dans sa file. Ces systèmes seront couplés avec des systèmes de reconnaissance de vigilance, par exemple par caméras de reconnaissance faciale pour vérifier l’état d’attention du conducteur. Renault est également sur le coup : « Ces premières étapes ne sont pas du tout utopiques, on est certain chez Renault que cela interviendra avant 2020 », prévient Rémi Bastien.

Point noir : la sécurité avant tout !

Quelle doit être la fiabilité de ces systèmes ? « On a en France 700 milliards de km parcourus chaque année en France approximativement ; en face, on a environ 56 000 accidents corporels. Cela veut dire que l’on a 1 accident corporel tous les 12,5 millions de km. Pour arriver à ces niveaux de fiabilité, il va falloir non seulement mettre des capteurs, fusionner les données, mais aussi avoir […] de la communication véhicule à véhicule », précise le Président de Neavia. Comme dans plus de 80 % des cas d’accidents, la cause est humaine, « utiliser davantage de capteurs bioréactifs est un moyen d’améliorer la sécurité », assure de son côté Rémi Bastien. « Les technologies disponibles vont permettre très rapidement de démontrer la capacité à élever énormément le niveau de sécurité », précise-t-il.

La prise de contrôle par la voiture lorsque les conditions de sécurité sont rapidement maîtrisées devraient donc voir le jour en premier : c’est notamment la conduite en embouteillage sur des grands axes et les voitures qui se garent toutes seules dans les parkings. Les constructeurs reconnaissent qu’il faut tout de même continuer à travailler sur les capteurs et l’intelligence artificielle pour plus de sécurité.

Pour démontrer la fiabilité de ces systèmes, il faut autoriser des essais à grande échelle, mais là encore, le bât blesse. Un autre frein capital au développement du véhicule autonome est en effet l’absence de responsabilité définie prévue par la réglementation en cas d’accident. Pour prévoir une expérimentation à grande échelle, il faudra donc adapter le cadre réglementaire et ne pas dégrader les conditions de sécurité. « On a besoin de pouvoir démarrer des expérimentations en grandeur réelle autorisées  et réfléchir à comment faire évoluer la réglementation, sans doute par étapes, où on pourra démontrer par étapes que l’on augmente la sécurité », assure Rémi Bastien.

Comment adapter l’infrastructure ?

Si l’on veut développer des véhicules autonomes et connectés, il ne faut pas oublier la nécessité d’adapter les infrastructures existantes. « Le véhicule connecté va avoir à trouver son usage par rapport à d’autres usages de l’infrastructures », explique Jean-Louis Marchand, Directeur général adjoint d’Eurovia, concepteur de route français. Comment adapter l’infrastructure au véhicule autonome ? « On est au niveau zéro de la réflexion », affirme-t-il.

Il y a en plus un problème de gouvernance des réseaux routiers en France. Ces réseaux comprennent 20 000 km de routes nationales, gérées par le ministère de l’Écologie, 380 000 km de routes départementales gérées par les départements et 650 000 km de routes communales gérées par les communes. Il n’y a pas de structure de coordination réelle entre ces différentes gestions. « Il va bien falloir que l’on soit capable de dire dans les années qui viennent sur quel réseau on est capable d’accepter tel ou tel type de véhicule susceptible de recevoir tel ou tel niveau de service intelligent et on n’échappera pas à cette réflexion » conclue Jean-Louis Marchand.

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Une nouvelle île soudainement apparue au sud de Tokyo continue de grossir [AFP]

Cette île, qui se présentait dans les premiers jours sous une forme à peu près ovale de 400 mètres de long sur 200 de large, a fini par rejoindre l’île inhabitée de Nishinoshima appartenant au petit archipel Ogasawara.

L’ensemble mesure désormais 1.550 mètres d’est en ouest et 1.350 mètres du nord au sud et selon un responsable des garde-côtes cité par la chaîne de télévision publique NHK. Elle a des chances de s’étendre.

Trois cratères sont visibles sur les images tournées mercredi, dont deux crachent régulièrement de la lave, témoin d’une activité volcanique encore intense et qui a même tendance à s’accentuer.

Le nuage de poussière s’élève en outre jusqu’à 2.000 mètres d’altitude, trois fois plus haut que le mois dernier, et retombe à une distance de plusieurs centaines de mètres du cratère d’origine.

Depuis la fin de la guerre du Pacifique, quatre à cinq îles seraient soudainement apparues dans les eaux du Japon, un pays de séismes et de volcans, dont une en 1986, qui a disparu en l’espace de deux mois, et une en septembre 1973 également dans les parages de Nishinoshima. C’est toutefois la première fois depuis 40 ans qu’un nouvel îlot émerge dans cette zone.

La carte du Japon est déjà riche de quelque 6.852 îles, dont beaucoup de « cailloux » et quatre principales qui donnent sa forme filiforme au pays (Kyushu au sud-ouest, Shikoku au sud, Honshu au centre et Hokkaido au nord).

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Forfait à 0 € : FreedomPop va-t-il faire trembler nos opérateurs téléphoniques ?

FreedomPop est ce que l’on appelle un opérateur de réseau mobile virtuel (MVNO), un opérateur qui ne possède pas de réseau propre, mais contracte des accords avec un ou des opérateurs mobiles possédant leur réseau mobile. En achetant de la bande passante en gros, il peut ensuite la revendre au détail en utilisant sa marque propre.

Quelle est son offre ?

Lancée en 2012 à Los Angeles, la société FreedomPop a commencé son activité en tant que fournisseur d’accès à Internet. En 2013, elle a lancé son premier forfait à zéro dollar. Et cela marche : en mai 2014, elle possédait déjà plus de 250 000 clients dans le pays. Aux Etats-Unis, FreedomPop achète des données 3G et 4G à l’opérateur Sprint pour proposer un forfait de base gratuit. Ce dernier inclut 3h20 d’appel, 500 SMS/MMS et 500 Mo d’internet mobile.
FreedomPop utilise le réseau 4G pour traiter la téléphonie comme un flux Internet. Les appels téléphoniques passent par cet accès internet mobile, un peu comme Skype utilise la connexion résidentielle, ce qui lui coûte 5 fois moins cher. Pour ce faire, il passe par une application à télécharger sur smartphones.
Mais rien n’est gratuit ! Pour être rentable, ce MVNO s’appuie sur le portefeuille client de son forfait gratuit. Ces clients sont susceptibles d’acheter ses options supplémentaires: hors-forfait, forfaits payants, connexion plus rapide, vente de smartphones… Environ la moitié de ses utilisateurs ne paie pas d’abonnement, tandis que l’autre moitié souscrit à des services payants. C’est le modèle « freemium » que l’on retrouve sur presque toutes les applications sur smartphones. Si le service de base y est gratuit, il faut ensuite payer pour avoir des options supplémentaires.

La Belgique, point d’ancrage en Europe

FreedomPop décide de s’attaquer au marché européen, en commançant par la Belgique. Il vient d’y signer un accord commercial avec Base (filiale du Hollandais KPN), le troisième plus grand opérateur mobile du pays, qui va lui louer son réseau 3G/4G. L’offre est encore en cours d’élaboration et sa date de commercialisation n’est pas encore communiquée. Néanmois, la société confirme que le tarif gratuit de base comprendra le même contenu qu’outre-Atlantique. « La Belgique est un marché test, explique Stephen Stokols, fondateur et patron de FreedomPop. C’est un petit marché, en bonne santé et où tout le monde a une carte de crédit. C’est un bon moyen avant d’arriver en Europe ».
Pour se lancer en Europe, FreedomPop adaptera quelque peu sa stratégie. Il ne vendra pas tout de suite des smartphones, il se contentera dans un premier temps de vendre des cartes SIM nues. La France, l’Allemagne, l’Espagne et le Royaume-Uni sont aussi d’ores et déjà dans son viseur.

Une offre pour la France ?

Selon les informations de BFM Business, FreedomPop serait déjà en train de discuter un accord de MVNO avec l’un des opérateurs français. Il annoncerait même une offre « 50% plus intéressante que celle de Free ». FreedomPop pourrat-il réussir là où Virgin Mobile, NRJ Mobile, Crédit Mutuel Mobile et les 41 autres MVNO n’ont pas réellement bousculé les positions des grands opérateurs ?

En France, l’opérateur Free Mobile a fait une entrée réussie sur le marché en 2012 en « cassant » les prix grâce à son forfait à 2 euros (et à 0 euro pour les abonnés fixes Freebox). Ce forfait de base de Free Mobile propose 2 heures d’appels, SMS/MMS illimités, 50 Mo d’internet 3G/4G, soit 1h20 d’appels et 450 Mo de données en moins que le forfait de FreedomPop. Alors que l’on pensait que « Free a tout compris », l’opérateur pourrait bien être obligé de réadapter à nouveau son forfait si FreedomPop parvenait à arriver sur le territoire.

Rappelons néanmoins que l’Arcep, l’autorité de régulation des communications électroniques et des postes a récemment publié son étude sur la qualité des réseaux de téléphonie mobile. Si Orange arrivait en première position avec 213 indicateurs sur 258 au-dessus de la moyenne, Free Mobile fournissait le moins bon service avec seulement 2 indicateurs au-dessus de la moyenne. Alors, la guerre des prix peut-elle s’accompagner d’un service de qualité ? Le marché ne cesse de critiquer la tendance des prix cassés, souvent au dépend de la qualité du réseau, de l’investissement et de l’emploi. La qualité se paye et rien n’est gratuit, il ne faut pas l’oublier !

Par Matthieu Combe, journaliste scientifique

Trouver des extraterrestres en examinant la pollution des autres planètes (étude) [AFP]

Sous certaines conditions, les astronomes pourraient ainsi arriver à détecter dans la décennie à venir la présence de sociétés extraterrestres industrialisées, estime une étude du Centre d’astrophysique Harvard-Smithsonian.

Les scientifiques peuvent déjà étudier les atmosphères de planètes en dehors du système solaire pour y détecter la présence d’oxygène ou de méthane, qui peuvent être produits par des formes de vie intelligentes ou des microbes.

Mais une civilisation extraterrestre peut aussi rejeter d’autres gaz, par exemple des chlorofluorocarbones (CFC), comme nous le faisons sur la Terre, ajoute l’étude.

Ainsi, des astronomes pourraient être en mesure de détecter la présence de tels gaz sur des planètes éloignées grâce au prochain télescope spatial James Webb, que la Nasa prévoit de lancer en 2018, un projet d’un coût total de 8,7 milliards de dollars.

Ce télescope sera de 10 à 100 fois plus puissant que son prédécesseur Hubble, selon l’agence spatiale américaine.

Cependant, il y a des limites à ce que ce puissant appareil pourra voir. Ainsi, il faudra par exemple des niveaux de CFC dix fois plus importants que ceux que nous avons sur Terre pour que le télescope puisse les détecter.

Autre condition, il faudra que les planètes observées soient en orbite autour d’un type particulier d’étoile (naines blanches).

Les auteurs de l’étude notent que cette méthode de recherche pourrait permettre de trouver des formes de vie intelligentes, mais pourrait aussi faire découvrir les traces de civilisations extraterrestres qui se sont auto-détruites.

Certains polluants peuvent rester dans l’atmosphère terrestre durant 50.000 ans, quand d’autres disparaissent au bout de 10 ans. L’absence de ces derniers suggérerait une source de vie disparue.

« On peut spéculer sur le fait que les extraterrestres ont été sages et ont réussi à vivre proprement. Mais dans un scénario plus noir, nous pourrions découvrir des choses qui seraient un rappel à l’ordre des dangers que représente le fait de ne pas être des occupants raisonnables de notre propre planète », conclut Avi Loeb, l’un des coauteurs de cette recherche.

« Tous droits de reproduction et de représentation réservés. © 2014 Agence France-Presse. »

Une batterie capable de se dissoudre dans le corps humain

Les implants électroniques biodégradables ont, depuis quelques années, le vent en poupe. Pourtant, le rapide essor de ces implants se heurte à la nécessité de les alimenter, avec du matériel de petite taille, biocompatible et tout aussi biodégradable, mais également non polluant. Un groupe de chercheurs de l’université de l’Illinois aurait trouvé une solution : une batterie miniature qui, après épuisement, se décomposerait lentement dans l’organisme, associant du magnésium et – au choix – du fer, du tungstène ou du molybdène (un métal de transition souvent employé dans certains alliages, les électrodes ainsi que les catalyseurs).

Cette batterie bio ne serait encore capable de fournir qu’un faible voltage (de 0,45 à 0,75 Volt environ, selon le métal choisi), mais les chercheurs auraient tout de même réussi à créer une batterie suffisamment puissante pour alimenter une diode électroluminescente (DEL) conventionnelle, en combinant plusieurs cellules en série.

Le temps nécessaire à la dégradation varie en fonction de la température : placée dans une solution d’eau salée à température corporelle, une batterie comprenant quatre cellules se désagrège en onze jours. Si la température est portée à 85 degrés Celsius, il faut compter huit jours supplémentaires pour dissoudre presque entièrement les accumulateurs, laissant quelques neuf milligrammes de déchets inoffensifs derrière elle, exclusivement du magnésium. Les performances devraient être revues à la hausse tandis que les mensurations – 3,5 grammes au total, chaque cellule mesurant 3 centimètres par 1,3 – devraient vite diminuer, si l’on en croit l’équipe américaine.

Par Moonzur Rahman

Applications santé : que penser de Google Fit et HealthBook ?

Le culte de la santé n’a jamais été aussi poussé qu’aujourd’hui. Cela n’a pas échappé aux grands pontes de la technologie mobile qui se sont empressés de se nicher dans ce type de services. Résultat, on assiste à un développement d’applications en pagaille, avec dans ce sillon celui des objets connectés. Le marché est fleurissant, comme l’est celui des smartphones. Aujourd’hui, c’est au tour de deux des acteurs les plus emblématiques, Google et Apple, de surfer sur cet engouement en livrant leur application phare : le Google Fit et le l’HealthBook.

Google Fit

Jusqu’à maintenant, si vous utilisiez une ou plusieurs applications mobiles dans les domaines de la santé et du sport, vous ne pouviez observer les résultats transmis par les capteurs des objets connectés que sur l’application en question.

Google va changer la donne avec la plateforme Google Fit, une base de données permettant de centraliser les informations de ces applications en un seul point. C’est bête comme chou, mais en interconnectant ces applications, Google apporte à l’utilisateur une vision d’ensemble de ses performances et lui simplifie ainsi la vie.

Des marques renommées comme Adidas, Nike, Withings ou encore Asus devraient normalement faire partie des premiers partenaires.

HealthBook

Annoncée au même moment que le nouvel IOS 8, lors de la dernière conférence d’Apple le 2 juin, l’application HealthBook promet de chambarder notre quotidien. Ce « carnet de santé » numérique révélera à son utilisateur, en temps réel, toutes les données ayant trait à sa santé telles que son poids, ses heures de sommeil, sa tension, ses taux de glucose dans le sang et d’oxygène…

Encore une fois, les capteurs ont un rôle prépondérant dans cette collecte d’informations très personnelles. Dans un premier temps, l’application dialoguera avec des objets connectés d’autres fabricants, mais par la suite, il y a des chances pour qu’Apple s’appuie exclusivement sur les objets qu’elle compte développer.

Vous vous demandez sans doute ce que devient votre vie privée dans tout ça ? C’est bien normal, tant il est vrai qu’au travers de cette collecte d’informations « pour notre bien », les géants de l’hi-tech peuvent tout savoir de nous. La confidentialité sera-t-elle assurée ? Il semblerait que oui, toutefois, on peut légitimement penser que nos données seront commercialisées. Gageons que les marques tireront bien parti de nos données personnelles (mensurations, conditions physiques,…) pour nous proposer des solutions à nos maux.

Faire un bilan de santé tous les jours, grâce à son mobile, est une véritable innovation à n’en pas douter. Ces applications mobiles vont changer notre quotidien, bien qu’il faille sûrement un peu de temps avant que leur utilisation ne rentre tout à fait dans les moeurs. Google et Apple promettent d’offrir une toute nouvelle expérience, même si certains ont déjà pu s’échauffer via l’application Health Mate de la startup Withings et bien d’autres que l’on aurait pu citer. Quoi qu’il en soit, les Français seraient intéressés; selon une étude Almerys : 53% déclareraient être en faveur d’un carnet de santé en ligne. Il y a donc un public… Et une méfiance concernant la sécurité du stockage de ces informations.

Par Sébastien Tribot

La robotique, nouveau bras droit des chirurgiens

De plus, compte tenu de la grande précision de positionnement des robots, de leur capacité à adopter des postures inaccessibles à l’homme et enfin de leur miniaturisation éventuelle, ceux-ci apparaissent comme étant les outils idéaux pour faire le lien entre l’image médicale et le patient sous le contrôle du chirurgien.

La figure 1 schématise comment la robotique médicale s’articule avec la réalité augmentée et la planification préopératoire. Il apparaît clairement que la robotique est une interface d’action du chirurgien sur le patient au même titre que la réalité augmentée est une interface de perception.

Mais c’est l’existence d’un contact entre la machine et l’homme qui donne une dimension particulière à cette technologie. Au-delà de l’existence d’une barrière psychologique pour le chirurgien et le patient, il s’agit de vaincre une autre barrière, technologique cette fois, qui vise à garantir la sécurité d’un système robotique, tant au niveau logiciel que matériel. Cette garantie s’obtient grâce à une conception adaptée de la mécanique du robot, évitant les mouvements aléatoires en cas de commande erronée ou d’alimentation électrique défaillante. Également, le logiciel du robot est validé à l’aide de techniques éprouvées de génie logiciel mais aussi par une validation systématique et à grande échelle des fonctionnalités du robot. Le contact ou la proximité d’un robot avec un patient impose une deuxième contrainte : la stérilisation partielle ou totale du robot. Ceci impose des choix spécifiques concernant la conception mécanique (possibilité d’extraire certains composants pour une stérilisation dans un autoclave) et la nature des matériaux utilisés.

En pratique, le terme de « robotique chirurgicale » est souvent utilisé pour désigner à la fois des robots qui assistent le geste du chirurgien et des robots qui effectuent un geste chirurgical. Dans la première catégorie, on exploite la précision, la force, la répétabilité du robot, alors que dans la seconde, on exploite plus souvent sa miniaturisation, sa précision et sa dextérité.

Parmi les robots qui assistent le geste du chirurgien, on peut citer les robots utilisés en neurochirurgie et qui sont destinés à porter les instruments chirurgicaux, un microscope (pour l’observation du champ opératoire) et un système de visée laser permettant de superposer les informations préopératoires (réalité augmentée). Également, la robotique peut permettre une certaine automatisation de la salle d’opération avec un objectif de gain de productivité et de temps d’exécution. Ainsi, il existe des manipulateurs robotisés, à l’extrémité desquels est placé un endoscope, qui permettent à un chirurgien de contrôler par la voix la position de cet endoscope dans une procédure de vidéochirurgie. Parmi les modèles de robots les plus récents, certains reposent sur le concept d’assistance semi-active au geste du chirurgien. Leur principe est simple : le robot est passif tant que l’outil chirurgical est à l’intérieur d’une zone déterminée lors de la planification préopératoire (pour éviter d’endommager des structures vitales) et, dans le cas contraire, le robot est actif en empêchant le mouvement de l’outil de pénétrer dans cette zone grâce à l’activation de moteurs (retour d’effort).

Figure 1 :

Depuis le début des années 1990, sont apparus des robots chirurgicaux conçus comme de véritables interfaces entre le chirurgien et le patient. Ceux-ci agissent directement au contact du patient et sont entièrement contrôlés par un chirurgien.

Jusqu’à présent des robots ont été destinés à deux types de chirurgie : la chirurgie orthopédique et la vidéochirurgie :

  • les robots orthopédiques sont principalement utilisés pour leur faculté à se positionner et à effectuer des opérations de fraisage avec une très grande précision. De plus, pour ce type de chirurgie, et notamment pour la pose d’implants orthopédiques, la phase de planification s’avère être très délicate et repose souvent sur l’utilisation de logiciels sophistiqués. Dans ce contexte, l’utilisation de systèmes robotisés est une extension particulièrement bien adaptée à la pratique de cette chirurgie ;
  • dans le domaine de la vidéochirurgie, le robot est utilisé comme un télémanipulateur : d’un côté de la salle d’opération, le chirurgien décrit le geste chirurgical à l’aide de manettes reliées à un calculateur et, de l’autre, le robot muni d’instruments chirurgicaux reproduit ces gestes à l’intérieur du corps du patient. Ce système de télémanipulation facilite énormément la gestuelle du chirurgien puisque le robot prend en charge la complexité de retranscrire ces gestes en tenant compte du fait que les instruments sont insérés dans la paroi abdominale (pour la laparoscopie ou cœlioscopie) et sont donc contraints à passer par un point fixe. De plus, le robot peut éventuellement réduire l’ampleur ou encore filtrer les gestes du chirurgien pour optimiser son efficience. Ces robots permettent ainsi d’effectuer des gestes qui étaient impossibles à réaliser auparavant et augmentent le champ d’application de la vidéochirurgie, par exemple pour la réalisation de pontages coronariens.

Si la robotique chirurgicale correspond naturellement à la prochaine génération d’instruments chirurgicaux, il existe plusieurs obstacles à son développement.

Tout d’abord, le coût des systèmes robotisés est très élevé et il est nécessaire de justifier quantitativement leur impact positif sur la santé des patients pour convaincre les organismes gestionnaires de la santé de les adopter.

Enfin, ils requièrent une mobilisation importante des chirurgiens et de leurs assistants pour se former à cette nouvelle conception de la chirurgie.

Par ailleurs, la généralisation de la téléchirurgie dont une expérience a été tentée avec succès entre Strasbourg (France) et New York (USA) est assez peu envisageable à grande échelle sauf pour des contextes militaires (chirurgie sur porte-avion ou sur champ de bataille) ou pour la formation des chirurgiens des pays en voie de développement.

Par Hervé Delingette

Des puces à ADN pour améliorer les diagnostics

L’analyse de l’expression des gènes ou transcriptomique est l’application la plus courante des puces à ADN. Mais il ne faut pas négliger leur utilisation de plus en plus importante pour des applications en génomique telles que l’analyse du nombre de copies de gènes (CNV : Copy Number Variation) encore appelée « hybridation génomique comparative » (CGH : Comparative Genomic Hybridization) ou l’analyse des SNP (Single Nucleotide Polymorphism). Elles sont aussi employées dans les analyses épigénétiques qui permettent de mieux comprendre les régulations de l’expression des gènes (ChIP-chip, MeDIP-chip…), de même que pour réaliser de la capture de séquence en vue d’un séquençage ciblé de gènes d’intérêt.

Depuis quelques années, on assiste à un déploiement important des biopuces dans le cadre du diagnostic. L’intérêt de la technologie biopuce pour le diagnostic est incontestablement sa facilité d’utilisation, sa rapidité, son coût et surtout le fait qu’elle permette le multiplexage.

Ainsi dans de nombreux domaines tels que la sécurité alimentaire ou la santé, les biopuces ont investi le marché.

Greiner Bio One, considéré comme l’un des leaders sur ce marché du diagnostic, développe et produit des biopuces de haute qualité pour le diagnostic humain, la protection du consommateur et le contrôle qualité dans l‘industrie pharmaceutique :

  • la biopuce ParoCheck®, qui permet un dépistage rapide et précis de 20 bactéries différentes, associées à des maladies parodontales. Les espèces bactériennes se distinguent par les gènes 16S à partir desquels sont dessinées les sondes déposées sur la biopuce. L’ADN bactérien est extrait à partir du prélèvement buccal et les gènes 16S sont amplifiés par PCR en utilisant une amorce étiquetée avec un fluorochrome (Cy5). Sans autre traitement, les échantillons sont hybridés sur la biopuce ParoCheck. L’identification des espèces se fait grâce à l’apparition de spots rouges sur la biopuce ;
  • la biopuce CarnoCheck® permet d’identifier huit espèces animales (âne, poulet, cheval, dinde, bœuf, mouton, porc, chèvre) au sein d’aliments ou autres produits. Ainsi, les laboratoires Histalim basés à Montpellier réalisent pour différents distributeurs de denrées alimentaires, des analyses de traces d’ADN d’espèces animales au moyen de la biopuce CarnoCheck. En 2011, à cinq mois d’intervalle, deux affaires de contamination de viande halal par du porc ont été ainsi révélées au grand public grâce à ces tests (voir article de presse [Doc. BIO 7 150], Les dessous du halal : Herta, porc détecté, production arrêtée et Halal au porc : une nouvelle alerte relance la polémique) ;
  • la biopuce CytoInspect™ est conçue pour la détection et l’identification d’espèces de mycoplasmes dans les cultures cellulaires et autres matériaux biologiques. Cette biopuce a été validée conformément aux lignes directrices de la pharmacopée européenne (Ph.Eur. 2.6.7, 2.6.21). Le kit complet prêt à l’emploi permet une détermination rapide et pratique de 40 espèces de mycoplasmes représentant 99 % des contaminations par les mycoplasmes rapportées à ce jour, ce qui peut aider à indiquer la source de contamination et éviter par la suite une propagation des mycoplasmes ;
  • la biopuce PapilloCheck® permet l’identification de 24 types de HPV (Human Papilloma Virus). Parmi ceux-ci, 18 HPV sont classés haut risque, six étant classés bas risque. Cette puce est certifiée In-Vitro-Diagnostica (IVD), et validée en Union européenne pour la détection qualitative d’HPV à partir d’échantillons cliniques.

D’autres sociétés, moins connues que Greiner Bio One, ont fait des biopuces diagnostic leur fonds de commerce. C’est le cas de la société DR. Chip Biotech Inc., basée à Taiwan, avec à son catalogue six biopuces pour le diagnostic dont voici quelques exemples :

  • la biopuce DR.EV IVD, pour la détection des entérovirus dans les 4-6 heures alors que la méthode de culture classique virale nécessite 7 jours ou plus pour détecter une infection à entérovirus ;
  • la biopuce DR. Milk, pour l’identification de Streptococcus spp. Streptococcus agalactiae, Streptococcus bovis, Streptococcus dysgalactiae, Streptococcus uberis, Escherichia coli et Staphylococcus aureus dans le lait et ainsi permet d’identifier au plus vite les cas de mammite chez la vache, avant même que les symptômes ne se développent ;
  • la biopuce DR. RV IVD conçue pour identifier simultanément le syndrome respiratoire aigu sévère (SARS coronavirus), la grippe A, la grippe B, les Parainfluenza I, II et III, le virus syncytial respiratoire (HRSV).

Autre acteur de ce marché des puces pour le diagnostic, la société bioMérieux, qui commercialise la biopuce FoodExpert ID, capable de détecter 33 espèces de vertébrés différentes et d’identifier simultanément la présence de produits animaux dans des échantillons alimentaires à deux niveaux de taxonomie : au niveau de la classe (mammifère, oiseau ou poisson) et au niveau de l’espèce (bœuf, poulet, saumon…). FoodExpert-ID® fonctionne aussi bien sur l’alimentation crue que sur les produits transformés à haute température et pression, comme certains aliments pour les animaux.

Lire l’article dans son intégralité

Par Véronique Anton Leberre

Nanobiosenseurs, les nez électroniques de dernière génération

Les applications potentielles des biosenseurs sont très larges, dès lors que la détection et la caractérisation rapides d’une odeur sont en jeu, dans des domaines aussi variés que :

  • le suivi/contrôle en ligne de processus industriels, ou d’étapes de processus naturels (maturation des fruits, développement des arômes) ;
  • la sécurité alimentaire par la détection de composans toxiques, le contrôle de la qualité, de la provenance, de la composition, des contaminants de produits alimentaires ou cosmétiques ;
  • la sécurité : identification des personnes, robots pour la recherche de personnes ensevelies, détection de produits dangereux (explosifs) ou illicites (drogues) par leur signature odorante ;
  • le diagnostic médical non invasif par détection d’odeurs associées à des pathologies (mélanomes, divers cancers, infections par Candida, schizophrénie, phénylcétonurie, asthme…) dans des fluides biologiques (sang, urine) ou dans l’haleine. Ces biosenseurs pourraient également se substituer à l’analyse sensorielle classique faisant appel à des panels d’individus entraînés, en particulier lorsqu’il s’agit de composés potentiellement toxiques ou désagréables.
  • Utilisation de chiens ou de rats entraînés, pour détecter la présence d’explosifs ou de drogues (K-9 detect target odors  ).
  • Apprentissage de la reconnaissance d’odeur par les abeilles : réponse par comportement conditionné, détection possible d’une large gamme de produits odorants, utilisation dans le domaine de la sécurité (détection d’explosifs).
  • Diagnostic par des chiens détectant des odeurs associées à des cancers : directement sur des patients (mélanomes), ou par la détection d’une odeur associée, dans les urines, le sang, l’haleine (cancer de la vessie et de la prostate, cancer de la vessie…).
  • Dépistage par des African Gambian Pouch rats en Afrique sub-saharienne, par une odeur associée à la mycobactérie de la tuberculose dans les crachats.

Le développement des biosenseurs olfactifs est encore récent. Il est certain que les progrès dans le domaine de l’imagerie à l’échelle moléculaire (microscopie à champ proche) ainsi que le développement des micro- et nanotechniques de fabrication de capteurs et de la nanoélectronique pour mesurer de très faibles signaux électriques à partir de ces objets, vont augmenter les performances de ces systèmes.

Toutefois, la compréhension de la régulation de l’expression des récepteurs olfactifs, ainsi que la désorphanisation et la caractérisation d’un plus grand nombre de ces récepteurs restent des étapes clefs pour permettre le plein essor de ces biocapteurs olfactifs.

Les exemples sont nombreux dans tous les secteurs :

  • Environnement : qualité de l’air, contaminants dans l’eau, analyse de fumées, pollution odorante produite par l’industrie ou l’agriculture, détection automatique de fuites.
  • Qualité : contrôles d’origine, qualité, dégradation, pureté, pour matières premières, denrées périssables ou produits cosmétiques.
  • Suivi en ligne de processus environnementaux (mûrissement, fermentations…) ou industriels.
  • Sécurité : détection d’explosifs, de substances illicites, d’agents toxiques, recherche de personnes enfouies.
  • Médical (diagnostic) : diabète/haleine, schizophrénie/odeur corporelle, cancer (prostate, vessie, poumon, sein, melanome, lymphome, leucémie…). Problème de variabilité interindividuelle et bruit de fond.

La désorphanisation

Désorphanisation des récepteurs olfactifs : l’immense majorité des récepteurs olfactifs n’a pas encore de ligand odorant connu. Il est très difficile de mener cette étude dans l’épithélium olfactif, car chacun des quelque 10 millions de neurones sensoriels présents exprime un type de récepteur olfactif parmi les quelques centaines de récepteurs olfactifs présents dans le génome. Il faut donc se tourner vers des systèmes d’expression fonctionnelle hétérologue, avec les difficultés déjà mentionnées, pour pouvoir procéder au criblage de centaines d’odorants de fonctions chimiques, longueurs de chaîne carbonée, branchements différents, sur toute une gamme de concentrations. Actuellement, on peut estimer à quelques dizaines le nombre de récepteurs olfactifs dont les ligands préférentiels sont identifiés, toutes espèces confondues.

 

 

 

 

 

 

 

 

 

 

 

Les analyses sur puces, ainsi que les micro- et nanobiosenseurs olfactifs ne requièrent que de très faibles quantités de nanosomes porteurs de récepteurs olfactifs préparés à partir de levures modifiées. Leur coût en terme d’éléments sensibles est donc minimal. Cette conception de capteurs offre donc de réelles possibilités pour l’élaboration d’un réseau de micro- ou nanocapteurs, qui pourrait mimer un nez biologique.

En outre, le test de RPS décrit ici peut tout à fait convenir au criblage à haut débit d’autres GPCR, d’intérêt pharmacologique en particulier, par les méthodes d’analyse automatique bien établies, car les récepteurs immobilisés peuvent être stimulés répétitivement sans manipulation spéciale, moyennant un temps de récupération de 30 min entre deux stimulations successives.

 

Par Jasmina Vidic et Edith Pajot-Augy

Paraplégiques : remarcher grâce à l’exosquelette ReWalk

Il semblerait que les exosquelettes s’implantent dans notre quotidien. Le coup d’envoi de la coupe du monde 2014, le 12 juin dernier par un jeune Brésilien paralysé des membres inférieurs et équipé d’un exosquelette en est le signe le plus éminemment symbolique. En ce sens où il est révélateur des progrès de la science dans ce domaine : l’association de la robotique et de la neurosciences. La preuve en deux exemples.

L’exosquelette ReWalk

Imaginé par la société Rewalk Robotics – fondée par l’ingénieur israélien Amit Goffer, paralysé à la suite d’un accident en 1997 – l’exosquelette ReWalk permet aux personnes atteintes à la moelle épinière de retrouver une certaine mobilité (se lever et marcher). Toutefois, l’appareil ne concerne que les paraplégiques atteints de lésions entre la 7ème vertèbre thoracique et la 5ème vertèbre lombaire. Il s’agit du premier dispositif du genre destiné aux particuliers pour les assister dans leur quotidien.

Son fonctionnement maintenant. L’appareil ceinture les jambes et le buste de l’utilisateur; à condition que sa taille soit comprise en 1,60 et 1,90 mètre et que son poids ne dépasse pas 100 kilogrammes. Un ordinateur de bord et une batterie contenus dans un sac à dos servent à actionner les moteurs placés au niveau des hanches et des genoux. L’utilisateur les contrôle à l’aide d’une commande située à son poignet et choisit de cette manière les actions qu’il souhaite effectuer. Et ça marche, les démonstrations sont éloquentes.

À ce titre, et après de nombreux tests, la Food and Drug Administration (FDA) a décidé d’approuver la vente sur le territoire américain de l’exosquelette ReWalk. Une excellente nouvelle, certes, mais dont le prix devrait refroidir quelque peu. Il en coûtera 70 000 dollars (plus de 50 000 euros) aux particuliers pour bénéficier d’un ReWalk.

Soulager et redonner de l’autonomie

Grâce à l’exosquelette ReWalk, l’alternative au fauteuil roulant n’est plus une chimère mais sera avant demain une réalité. Et c’est une espèce de révolution en soi parce que ReWalk offre l’espoir salvateur de retrouver de l’autonomie aux personnes handicapés. Pour celles qui, malgré le prix exorbitant, pourront s’acheter l’équipement, leur vie promet d’être bouleversée.

L’utilisation de l’exosquelette, outre le miracle de se lever et marcher à nouveau, s’accompagne d’autres bienfaits. Les patients ont témoigné d’une meilleure circulation du sang, d’une remusculation des membres… Bref d’une meilleure forme physique et également mentale. Le fait de regagner en autonomie, sans l’aide d’autrui, de communiquer à hauteur d’yeux procurerait un grand bien-être.

Les exosquelettes du MIT:  devenir un « surhomme » à quatre bras

Cette fois-ci, l’exosquelette concerne les travailleurs et vient surtout en renforcement des capacités naturelles de l’homme. En effet, des chercheurs du MIT d’Arbeloff Laboratory ont conçu des prototypes afin de soulager les ouvriers lors de leurs tâches les plus difficiles.

L’exosquelette se présente en fait sous la forme de deux bras robotiques attachés au dos de l’utilisateur et couvrant une large surface. Selon le modèle – il en existe deux – le début des bras est situé au niveau des hanches ou des épaules. Le Supernumerary Robotic Limbs (SRL, son petit nom) ne pèse que 4,5 kilogrammes mais grâce au détecteur de mouvements dont il est pourvu, il peut venir en aide aux travailleurs, en suppléant ses gestes, ou en le soutenant lors du port de charges lourdes. Différents modèles comportementaux ont été créé dans ce but.

De par son faible encombrement, le SRL se révèle très pratique car il est censé offrir davantage de liberté de mouvement tout en permettant à celui qui le porte de garder les mains libres. Un système ingénieux qui a semble-t-il plu au constructeur aéronautique Boeing qui a financé en grande partie les recherches.

Par Sébastien Tribot

Bientôt des organes bio-artificiels !

Pour remplacer des fonctions altérées chez les patients, les bioprothèses sont diverses et variées: implants dentaires, prothèses de hanche, de genoux, d’épaule, mais aussi valves cardiaques, substituts osseux… La recherche est riche, notamment pour créer des organes entiers, à l’instar du coeur ou du pancréas bio-artificiels. D’autres travaux s’intéressent même à la régénération des organes défectueux in-situ.

Remplacer les valves cardiaques

Pour remplacer des valves cardiaques, il existe essentiellement deux grandes familles de prothèses : les prothèses mécaniques et les valves biologiques. Les prothèses mécaniques ont une très longue durée de vie au prix d’un traitement anticoagulant à vie. A l’opposé, les bioprothèses ne demandent pas de traitements mais se détériorent avec le temps, imposant à certains patients une réintervention après une quinzaine d’années.

Les valves mécaniques (prothèse de St Jude) sont à base de carbone pyrolytique et de titane. Elles ont une durée de vie supérieure à celle du patient chez qui on l’implante mais nécessitent un traitement anticoagulant à vie. L’efficacité du traitement anticoagulant doit être contrôlé régulièrement. Le patient peut en effet faire des hémorragie s’il est trop anticoagulé ou au contraire contracter une embolie, quand il ne l’est pas assez.

Les bioprothèses valvulaires, sont élaborées avec des tissus de veau ou de cochon. Elles sont préférées chez les patients âgés et pour les patients qui ne peuvent pas suivre un traitement anticoagulant ou en contrôler son efficacité. A l’opposé, les patients qui sont déjà sous traitement anticoagulant en raison d’une autre pathologie recevront plus volontiers une prothèse mécanique plutôt qu’une bioprothèse.

Vers des organes artificiels ?

Le premier coeur bio-artificiel de la société Carmat a été greffé en France début 2014. Le patient est décédé 74 jours après son opération des suites d’un court-circuit encore inexpliqué. « Pendant 74 jours, ce patient n’a montré aucune déficience cérébrale, et la vérification du cœur après le décès et l’autopsie l’ont confirmé : il n’y avait pas le moindre caillot, ni dans la prothèse, ni dans la circulation. En ce sens, l’essai est un succès. » explique le professeur Alain Carpentier, père du coeur artificiel au JDD. Les travaux vont donc continuer pour permettre à de futurs patients de profiter de ce coeur qui ne nécessite pas de lourds traitements anti-rejets de greffes.

Le premier pancréas bio-artificiel bénéficiera de premiers tests chez l’homme début 2016 à Montpellier et à Oxford (Royaume-Uni). De premiers résultats devraient ainsi être disponibles fin 2017. Ce pancréas bio-artificiel se présente sous la forme d’un disque ultra-fin en polymère, à peine plus grand qu’un CD. Il est destiné aux diabétiques insulino-dépendants. Implantée dans l’abdomen, cette poche renfermera des cellules de pancréas (obtenues par génie génétique ou à partir de cellules souches) permettant de sécréter l’insuline. Grâce à une membrane semi-perméable, les cellules se trouvent ainsi à l’abri des attaques du système immunitaire, tout en laissant passer l’insuline, mais aussi les sucres – afin que les cellules pancréatiques « sachent » quelle quantité d’insuline produire. Les cellules pancréatiques seront renouvelées par injection sous cutanée 1 à 2 fois par an et le disque devra être remplacé tous les 4 à 6 ans. Cela améliorera grandement le quotidien des diabétiques qui s’injectent de l’insuline plusieurs fois par jour ! Là encore, il n’y aura pas besoin de traitement anti-rejet.

Régénérer sans remplacer ?

Des travaux de recherche portent aussi sur l’injection de cellules souches au niveau du coeur. Elles permettent de régénérer des fibres musculaires et de revitaliser le coeur sans aller jusqu’à son remplacement par une bio-prothèse.

Les travaux portent notamment sur les cellules souches pluripotentes induites qui peuvent être répliquées indéfiniment en laboratoire etse différencier, dans la bonne matrice, en une multitude de tissus : cellules musculaires, nerveuses, pulmonaires… Dans le cas du pancréas bio-artificiel, « il a fallu trouver un matériau et une matrice de façon à avoir un environnement viable pour les cellules pluripotentes », explique Guy Daculsi, Directeur de Recherche Inserm de classe exceptionnelle (DRE) à l’Université de Nantes. »Dans cet environnement, les cellules croient être dans un pancréas et se différencient pour faire des cellules capables de sécréter l’insuline« , poursuit-il.

Ces cellules souches pluripotentes induites pourraient régénérer des parties d’organe une fois incorporées à la bonne matrice. « On va ainsi pouvoir réparer un morceau de coeur, un morceau de foie, de rein, même de poumon« , prévoit Guy Daculsi. Plusieurs unités de l’INSERM travaillent sur certains de ces organes. Ils pourraient être accessibles pour le grand public d’ici une dizaine d’années.

« Il y a eu l’époque de l’homme soigné, puis avec les deuxièmes générations de techniques et produits est arrivé l’homme réparé ; maintenant avec la troisième génération est arrivée l’ère de l’homme augmenté grâce aux nouvelles technologies qui augmentent le potentiel de cicatrisation, de régénération », conclut Guy Daculsi.

Par Matthieu Combe, journaliste scientifique

Et si on régénérait vos os ?

Les prothèses métalliques remplacent des fonctions mécaniques. Dans ce cas, les médecins utilisent principalement du titane. Face aux propriétés mécaniques insuffisantes du titane sur le long-terme pour de grandes prothèses, et face à son prix extrêmement élevé, les chercheurs se sont tournés vers des alliages de ce métal. L’alliage le plus couramment utilisé est le TiAl6V4, à base de titane, d’aluminium et de vanadium.

Pour favoriser l’ancrage osseux du métal de la prothèse et maintenir le plus longtemps possible un os vivant autour de l’implant, les chercheurs s’intéressent aux traitements de surface. S’ils ont commencé par des traitements de surface avec des biocéramiques en phosphates de calcium déposés par torche à plasma, la maîtrise du procédé a pris du temps. Au-delà de 1300°C, les phosphates de calcium se décomposent et perdent leur propriétés biologiques. « Aujourd’hui, ces procédés sont mieux maîtrisés mais ce ne sont pas les meilleures solutions pour l’avenir, car les dépôts peuvent avoir plusieurs micromètres d’épaisseurs et, en l’absence de liaisons chimiques entre le titane et le phosphate de calcium, il y a des risques de fissures et libération de débris« , explique Guy Daculsi, Directeur de Recherche Inserm de classe exceptionnelle (DRE) à l’Université de Nantes, l’un des pères de l’os artificiel et des nouveaux biomatériaux, récompensé du prix George Winter de la Société Européenne des Biomatériaux en 2014.

Pour éviter les couches épaisses, les spécialistes s’orientent plutôt vers des dépôts électrolytiques: ils déposent des phosphates de calcium par électrolyse  à l’échelle nanométrique. Les ions ainsi déposés vont interagir avec les milieux biologiques et améliorer l’ancrage. Depuis quelques années, il existe aussi une troisième méthode permettant de créer des matériaux poreux métalliques. On parle de « métal trabéculaire« . Il s’agit de préparer l’implant en intégrant à la poudre de métal, un porogène ou une matrice poreuse. Lors du frittage, le porogène ou la matrice est calcinée, laissant en place la porosité.  On obtient ainsi une mousse de titane ou de tantale. « On s’est aperçu que le traitement de surface microstructuré, avec des micro-porosités permettait d’améliorer l’hydrophilie de la surface des matériaux pour l’adhésion cellulaire, ou que le métal trabéculaire favorisait la colonisation cellulaire  et la formation de tissu osseux dans les porosités « , nous livre Guy Daculsi.

Régénérer des pertes de substance, des tissus endommagés grâce aux cellules souches

Au lieu d’utiliser des  prothèses métalliques pour remplacer des greffes osseuses,  il est également possible d’utiliser des biomatériaux résorbables permettant de reconstituer les tissus osseux. La recherche est particulièrement riche dans ce domaine. Les chercheurs considèrent notamment des matériaux biodégradables associées à des cellules souches, qui se résorbent progressivement au fur et à mesure de la reconstruction des tissus.

Grâce à la multiplication en laboratoire de cellules souches prélevées au niveau de la moelle osseuse du patient, il est possible de régénérer n’importe quel tissu. Sur ce point, le projeteuropéenREBORNEa permis de réaliser les premiers essais cliniques concluants. Il a notamment mis au point une matrice (un support) permettant de promouvoir ou d’induire la différenciation des cellules souches. La clé du succès est le contrôle de cette matrice qui sert de support, d’échafaudage à la différenciation cellulaire, et à l’expression phénotypique.

« Dans le cadre du projet REBORNE, une matrice très particulière a été utilisée, à savoir une matrice biocéramique en phosphates de calcium nano, micro et macro-structurée, capable d’être rapidement colonisée par les cellules souches, de façon à ce qu’elles puissent exprimer leur phénotype et s’orienter pour faire du tissu osseux« , explique Guy Daculsi. Pour reconstituer un os vivant, il faut également régénérer la vascularisation afin qu’il puisse apporter les nutriments. « Avec des phosphates de calcium, on est proche de la phase minérale de l’os naturel, on a aussi des micro-structures, des micropores qui peuvent aller de la dizaine de nanomètres jusqu’au micron, qui vont permettre d’absorber des fluides biologiques, un peu comme un buvard, et des macro-pores, de l’ordre de 100 à 600 microns qui vont être colonisées par les cellules et le tissu osseux néo-formé », ajoute-t-il.« Il y a alors des niches avec des populations cellulaires qui vont produire des ostéoclastes pour résorber l’implant, des ostéoblastes pour former de l’os nouveau, mais aussi des cellules pour régénérer une vascularisation« , poursuit-il. « L’avantage de cette matrice est qu’elle libère des ions calcium et phosphate qui vont aider les cellules à reconstruire le tissu osseux, à le minéraliser : ils sont totalement absorbés pour en refaire un os naturel« , affirme-t-il. Au final, « d’un matériau totalement synthétique, avec les apports cellulaires et des fluides biologiques, on a un matériau qui se résorbe, qui est absorbé progressivement et va se transformer en os naturel« , résume-t-il.

Si cette solution est particulièrement intéressante, le projet REBORNE a montré que ce traitement peut coûter plus de 20 000 euros par patient. De plus, les centres habilités à manipuler les cellules souches sont extrêmement rares.  « On ne pourra faire que 200 à 400 patients dans toute l’Europe, donc cela ne sera pas démocratisable« , déplore le chercheur de l’Inserm.

En parrallèle de ce projet, on peut noter le développement des cellules souches allogéniques. Dans ce cas, les cellules souches vont être extraites de la moelle osseuse d’un donneur, au lieu d’être extraites directement du patient, puis être multipliées. On peut imaginer ici le  développement de banques de cellules souches allogéniques, d’ici quelques années. Celles-ci seront prêtes à être utilisées dans le même type de matrice que dans le cas précédent. « Avec la multiplication de cellules de donneurs universels, on va entrer dans une généralisation des biotechnologies, et cela sera une complète démocratisation de la technique pour des coûts beaucoup moins élevés« , prévoit Guy Daculsi.

Et si on utilisait simplement de la moelle osseuse totale ?

En attendant cette généralisation,lamatrice développée dans le cadre du projet REBORNE peut déjà être directement utilisée au bloc opératoire de n’importe quel hôpital en faisant un simple prélèvement de moelle osseuse. Par centrifugation, les cellules blanches (dont une partie est constituée de cellules souches) sont ainsi extraites puis concentrées (technique MOCA Moelle Osseuse Concentrée Autologue). Des pionniers utilisent déjà cette technique à l’établissement français du Sang, au CHU de Tours et de Nantes, au CHU Henri Mondor et beaucoup d’autres centres hospitaliers en France, en Europe, mais aussi largement aux Etats-Unis. Dans ce cas, le prix de la procédure se situe autour de 2 000 euros et est donc 10 fois moins chère qu’avec des cellules souches prélevées sur le patient.

Cependant, « La qualité de la moelle et la quantité de cellules souches est très dépendante de l’état de santé du patient et de son âge. Chez un patient jeune, cela marche bien, mais chez un patient de 80 ans, le nombre de cellules souches est assez faible, et comme il n’y a pas de multiplication par culture cellulaire, le potentiel de réparation est moindre », prévient Guy Daculsi.La technique de concentré de moelle osseuse ne sera donc pas forcément très efficace. « En revanche, si on envoie les quelques cellules souches prélevées dans un centre de thérapie cellulaire, il va y avoir une multiplication d’une dizaine de cellules et en 3 semaines on va en avoir plusieurs millions, avec un potentiel de réparation plus important« , déclare-t-il . Mais cela reste très coûteux.

Là encore pour que cette technique fonctionne, il faut que la matrice soit résorbable, mais aussi soit nano, micro et macro structurée. Il faut savoir que sur les 70 à 75 substituts osseux de ce type développées dans le monde, seulement quelques uns ont démontré leur capacité et leur efficacité à être combinées aux cellules souches, ou avec les techniques de concentré de moelle osseuse. Elles sont commercialisées par les sociétés Xpand Biotechnology (Hollande) et BIOMATLANTE (France) partenaires du projet REBORNE.

Par Matthieu Combe, journaliste scientifique

News informatique de juillet 2014 : L’Ethernet dans les voitures / Big Data / supercalculateurs

La compagnie Toyota parie sur l’Ethernet embarqué dans les voitures pour 2020

Monsieur Hideki Goto de l’Automotive Software Engineering Division de Toyota Motor Corp. a déclaré lors d’un séminaire organisé par Nikkei Electronics, le 9 juillet 2014, que l’industrie automobile utilisera l’Ethernet comme standard de communication à l’intérieur des véhicules dès 2020.

Très impliqué dans le développement des technologies de LAN (Local Access Network) embarquées dans les véhicules chez Toyota Motor Corp, Monsieur Goto est également président du groupe de travail chargé de la standardisation des interfaces LAN dans les véhicules, le Next-Generation LAN Working Groupe de la JASPAR (Japan Automotive Software Platform and Architecture).

L’Ethernet embarqué est actuellement déjà utilisé pour les communications à l’intérieur des véhicules, notamment pour le réseau de caméras. Monsieur Goto a déclaré que le réseau Ethernet pourra être étendu à l’assistance à la conduite dès 2015 et que l’Ethernet de classe Gigabit (plus de 10 Gigabit par seconde) sera déployé dans les véhicules dès 2018.

Cette avancée sur les communications à l’intérieur des véhicules en utilisant un réseau local Ethernet basé sur le protocole IP (le protocole standard sur Internet) est une passerelle vers la voiture connectée à l’Internet des objets.

Source : bulletins-electroniques

Concept car sport FT-1

De nouveaux outils pour le Big Data

Le Big Data représente un nouveau paradigme, né d’une capacité croissante à enregistrer l’information et une disponibilité toujours plus grande de données. Le Big Data correspond aux bases de données toujours plus importantes et au développement d’outils permettant de les remplir, les sonder et d’en tirer des conclusions. Il prend de plus en plus d’importance, des projections indiquant que le PIB européen pourrait augmenter de 206 milliards d’euros dans les 10 prochaines années rien qu’avec lui. Son importance a été reconnue par la Commission 2030 qui en a fait l’un de ces 5 chantiers prioritaires ainsi que par les grands acteurs de l’économie française.

Israël n’est pas en reste, avec des universités à la pointe dans ce domaine, comme l’Université hébraïque de Jérusalem et le Technion, où l’Association France Technion a justement effectué sa dernière mission autour du thème « Making Sense of Big Data ».

Lier le cloud aux anciennes bases de données

La jeune star-tup israélienne DBS-H, fondée il y a un peu moins de 3 ans, travaille sur les bases de données et notamment l’intégration entre celles-ci. Initialement, elle était simple hébergeur et gestionnaire de base de données [10]. Désormais, elle propose également des outils pour mieux exploiter des bases de données Oracle. Elle a notamment mis au point des outils permettant d’analyser en temps réel des flux de données et d’autres permettant de transiter plus efficacement entre un stockage de données local et parcellaire à un stockage par cloud.

Son produit phare, Coreplic-8, est un logiciel qui complète une base de donnée Oracle en fournissant divers services permettant d’augmenter l’efficacité de celle-ci. Par exemple, le CR8 optimise la distribution et l’accès aux données par :

  • la réplication des données : CR8 cherche à copier les données sur plusieurs serveurs afin de garantir un accès permanent et éviter les pertes ;
  • l’optimisation du temps d’accès : la spécialisation de certains serveurs pour les données à haute demande (par exemple, pour un site de vente en ligne) ou pour le stockage de rapports d’activité ;
  • la synchronisation de serveurs : des multinationales peuvent avoir plusieurs serveurs comportant les mêmes données à travers le monde, qui doivent être efficacement synchronisés en temps réel ;
  • la protection des données : il est possible de faire valider un utilisateur lorsqu’il accède à la base pour éviter que des fuites, vols ou modifications illégales aient lieu.

L’outil est conçu pour être peu cher, ciblé pour les petites et moyennes entreprises en croissance et surtout simple à mettre en place.

Le Big Data, un secteur qui a le vent en poupe

Présents cette année au MIXiii, forum d’innovation israélien, l’équipe de DBS-H a eu un succès certain, comme le montre cette histoire relatée sur leur blog : un visiteur italien, plus familier du biomédical, passait à coté de leur stand. Peu intéressé par cette histoire de base de données, le visiteur se laisse toutefois expliquer l’importance du Big Data par ces entrepreneurs dynamiques. Quelques minutes plus tard, impressionné par leur discours et convaincu de l’importance à venir du Big Data, il promet de les aider à trouver des financements ! Espérons qu’il y arrive !

Source : bulletins-electroniques

Etudier les nuages avec des supercalculateurs

Il est arrivé à tout le monde de voir des nuages « bouillonner » dans le ciel. En général, les phénomènes physiques qui déterminent ces processus de mélange turbulent, essentiels pour la formation de nuages de vapeur d’eau, sont extrêmement difficiles à étudier pour les physiciens, car ils ont souvent lieu à une grande distance de la terre.

Une étude récente menée par le groupe Philofluid du Dimeas du Politecnico de Turin a réussi à surmonter cette difficulté, en reproduisant le comportement des nuages grâce à une simulation informatique. La recherche a permis de clarifier ainsi certains secrets des phénomènes de dynamique des fluides à petite échelle, liés aux processus de mélange turbulent se produisant dans la formation des nuages.

Le projet, coordonné par Daniela Tordella, professeur de mécanique des fluides au Politecnico, a impliqué des doctorants, en leur donnant l’opportunité d’utiliser des supercalculateurs du plus haut niveau: en effet, pour leur étude, ils ont eu accès à plus de 3.000.000 heures de temps de calcul (l’équivalent de 340 années de calcul sur une seule machine) sur le supercalculateur Curie, installé à Paris.

L’étude a également été signalée comme une « success-story » par Prace (Partnership for Advanced Computing in Europe), un réseau qui réunit les principaux centres de calcul intensif en Europe et qui vise à permettre aux chercheurs d’accéder aux systèmes informatiques les plus avancés.

Comment l’agriculture participe à la pollution de l’air

« L’agriculture participe aux émissions de composés azotés, des COV [composés organiques volatils], du méthane et des pesticides, ainsi que des particules primaires », explique Carole Bedos, Chargée de Recherche à l’Inra spécialisée dans la volatilisation des pesticides. Une fois émis dans l’air, ces différents composés peuvent interagir entre eux et avec les composés déjà présents dans l’atmosphère. Ils vont alors générer des composés secondaires. Les NOX et COV constituent des précurseurs d’ozone ; l’ammoniac et les acides des précurseurs de particules fines.

Quantitativement, les flux des polluants peuvent paraître faibles. Mais, sur des surfaces étendues, les émissions deviennent significatives et diffuses. Selon différentes sources, l’agriculture et la forêt émettent ainsi 53 % du total des particules en suspension (20 % des PM10, 9 % des PM2,5 et 6 % des PM1), 89 % du protoxyde d’azote (N2O), 76 % du méthane, 10 % des oxydes d’azote (NOx), 50 % des COV biogènes et 97 % de l’ammoniac présents dans l’air (l’élevage contribuant à hauteur de 77 % des émissions).  De plus, le secteur agricole utilise 91 % des pesticides.

Comment sont émises les particules ?

En agriculture, les particules primaires sont émises par les cultures et l’élevage, mais il y a peu de données sur ces émissions dans le contexte agricole français.  « Pour les cultures, la préparation du sol, la fertilisation, l’apport de produits phytosanitaires, les récoltes vont générer l’émission de particules primaires en fonction du type de sol et de la météo », note Carole Bedos. « Pour l’élevage, les émissions de particules peuvent avoir lieu au niveau des bâtiments, du stockage des effluents, de l’épandage d’effluents et en pâturage », ajoute-t-elle.

Chaque plante émet des types de COV différents. Il demeure néanmoins un manque de données concernant les émissions de COV par l’élevage, depuis les cultures et après apport de résidus organiques au champ  pour bien comprendre l’intégralité des phénomènes.

Quels mécanismes pour les émissions d’azote ?

En contact avec l’air, les équilibres physico-chimiques entre les différentes formes d’azote ammoniacal dans le sol engendrent une volatilisation d’ammoniac dans l’atmosphère. En parallèle, il y a des processus biologiques : essentiellement la nitrification (l’oxydation de l’ammonium vers la forme nitrate en passant par la forme nitrite) et la dénitrification (réduction de la forme nitrate vers la forme diazote inoffensive). « Au cours de ces étapes, il y a production d’oxyde nitrite NO et de protoxyde d’azote N2O », explique Sophie Génermont, Chargée de rechercher à l’Inra spécialisée dans les émissions d’ammoniac. « On reconnaît généralement la dénitrification comme étant la source majoritaire des émissions de N2O et la nitrification de NO ». NO et N2O sont des oxydes d’azote.

Les émissions d’ammoniac et d’oxydes d’azote sont des processus naturels qui ont été amplifiés par le développement de l’élevage industriel et l’utilisation des engrais industriels azotés. Les émissions dépendent toutefois du type de sol, de la météo, du type d’engrais apporté (minéral, organique) et des pratiques culturales : dose, apport du produit en profondeur ou en contact avec l’air, présence d’une culture capable d’absorber l’azote ou non.

Quels effets sur la pollution de l’air par les particules ?

L’ammoniac est un composé basique qui va interagir avec les composés acides présents dans l’atmosphère (par exemple, H2SO4 ou HNO3) pour former des aérosols secondaires de sulfate d’ammonium ((NH4)2SO4) ou nitrate d’ammonium (NH4NO3). Lors des pics de pollution, les mesures réalisées par le LSCE et l’INERIS montrent que les PM10 et PM2,5 sont composées essentiellement de ces particules inorganiques secondaires de nitrate d’ammonium et de sulfate d’ammonium. « L’industrie et les transports produisent des sulfates, des NOx, des acides qui au contact de l’ammoniac vont former des aérosols », résume Sophie GénermontEn parallèle de ces réactions, l’ammoniac peut aussi réagir avec des aérosols primaires, déjà présents dans l’atmosphère.

Les liens entre ammoniac et particules fines sont donc réels, mais demeurent difficiles à prévoir. « Ce sont des pics d’émission difficiles à prévoir car on n’est pas capable de renseigner de manière exacte la contribution des pratiques agricoles et des effets climatiques à la formation des particules », précise la chercheuse. Pour mieux prévoir ces pics, les chercheurs préconisent d’affiner la description spatio-temporelle des émissions d’ammoniac et de quantifier sa contribution à la formation d’aérosols secondaires.

Les dégâts de l’ammoniac ne s’arrêtent pas là. Il contribue également à l’acidification des sols, à la baisse de la biodiversité des écosystèmes, à l’eutrophisation des eaux continentales et à l’accroissement des émissions de protoxyde d’azote.

Quels impacts sur la formation de pics d’O3 en zone rurale ?

Les NOx et les COV sont des précurseurs d’ozone troposphérique. Les réactions liées à cette formation d’ozone sont complexes, car elles intègrent tout un cycle de réactions de formation/destruction d’ozone. Mais au final, la concentration en ozone dépend du ratio de concentrations NOx/COV. Les concentrations en NOx sont assez élevées en zone urbaine et la production d’ozone y est largement contrebalancée par sa destruction. En s’éloignant, les concentrations en NOx décroissent, et les taux de COV peuvent être importants. L’air passe progressivement d’un régime saturé en NOx vers un régime limité en NOx, avec toutefois une contribution locale des émissions de NOx par les sols. « Ce n’est pas en zone d’émissions de NOx que l’on va avoir le plus d’ozone, mais vers des zones plutôt rurales que l’on va avoir des pics de concentration en ozone essentiellement par jours de beau temps et de faible vent », résume Sophie Génermont.

Pour mieux modéliser la pollution, de nombreux défis demeurent, puisque les mécanismes qui entrent en jeu dépendent d’un certain nombre de facteurs. La complexité s’amplifie en plus lorsque l’on y ajoute le spectre des changements de pratiques, des changements d’usage des sols et du changement climatique !

Par Matthieu Combe, journaliste scientifique

Et aussi dans les
ressources documentaires :

Quels impacts de la pollution de l’air sur l’agriculture ?

« Une zone de culture, c’est à peu près 3 à 6 m2 de feuillage pour 1 m2 de sol, qui sont des capteur de polluants, de poussières, de tout ce qui peut être présent dans l’atmosphère extrêmement efficaces », rappelle Jean-François Castell,Maître de Conférence « Surveillance de la qualité de l’air, ozone et végétaux » à AgroParisTech.La pollution qui se dépose sur les plantes est diverse et varie dans l’espace et dans le temps. On y retrouve pêle-mêle : ozone, nitrates, sulfates, particules fines, pesticides, etc. L’entrée de ces polluants dans la plante va être contrôlée par les stomates, orifices présents à la surface des feuilles, suivant  son état de santé et de développement.

Les cultures ne sont pas exposées aux mêmes pollutions d’une région à l’autre, et la nature des pollutions varie au cours des saisons. Au cours de leur vie, les végétaux sont donc exposés à des successions de combinaisons de polluants atmosphérique, dont les effets cumulés sont encore mal connus. Si les réponses des plantes varient d’une espèce à l’autre, elles varient aussi au sein d’une même espèce.

Quels effets sur les rendements ?

Les effets sur les rendements sont variés et dépendent des types de culture.  « L’ozone est considéré comme le principal polluant qui peut avoir un impact sur les végétaux », note Jean-François Castell. L’ozone va jouer sur les mécanismes de la photosynthèse et entraîner des pertes de rendements ou des dégâts foliaires lorsque sa concentration est trop importante. Pour les variétés sensibles*, les pertes de rendement sont de l’ordre de 10 % dans nos régions, et peuvent dépasser 30 % en zone méditerranéenne. Elles atteignent régulièrement 15 % en région parisienne pour le blé. Pour l’ensemble de la zone européenne, les pertes de rendements du blé se chiffrent à environ 3 milliards d’euros selon une étude réalisée par ICP Vegetation.

Quels effets sur la qualité des produits ?

L’ozone modifie les aspects qualité, mais les données sont encore insuffisantes pour établir des relations dose-impact satisfaisantes. « La qualité boulangère des blés français n’est pas forcément excellente par rapport au blé d’Europe centrale : n’est-ce pas un effet de la pollution atmosphérique ? », s’interroge Jean-François Castell. Les cherheurs notent aussi une légère augmentation de la teneur en protéines des grains/tubercules pour le blé et la pomme de terre, mais plutôt une diminution de la teneur protéique pour le colza.

Plus grave : les polluants peuvent aussi s’accumuler dans les tissus végétaux. C’est notamment le cas des métaux lourds, des HAP et des autres polluants organiques persistants. Lorsque des incinérateurs d’ordures ménagères, de centrales thermiques, des axes de transport routier ou de transport aérien sont situés à proximité des champs, l’impact peut être non négligeable. Une étude réalisée à Berlin** sur des salades cultivées près d’axes routiers a, par exemple, montré des teneurs en plomb croissantes en fonction de l’intensité du trafic. A Paris, des études similaires sont en cours afin d’étudier la teneur en polluants éventuels pour différentes cultures en ville. Les premiers résultats devraient être communiqués en fin d’année.

Quels effets sur la fertilité des sols et la valeur écologique ?

Les dépôts acides (H+, SO42, NO3) amplifient l’acidité des sols et diminuent leur qualité. Au contraire, les dépôts azotés accroissent le développement des plantes. Les sols de plus en plus acides vont alors perdre des éléments minéraux nécessaires à la croissance des plantes, parallèlement à des dépôts azotés favorables à leur croissance. Le déséquilibre est total. « Cela se traduit par une croissance accrue, mais dès qu’il y a un accident climatique ou une pression de maladie, il va y avoir des dégâts et des modifications de fonctionnement des plantes », analyse Jean-François Castell.

Au final, ces pollutions ont des conséquences économiques sensibles. La mise en place de stratégies d’adaptation pour limiter les impacts des polluants apparaît nécessaire. La solution de simplicité serait d’utiliser des traitements pour protéger les plantes de l’ozone ; ceux-ci existent. Mais il serait préférable de diminuer les émissions de polluants et de précurseurs d’ozone. Une stratégie complémentaire serait de déplacer les dates de semis par rapport aux pics de pollution et de préférer les variétés résistantes à l’ozone, propose le chercheur. « Pour s’adapter, l’agriculture devra peut-être choisir des cultures qui répondent mieux à des concentrations croissantes de polluants », envisage Jean-François Castell.

Par Matthieu Combe

* Espèces sensibles à l’ozone : blé, soja, cotonnier, melon, légumes à gousse (haricots, pois, fèves…), navet, oignon, laitue, tomate. Espèces modérément sensibles à l’ozone : betterave, colza, pomme de terre, tabac, riz, vigne, chou, maïs, luzerne. Espèces tolérantes à l’ozone : orge, prunier, fraisier, seigle, brocoli

** Von Hoffen L.P., Säumel I., 2014. Orchards for edible cities : Cadmium and lead content in nuts, berries, pome and stone fruits harvested ithin the inner city neighbourhoods in Berlin, Germany. Ecotoxicology and Environmental Safety 101:233-239

Et aussi dans les
ressources documentaires :