Entrer dans la tête d’une mouche pour décoder son comportement

Point de sorcellerie à tout cela ! L’équipe de neuro-scientifiques, dirigée par le professeur Gallio, ne murmure donc pas à l’oreille des mouches et ne lit pas non plus dans leurs pensées.

En revanche, ils se sont servis de la méthode inventée par le biochimiste Roger Tsien, prix Nobel de chimie en 2008, « pour la découverte et le développement de la protéine fluorescente verte, la GFP », issue de la méduse bioluminescente Aequorea victoria. Tsien fut l’un des premiers à en développer des applications. Cette protéine est depuis employée comme marqueur en biologie.

L’équipe du professeur Gallio a étudié le cerveau de la Drosophila melanogaster, aussi appelée mouche du vinaigre, bien souvent utilisée dans des expériences en génétique. Elle l’a préalablement modifiée génétiquement de sorte que les molécules transmises par les synapses de la drosophile se teintent de différentes couleurs. Cette technique a permis de détecter précisément quelles synapses s’activaient en fonction de l’action des mouches. En cas d’envol par exemple, c’est une synapse en particulier qui s’allume.

La teinte des molécules pouvant tenir jusqu’à une heure, les scientifiques bénéficient, comme ils l’appellent, d’une « fenêtre temporelle » durant laquelle ils peuvent voir « quelle synapse a été utilisée dans la communication entre deux neurones pendant une expérience comportementale ou sensorielle particulière ». La lecture de ces signaux, à la lumière des microscopes à fluorescence, donne suffisamment d’indications pour en déduire le comportement de la mouche.

L’objectif n’est pas de pénétrer l’esprit des mouches bien sûr, mais de suivre l’activité des neurones, et aussi, parvenir in fine, à mieux comprendre le comportement d’un autre animal bien plus complexe : l’être humain, dont le cerveau compte 100 milliards de neurones contre à peine 100 000 pour la mélanogaster drosophila.

Par Sébastien Tribot

Royal veut inscrire les perturbateurs endocriniens à l’agenda européen

Le Tribunal de justice de l’Union européenne a condamné Commmission européenne pour son inaction en matière de définition et d’identification de critères pour les perturbateurs endocriniens le  16 décembre 2015.  « J’ai écrit à la Présidence Néerlandaise de l’Union Européenne il y a très peu de temps pour qu’elle indique ce sujet dans ses priorités », a indiqué la ministre en ouverture du colloque. « Je veille personnellement à ce que ces sujets concernant les perturbateurs endocriniens soient inscrits dans les échéances et dans les priorités européennes », a-t-elle précisé. Notamment, Ségolène Royal cherche à faire étendre l’interdiction du bisphénol A dans les contenants alimentaires au niveau européen, alors qu’il est déjà interdit en France depuis le 1er janvier 2015. Elle souhaite également restreindre l’utilisation du bisphénol A dans les tickets de caisse.

Concernant les néonicotinoïdes, la ministre a fait savoir qu’elle appliquerait les recommandations comprises dans le rapport rendu par l’Anses le 12 janvier 2016. L’Anses y préconise notamment des mesures de restriction de l’enrobage des semences d’hiver, pour tenir compte de la possibilité de floraison tardive en cas d’automne peu rigoureux. « Ces recommandations, je vous le dis, seront appliquées », assure Ségolène Royal. Afin de limiter les effets négatifs des néonicotinoides sur les abeilles et autres pollinisateurs, le projet de loi Biodiversité prévoit un nouvel encadrement de l’utilisation de ces pesticides répondant à ces recommandations. Néanmoins, l’interdiction totale de ces pesticides n’est toujours pas à l’ordre du jour : lors du vote du projet de loi Biodiversité au Sénat, un nouvel amendement visant à interdire les néonicotinoïdes a encore été rejeté.

« Fin février, les experts européens de l’application du Règlement REACH sur l’évaluation, l’enregistrement et l’autorisation des substances chimiques seront réunis au Ministère de l’Ecologie, prévient la ministre. Je souligne d’ailleurs à cette occasion l’engagement de la France dans l’initiative REACH’UP qui a été lancée avec le Danemark, l’Autriche, la belgique, l’Allemagne, les Pays-Bas et la Norvège pour améliorer l’application du règlement REACH dans 5 domaines : d’abord dans le domaine de l’enregistrement qui constitue le cadre du règlement REACH, dans le contrôle des substances les plus préoccupantes, dans le domaine de la prise en compte des perturbateurs endocriniens, dans le domaine des nanomatériaux et dans le domaine des substances préoccupantes dans les produits importés.» La France veut ainsi être une force de propositions en Europe pour limiter l’exposition aux substances suspectées d’être des perturbateurs endocriniens.

Par Matthieu Combe, journaliste scientifique

Les océans regorgent de richesses inexploitées

Sable et graviers

Les bassins océaniques constituent le lieu de dépôt ultime des sédiments érodés de la terre, et les plages représentent les plus grands gisements résiduels de sable. Bien que les plages et les sédiments près des côtes soient extraits localement pour une utilisation dans la construction, ils sont généralement considérés comme trop précieux et les permis d’extraction vont plus généralement être accordés pour la construction d’aires de loisir.

sableNéanmoins, les anciens dépôts de sable de plage sont nombreux sur tous les continents, en particulier dans les plaines côtières, où ils sont largement exploités, pour la production de matériaux de construction, la fabrication du verre, et la préparation de silicium métallique entre autres. Les dépôts de gravier, eux, sont généralement plus hétérogènes mais sont produits de la même manière, et sont traités intensivement, souvent pour la construction.

Calcaire et le gypse

Les roches calcaires se forment dans les zones tropicales et semi-tropicales. Tous les océans existant aujourd’hui sont le résultat de la précipitation d’organismes biologiques marins morts : mollusques, coraux, plantes…

KONICA MINOLTA DIGITAL CAMERA

Le sol calcaire des océans est peu exploité. Celui des continent et îles tropicales l’est de manière importante.

Une grande partie de la pierre calcaire va être utilisée directement en coupe ou sous forme écrasée. On utilise aujourd’hui de plus en plus la forme calcinée, qui présente l’avantage de pouvoir être convertie en ciment facilement. Les gypses (sulfate de calcium hydraté), formés via l’évaporation de l’eau de mer produisent des sels d’évaporites et du calcaire. Les gisements de gypse sont exploités massivement pour la production de plâtre.

Nodules de manganèse

Les fonds océaniques contiennent de grandes quantités de nodules d’un diamètre qui va du centimètre à presque un mètre.

noduleCommunément appelés nodules de manganèse, ils contiennent en réalité plus de fer que de manganèse. Ils représentent à ce jour la plus grande source de manganèse.

Malgré l’abondance et la richesse des métaux contenus dans les nodules de manganèse (fer, manganèse, cuivre, cobalt et nickel), la rentabilité n’est pas encore au rendez-vous. Les dépôts terrestres sont largement exploités et fond de ceux situés sur le plafond océanique une ressource encore vierge.

Phosphorites

phosphoriteDes processus organiques et inorganiques complexes sont à l’origine de la formation de granulés riches en phosphate dans les environnements marins peu profonds. Ils constituent une réserve exploitable gigantesque, puisque seuls les gisements terrestres sont aujourd’hui exploités.

Traduit par S.Luc

Source

  • Craig, James R., David J. Vaughtan, et Brian J. Skinner. Ressources de la Terre: origine, l’utilisation, l’impact environnemental, 3e éd. Upper Saddle River, NJ: Prentice Hall, 2001.
  • Lahman, HS, et JB Lassiter III. L’évolution et l’utilisation des ressources minérales marines. Books for Business 2002.
  • http://www.waterencyclopedia.com/Mi-Oc/Mineral-Resources-from-the-Ocean.html

Diminution des récifs coralliens : quelles conséquences ?

Les plantes marines, principalement le phytoplancton, sont des producteurs qui constituent la base de la chaîne alimentaire. On prévoit une diminution progressive de la quantité de ces plantes dans les eaux plus chaudes, ce qui induira une perte des éléments nutritifs le long de la chaîne alimentaire. La température est également un élément critique dans le cycle de vie d’un grand nombre de plantes et d’animaux marins et, souvent, la nutrition, la croissance et la reproduction sont synchronisées. Ces processus étant perturbés, il y a peu de chances que les organismes trouvent les sources de nourriture dont ils ont besoin pour vivre.

L’augmentation anticipée de la température de la mer encouragera probablement la migration des organismes marins en fonction de leur tolérance à la température, les espèces les plus tolérantes migrant vers le nord et les moins tolérantes se retirant. Ce changement de la dynamique des océans aura un effet délétère sur les espèces qui ne peuvent pas migrer et pourrait causer leur disparition. L’acidification océanique ou l’augmentation des niveaux de CO2 qui résulte de la diminution du pH des océans, non seulement réduit l’abondance du phytoplancton, mais diminue aussi la calcification de certains organismes marins, comme les coraux et les coquillages, ce qui aura des conséquences sur la formation de leur squelette et entravera leur croisssance.

L’une des menaces majeures auxquelles font face les coraux est probablement le blanchissement dû à l’augmentation de la température de la surface de l’eau de mer. Ce phénomène survient lorsque l’augmentation prolongée de la température de l’eau des océans provoque une rupture du rapport symbiotique entre les coraux et les algues, appelé zooxanthellae. Le corail rejette les algues, perd sa couleur (blanchissement) et s’affaiblit. Certains coraux peuvent survivre, souvent avec des systèmes immunitaires affaiblis mais, dans de nombreux cas, meurent.

Facteurs d’agression anthropiques

Le vrai problème réside dans le fait que les modifications induites par les effets du changement climatique augmentent la pression sur un environnement marin déjà mis à l’épreuve par les facteurs d’agression anthropiques directs et indirects associés à la surpêche et aux pratiques inadéquates de la pêche, à l’aménagement du littoral, à la sédimentation, aux pollutions dues aux sources terrestres et à la pollution marine. Cette convergence de facteurs d’agression multiples fait subir une pression considérable aux coraux. On estime qu’environ un tiers des coraux constructeurs de récifs est en voie de disparition. Dans le monde entier, la couverture corallienne a baissé de manière importante. Toutefois, la communauté scientifique estime que ce déclin a commencé avant la réalisation d’études scientifiques détaillées. En raison de l’accès difficile des récifs coralliens, les études à leur sujet sont assez récentes par rapport aux autres disciplines. Elles remontent à une cinquantaine d’années, mais même au cours de cette courte période, un déclin important a été observé. Pendant les années 1980 et 1990, la diminution de la couverture corallienne a été encore accentuée par la perte des herbivores qui se nourrissent d’algues (les oursins et les poissons herbivores) ainsi que par le blanchissement et les maladies des coraux. Ce déclin n’a jamais été aussi prononcé que dans les Caraïbes, qui illustrent la mort des récifs coralliens. Les données évaluées depuis les années 1960 ont montré de manière concluante la diminution progressive de la couverture corallienne et la prolifération d’algues qui étouffent les coraux.

Source : http://unchronicle.un.org/article/impacts-climate-change-coral-reefs-and-marine-environment/index.html

L’impact économique et sociologique de l’exploitation des océans

Dans le document final de Rio +20 « L’avenir que nous voulons», l’attention a été attirée sur les océans et les mers. Toutefois, ceux-ci ayant été à peine mentionnés dans les objectifs du Millénaire pour le développement (OMD), lorsque les travaux du GTO (groupe de travail ouvert) ont débuté en 2013, une mobilisation plus forte des États Membres et de la société civile a été nécessaire pour mettre en évidence le rôle central des océans dans le développement durable.

rioCertains considéraient les océans et les mers principalement comme une question environnementale, n’étant pas pleinement conscients de leur importance économique et sociale. Durant l’été 2013, sous l’impulsion des États Membres, avec à leur tête les petits États insulaires en développement du Pacifique et Timor-Leste, et avec le soutien de la société civile, y compris par le Forum mondial sur les océans, il a été établi qu’il était nécessaire de définir un objectif lié aux océans pour assurer la survie de la planète et le bien-être économique et social à l’échelle mondiale et nationale. L’engagement de la société civile sollicité par les co-présidents du GTO des Nations Unies, qui ont mis en place un vrai processus ouvert, a contribué à l’adoption de l’ODD 14 qui a été soutenu par un grand nombre et une grande variété de pays – pays en développement et pays développés, pays côtiers et enclavés, petites îles et pays continentaux.

L’ensemble des questions liées aux océans et aux mers abordées dans l’ODD 14 « Conserver et exploiter de manière durable les océans, les mers et les ressources marines aux fins du développement durable », avec ses sept cibles et ses trois dispositions sur les moyens de mise en œuvre, est très important. L’objectif, ses cibles et les moyens de mise en œuvre renforcent de manière ciblée et avec une urgence accrue les prescriptions internationales issues de la Conférence des Nations Unies sur l’environnement et le développement, le Sommet mondial pour le développement durable de 2002, la Conférence des Nations Unies de 2012 sur le développement durable (Rio +20) et la Convention des Nations Unies sur le droit de la mer, qui sont entrées en vigueur en 1994.

On retiendra la cible 14.7 « D’ici à 2030, augmenter, pour les petits États insulaires en développement (PIED) et les pays les moins avancés (PMA), les avantages économiques découlant de l’utilisation durable des ressources marines, notamment à travers la gestion durable de la pêche, de l’aquaculture et du tourisme ». Cette question, qui aurait dû être traitée depuis très longtemps, conduira à modifier profondément les décisions portant sur la gestion des océans afin de souligner leurs impacts économiques et sociaux.

Certaines dispositions de l’ODD 14 pourraient être mieux formulées, mais je pense que l’ensemble est tout à fait satisfaisant et pourrait être adopté, pratiquement comme tel, par l’Assemblée générale des Nations Unies. Un point important, le cas échéant, serait l’ajout d’une disposition pour renforcer la gouvernance des océans comme, par exemple, l’amélioration des processus décisionnels concernant la gestion des océans et des zones côtières, notamment par la promulgation de lois relatives aux océans et aux zones côtières et par le renforcement des capacités.

D’autres ODD proposés sont également liés à ces questions et peuvent contribuer à la réalisation de l’ODD 14 sur les océans et les mers, notamment :

  • l’ODD 1 (sur la pauvreté),
  • l’ODD 2 (sur la sécurité alimentaire),
  • l’ODD 6 (sur l’eau et l’assainissement),
  • l’ODD 7 (sur l’énergie),
  • l’ODD 8 (sur la croissance économique),
  • l’ODD 9 (sur l’infrastructure),
  • l’ODD 10 (sur la réduction des inégalités),
  • l’ODD 11 (sur les villes et les établissements humains),
  • l’ODD 12 (sur la consommation et la production durables),
  • l’ODD 13 (sur les changements climatiques),
  • l’ODD 15 (sur la biodiversité) et
  • l’ODD 17 (sur les moyens de mise en œuvre et les partenariats).

C’est exactement l’objectif de la proposition du GTO, tel qu’il est noté dans l’introduction au document : « Ces objectifs constituent un ensemble intégré, indivisible de priorités mondiales en vue du développement durable […] Ces objectifs et cibles intègrent les dimensions économiques, sociales et environnementales, en reconnaissant leur interdépendance pour atteindre le développement durable sous tous ses aspects1. »

Les négociations intergouvernementales sur le programme de développement pour l’après-2015 se poursuivront jusqu’en août 2015 lorsque les révisions et les changements auront lieu. L’adoption des objectifs, des cibles et des moyens de mise en œuvre qui influenceront profondément toutes les questions liées au développement durable aura lieu lors du Sommet des Nations Unies consacré au programme de développement pour l’après-2015 en septembre 2015. Il est donc important pour les États Membres et la société civile de continuer à exprimer leur soutien aux ODD, en particulier à l’ODD 14 sur les océans et les mers, et de commencer à planifier leur mise en œuvre.

Elizabeth Thompson, Co-Executive Coordinator de la conférence RIO+20

Source : Extrait du Rapport du Groupe de travail ouvert de l’Assemblée générale sur les objectifs de développement durable, 12 août 2014 (A/68/970), UN Chronicles

Diminution des récifs coralliens : les solutions

L’adaptation implique des efforts de recherche et de conservation au niveau local afin de renforcer la résistance des écosystèmes par des activités comme la restauration des récifs, l’identification d’espèces plus résistantes, la réduction de la surpêche et la création de zones marines protégées.

Ces zones sont considérées être le meilleur outil de gestion pour la conservation des récifs coralliens et des autres environnements marins car, étant interdites à la pêche, elles offrent un habitat sûr aux espèces marines pour se développer, se reproduire librement et reconstituer l’environnement marin avoisinant.

L’adaptation, toutefois, ne suffit pas. Une action mondiale est nécessaire pour atténuer les effets du changement climatique en réduisant les émissions, en améliorant l’efficacité énergétique, en limitant la déforestation et en augmentant les puits de carbone. À ce stade, les mesures d’atténuation ne sont censées qu’arrêter le réchauffement, car l’impact du changement climatique semble irréversible.

Le pronostic

Partout dans le monde, les scientifiques spécialisés dans les récifs coralliens s’accordent pour dire que l’environnement marin en général et les récifs coralliens en particulier subissent les effets du changement climatique. La plupart d’entre eux estiment que le rythme du changement climatique pourrait détruire leur capacité à s’adapter et à se régénérer.

La situation dans les Caraïbes est plus préoccupante que dans la région Pacifique-Asie. Les études semblent indiquer que les populations d’oursins moins nombreuses permettent aux algues de proliférer au détriment des coraux. Une solution possible est de maintenir une population de poissons-perroquets saine pour contrôler la croissance des algues. Malgré les études réalisées, la capacité des coraux de s’adapter aux eaux plus chaudes n’a pas été établie pour de nombreuses espèces.

Toutefois, les scientifiques ont noté que dans certaines régions, en particulier les régions du Pacifique où les récifs sont éloignés des activités humaines, ceux-ci ont prouvé leur capacité à résister à l’augmentation de la température de l’eau de mer en surface et au blanchissement.

Étant donné les preuves indiquant la disparition presque inévitable des récifs coralliens, il est urgent que les spécialistes des sciences de la mer prennent les devants pour maîtriser la situation et mobilisent le public et les communautés menacées sur la réalité de la menace.

Cet engagement est essentiel si nous voulons que les attitudes et les comportements changent vraiment. Les connaissances scientifiques doivent donner lieu à des solutions pratiques qui susciteront le soutien du public. À une plus grande échelle, une collaboration est nécessaire entre les gouvernements et les communautés concernées afin de formuler et de mettre en œuvre des politiques axées sur la viabilité à long terme.

Menons-nous une bataille perdue d’avance ?

Il est fort possible que le changement climatique ait dépassé le point de non-retour. Ce qui est certain, c’est que toute solution au problème du changement climatique est aussi une solution à la régénération des récifs coralliens.

Par MARCIA CREARY, Environmental Data Manager

Source : http://unchronicle.un.org/article/impacts-climate-change-coral-reefs-and-marine-environment/index.html

Comment exploiter les océans de manière durable ?

De même qu’une personne ne peut vivre sans un cœur et des poumons sains, la Terre ne peut pas survivre sans des mers et des océans sains. Ils remplissent le rôle de système respiratoire de la Terre, produisant de l’oxygène et absorbant les émissions de dioxyde de carbone et les déchets. Ils sont utilisés à des fins de stockage et absorbent 30 % des émissions de dioxyde de carbone dans le monde, tandis que le phytoplancton libère 50 % de l’oxygène nécessaire à la survie, et participent à la régulation du climat et des températures, rendant la planète hospitalière pour différentes formes de vie.

Les océans et les mers sont essentiels au bien-être économique et social. L’activité économique liée aux océans représente entre 3 000 et 6 000 milliards de dollars, contribuant à l’économie mondiale de nombreuses façons.

Quelques exemples

  • 90 % du commerce mondial se fait par voie maritime.
  • 95 % des télécommunications transitent par les câbles sous-marins.
  • Les pêcheries et l’aquaculture assurent plus de 15 % de la consommation annuelle de protéines animales à 4,3 milliards de personnes.
  • Plus de 30 % de la production de pétrole et de gaz dans le monde sont extraits des fonds marins.
  • Le tourisme côtier est le segment de marché le plus important de l’économie mondiale, représentant 5 % du produit intérieur brut (PIB) mondial et 6 à 7 % des emplois dans le monde.
  • Des connaissances plus approfondies de la biodiversité marine ont permis de faire des percées dans des secteurs comme l’industrie pharmaceutique, la production alimentaire et l’aquaculture.
  • 13 des 20 mégapoles au monde sont situées en zones côtières.
  • Les marées, les vagues, les courants et les vents marins au large des côtes sont des sources d’énergie qui peuvent considérablement contribuer à produire une énergie à faible émission de carbone dans de nombreux pays côtiers.

Les océans et les mers sont essentiels au bien-être social. Plus de 40 % de la population mondiale, soit 3,1 milliards de personnes, vit à 100 km des côtes dans près de 150 pays côtiers ou insulaires. Qu’un pays soit enclavé ou ait un littoral, toutes les nations ont un accès direct aux océans et aux mers par les fleuves, les lacs ou les rivières. Les nations ont accordé une importance significative aux ressources offertes par les océans et les mers, représentant plus de 60 % du produit national brut (PNB) mondial. En particulier, l’activité économique côtière est la force vive des pays côtiers et insulaires.

Les activités, comme la pêche durable, la production d’énergie renouvelable, l’écotourisme et les « transports maritimes verts », ont permis aux nations d’augmenter le taux d’emploi et d’améliorer l’assainissement tout en diminuant la pauvreté, la malnutrition et la pollution. Les économies axées sur les océans offrent de plus grandes possibilités d’autonomisation et d’emploi aux femmes qui constituent l’essentiel de la main-d’œuvre concentrée dans les activités secondaires dans les secteurs de la pêche et de l’aquaculture. L’augmentation de l’emploi des femmes consolide la vitalité économique des petites communautés isolées et améliore la condition féminine dans les pays en développement.

En même temps, les populations côtières et insulaires sont parmi les plus vulnérables aux changements climatiques. Les océans, les mers et les zones côtières connaissent des phénomènes climatiques extrêmes de plus en plus fréquents et intenses, comme des ouragans, des typhons et des cyclones plus dévastateurs. Ces régions sont également affectées par l’acidification des océans, la hausse du niveau de la mer, les modifications de la circulation océanique et la salinité. Ces changements sont notables non seulement dans les zones côtières, mais aussi à l’intérieur des terres en raison de l’influence grandissante des courants océaniques sur les systèmes météorologiques. D’ici à 2050, on estime que 50 à 200 millions de personnes dans le monde seront déplacées en raison des effets négatifs des changements climatiques, menaçant la sécurité alimentaire, les moyens de subsistance et la stabilité sociale non seulement dans les pays côtiers et insulaires, mais dans tous les pays qui prêteront assistance aux populations déplacées. Des mesures visant à renforcer l’atténuation et l’adaptation doivent être prises afin d’être mieux préparés à faire face aux situations d’urgence et aux catastrophes, de mettre en place des systèmes d’alerte rapide et des centres d’observation et de concevoir des plans pour l’aménagement et la gestion des zones côtières.

Elizabeth Thompson, Co-Executive Coordinator de la conférence RIO+20

Source : Extrait du Rapport du Groupe de travail ouvert de l’Assemblée générale sur les objectifs de développement durable, 12 août 2014 (A/68/970), UN Chronicles

Les ressources marines exploitées : sel, potassium et magnesium

Le sel

Le sel, ou chlorure de sodium, est présent dans l’eau de mer à une concentration d’environ 3 %. Par conséquent, il constitue à lui seul plus de 80 %  – en quantité – des éléments chimiques dissous dans l’eau de mer.

La quantité disponible de sel dans tous les océans est si énorme qu’elle pourrait subvenir aux besoins humains pour des centaines, voire des milliers d’années.

sel_de_mer

Même si le sel est extrait directement des océans dans de nombreux pays par évaporation de l’eau, la majorité des 200 millions de tonnes produites dans le monde annuellement provient de grands « lits » de sel.

Ces lits, maintenant profondément enterrés, se sont formés quand les eaux des mers peu profondes ou des bassins marginaux se sont évaporées, laissant d’épaisses couches résiduelles de sel apparaître. Les lits ont ensuite été recouverts et protégés de la dissolution ou/et de la destruction.

Potassium

Comme le sodium, et le chlore de sel, le potassium se produit en grandes quantités dans l’eau de mer, mais sa concentration moyenne d’environ 1 300 ppm est généralement trop faible pour permettre l’extraction économique directe.

potassiumLes sels de potassium  se produisent dans des milieux riches en  évaporites.   On en extrait des millions de tonnes de sel par an.  Les sels de potassium, eux, se sont déposés lorsque l’eau de mer s’est évaporée à 95 % (!).

Magnesium

Le magnésium, dissous dans l’eau de mer à une concentration d’environ 1000 ppm, est le seul métal directement extrait de l’eau de mer.

Magnesium

Actuellement, environ 60 % du magnésium métallique et un grand nombre des sels de magnésium produits aux Etats-Unis sont extraits de manière électrolytique de l’eau de mer. La partie restante du métal de magnésium et des sels est extraite de dépôts marins anciens où les sels ont précipité lors de l’évaporation ou se sont formés au cours de la diagenèse. Les principaux minerais extraits à cet effet sont la magnésite (MgCO 3) et la dolomie (CaMg [CO 3] 2).

Source

  • Craig, James R., David J. Vaughtan, et Brian J. Skinner. Ressources de la Terre: origine, l’utilisation, l’impact environnemental, 3e éd. Upper Saddle River, NJ: Prentice Hall, 2001.
  • Lahman, HS, et JB Lassiter III. L’évolution et l’utilisation des ressources minérales marines. Books for Business 2002.
  • http://www.waterencyclopedia.com/Mi-Oc/Mineral-Resources-from-the-Ocean.html

Traduit par S.Luc

Quelles ressources minérales au fond des océans ?

Ils sont le dépositaire ultime de nombreux matériaux érodés ou dissous à la surface de la terre. Par conséquent, les océans contiennent de grandes quantités de matériaux qui constituent actuellement des ressources majeures pour l’homme.

Aujourd’hui, l’extraction directe des ressources est limitée au sel, au magnésium, à l’or, l’étain, le titane, les diamants et l’eau fraîche.

Sel marin

Les dépôts océaniques anciens de sédiments et d’évaporites maintenant situés sur des terres ont été initialement déposés dans des conditions marines. Ces dépôts sont aujourd’hui exploité à très grande échelle, et en priorité par rapport aux dépôts sous-marin, en raison évidemment des coûts d’exploitation comparés. L’exploitation terrestre coûte moins cher, même si elle augmente avec la rareté des ressources, à l’inverse de l’exploitation marine qui voit ses coûts diminuer.

Des monticules de sel de mer ont été extraits de lits profondément enfouis et déposés lorsque l’eau de mer s’est évaporée, il y a quelques millions d’années.  Les lits ont été préservés en étant recouvert puis se sont « relevés », dans un cadre terrestre. Aujourd’hui l’exploitation minière fournit la majorité de la production de sel, le reste étant obtenu par évaporation de l’eau dans l’océan.

Pour autant, l’augmentation de la population humaine et l’épuisement des ressources terrestres combinés va rendre la facilité d’extraction du sel de moins en moins… facile. L’exploitation des ressources de sel des océans est un défi quasi actuel.

Quelles sont les ressources minérales principales ?

Les ressources actuellement extraites des mers et des zones qui ont un jour été marines sont hétérogènes : des matériaux de construction classiques aux métaux utilisés pour la haute technologie, en passant par… l’eau elle-même.

Les analyses chimiques ont démontré que l’eau de mer contient environ 3,5 % de solides dissous, avec au total plus de soixante éléments chimiques identifiés.

L’extraction des éléments dissous et des ressources minérales solides dans les milieux marins rencontre aujourd’hui un obstacle principalement économique. Elle est peu rentable. Pour le moment. La situation géographique des « gisements » peut aussi être un obstacle en termes de propriété et de transport.  La profondeur des bassins océaniques concernés peut constituer un obstacle technologique supplémentaire.

Source

  • Craig, James R., David J. Vaughtan, et Brian J. Skinner. Ressources de la Terre: origine, l’utilisation, l’impact environnemental, 3e éd. Upper Saddle River, NJ: Prentice Hall, 2001.
  • Lahman, HS, et JB Lassiter III. L’évolution et l’utilisation des ressources minérales marines. Books for Business 2002.
  • http://www.waterencyclopedia.com/Mi-Oc/Mineral-Resources-from-the-Ocean.html

Traduit par S.Luc

Comment exploiter les métaux et l’eau des océans ?

Dépôts métalliques associés au volcanisme sous-marin

Les études sous-marines des rifts océaniques ont révélé la présence de gisements importants de zinc, de cuivre, de plomb, d’or et fumeur-noird’argent… Ces éléments se forment sur les sites volcaniques immergés où se développent des émanations hydrothermales appelées fumeurs noirs. Ces fumeurs noirs sont à l’origine du dépôt des métaux dissous dans l’eau chaude remontant des profondeurs, tout le long des grandes fractures du plancher océanique.

Un réservoir énorme, mais qui n’est pas exploité aujourd’hui, le rift océanique étant situé à une profondeur très importante (6000 mètres), ce qui rend difficile tout travail sur site.

Or, étain, titane et diamants

Les accumulations de minéraux résistants et insolubles issus de l’érosion de roches situés le long de cours d’eau ou sur les côtes océaniques sont à l’origine de gisements métalliques. Les plus prometteurs de ces dépôts sont riches en or, en étain, en titane et en diamant.

Aujourd’hui, une grande partie de l’étain exploité et beaucoup de diamants (pour la joaillerie) sont récupérés par dragage près des côtes océaniques où les sédiments minéraux ont été déposés en mer par les rivières.

L’or a été exploité dans un passé récent via ces dépôts, particulièrement à Nome, en Alaska.

titaneDe grandes quantités de minéraux de titane sont également exploitées le long des plages et à proximité des côtes, mais uniquement en milieu terrestre, encore une fois en raison de coûts d’exploitation plus compétitifs.

Source

  • Craig, James R., David J. Vaughtan, et Brian J. Skinner. Ressources de la Terre: origine, l’utilisation, l’impact environnemental, 3e éd. Upper Saddle River, NJ: Prentice Hall, 2001.
  • Lahman, HS, et JB Lassiter III. L’évolution et l’utilisation des ressources minérales marines. Books for Business 2002.
  • http://www.waterencyclopedia.com/Mi-Oc/Mineral-Resources-from-the-Ocean.html

Traduit par S.luc

Diminution des récifs coralliens : quelles causes ?

Les récifs coralliens, qui représentent environ 0,5 % des fonds marins, sont des structures complexes à trois dimensions qui se sont formées au cours de milliers d’années résultant d’un dépôt de carbonate de calcium qui constitue leur squelette. On appelle souvent ces récifs la « forêt pluviale de la mer ». Cette comparaison sous-estime la complexité des récifs coralliens, qui présentent une plus grande diversité de la faune et de la flore que les forêts pluviales, recyclent les nutriments à travers des réseaux trophiques complexes et offrent de la nourriture à tous les niveaux de la chaîne alimentaire.

Historiquement, la mer a constitué un réseau de transport vital, a été une source de nourriture et un lieu d’activités récréatives favori. La plupart de grandes villes se sont bâties autour des ports de commerce. Aujourd’hui, environ 80 % de la population mondiale vit à une centaine de kilomètres des côtes, dépend de la mer pour assurer ses moyens d’existence (environ 3,5 milliards de personnes). En effet, la survie des populations les plus vulnérables du monde dépend de la mer. L’importance économique de celle-ci est constatée dans les services écosystémiques fournis par les pêcheries, le tourisme, la protection des côtes et dans son rôle comme source de matières premières. Cette dépendance à la mer est aujourd’hui menacée par les conditions environnementales dues au changement climatique mondial.

La réalité établie des changements climatiques

Le Quatrième rapport d’évaluation du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC 2007) a présenté des preuves solides démontrant qu’au cours de la dernière décennie le réchauffement de la planète a largement été causé par les activités humaines, comme l’utilisation des combustibles fossiles, la déforestation et la conversion des terres pour un usage agricole. Depuis 1850, la température moyenne a augmenté de 0,8 °C et d’autres analyses ont montré que depuis les années 1970 chaque décennie était plus chaude que la précédente. Depuis le milieu du XIXe siècle, début de la révolution industrielle, jusqu’au début du XXIe siècle, la concentration en dioxyde de carbone (CO2) a augmenté de 280 à 388 parties par million (ppm). Selon les estimations du GIEC, la tendance au réchauffement de la planète devrait continuer avec une augmentation de la température moyenne mondiale de 2,5 à 4,7 °C en 2100 par rapport aux niveaux pré-industriels.

Changements environnentaux anticipés

Afin d’évaluer les effets du changement climatique sur les récifs coralliens et l’environnement marin, nous devons examiner les changements environnementaux anticipés et évaluer la capacité des organismes marins à s’adapter à ces changements. Les modèles climatiques indiquent que la température de la mer en surface augmentera de 1 à 3 °C, tandis que le niveau de la mer augmentera de 0,18 à 0,79 mètre. Il est probable que les conditions climatiques régionales changeront, ce qui augmentera la fréquence et l’intensité des tempêtes, en particulier des cyclones. En outre, les modèles de circulation océanique seront probablement modifiés et le pH des océans devrait diminuer en raison de l’absorption du CO2.

Par MARCIA CREARY, Environmental Data Manager

Source : http://unchronicle.un.org/article/impacts-climate-change-coral-reefs-and-marine-environment/index.html

Pourquoi vous passez tant de temps au travail ?

Inscription gratuite à la conférence en ligne du 11 février

Depuis quelques décennies, de nombreuses et récurrentes études confirment que 90% des cadres se plaignent de ne pas maîtriser leurs emplois du temps professionnel. Selon les circonstances, ils en attribuent la faute au management, à la direction, aux clients, aux processus, à la société de consommation, à la crise, à la concurrence, à la globalisation, etc.

Pourtant, la sagesse populaire nous rappelle qu’on ne saurait faire boire un âne qui n’a pas soif. Ainsi, au cours de ce webinaire, vous aurez l’occasion de clarifier cette question irrésolue du « work/life balance » comme nos amis anglosaxons la qualifient.

En s’inspirant de l’approche Gestalt OD, ce webinaire ambitionne également de vous donner un aperçu des potentialités de cette approche lorsqu’elle s’applique au développement des Hommes et des Organisations.

Nous avons souhaité une grande interactivité et votre participation sera souvent sollicitée. Enfin, nous vous invitions à vous munir d’une feuille de papier, d’un crayon et d’une règle pour tirer le meilleur profit de cette séance à l’issue de laquelle vous pourrez échanger avec l’animateur de la conférence, Dino Ragazzo.

Dino Ragazzo a été successivement technicien commercial, ingénieur d’essais, directeur technique, chef d’une entreprise d’ingénierie électrique et de maintenance nucléaire et conseiller de la direction générale d’un grand groupe industriel. Il est le fondateur d’EXPERIENCE (conseil, coaching, formation, développement organisationnel), et est également l’auteur de l’ouvrage Manager d’élite.

Inscrivez-vous dès maintenant et faites-nous part des questions que vous aimeriez absolument lui poser. Elles seront traitées en priorité.

Des ballons stockeurs d’énergie

« Fabriquer de l’énergie, c’est bien, mais il faut soit utiliser l’énergie tout de suite soit la stocker. Les centrales électriques classiques sont régulées en fonction des besoins mais cela n’est pas possible avec l’énergie éolienne ou celle fournie par les panneaux solaires. Il faut donc stocker l’énergie mais les batteries sont polluantes, chères à fabriquer et  s’usent rapidement.

Une société canadienne Hydrostor vient de présenter un système de stockage d’énergie aussi simple que prometteur. Cette société a testé sur les rives du lac Ontario un système de stockage d’énergie sous forme d’air comprimé. »

En voici le principe :

Source : universcience.tv

  • Réalisation : Christine Loubeau, Alexis Lardilleux
  • Production : Universcience
  • Durée : 6 min 55 s

Eboulement à Bure : un mort

L’éboulement est survenu dans une galerie en cours de forage où étaient effectués des relevés géophysiques, a indiqué le préfet de la Meuse, Jean-Michel Mougard, lors d’une conférence de presse à Bure (Meuse). Six personnes travaillaient dans la galerie quand la partie supérieure s’est écroulée. Un technicien de la société Eiffage, âgé de 42 ans, y a péri. Un de ses collègues, « légèrement » blessé aux mains, a été évacué.

bure
Le site d’enfouissement de Bure

Une enquête de gendarmerie a été ouverte pour déterminer les causes de cet accident. Dans un communiqué,« EELV appelle à faire toute la lumière sur les circonstances du drame -malgré l’opacité de la filière nucléaire- et à en tirer les conclusions sur l’arrêt immédiat du projet face à des risques majeurs pour la santé et la sécurité des populations ». Il s’agit du deuxième accident mortel sur ce site. En 2002, un ouvrier de 33 ans avait été enseveli lors du creusement du puits d’accès principal, provoquant l’arrêt du chantier pendant cinq mois.

Ce laboratoire souterrain n’accueille pas de déchets radioactifs. Il sert à mener des tests (construction de galeries et d’alvéoles) pour élaborer le futur centre de stockage de déchets radioactifs Cigéo qui sera construit à proximité. Le projet de stockage des déchets radioactifs en couche géologique profonde est très controversé, notamment en raison de son coût et des risques environnementaux potentiels. Mi-janvier, Ségolène Royal avait arrêté le coût global du projet à 25 milliards d’euros.

Par Matthieu Combe, journaliste scientifique

Les puissants ont-ils peur des nouvelles technologies ?

Du 20 au 23 janvier 2016, la petite station de ski suisse de Davos, désormais mondialement célèbre, accueillait une fois de plus, le forum économique mondial (WEF pour l’acronyme anglais). Les représentants des 10% de la population qui détiennent 90% des richesses et des pouvoirs de la planète, sont là pour réfléchir à l’état du monde et aux perspectives économiques. Pour cette édition, les quelques 2500 participants ont planché sur la « 4ème révolution industrielle ».

C’est quoi la « 4ème révolution industrielle « ?

Klaus Schwab, ingénieur et économiste allemand et surtout, président et fondateur du WEF, a posé la définition et les contours de ce qu’il appelle la 4ème révolution industrielle dans une présentation publiée le 14 janvier 2016 sur le site du WEF. Elle reprend les grandes lignes de son propos développé dans le livre éponyme (The fourth industrial revolution). Pour lui, elle est caractérisée par « la fusion de technologies qui brouillent les lignes entre les mondes physiques, numériques et biologiques ». Et, affirme-t-il, si cette 4eme révolution s’appuie sur la troisième, qui était celle de l’automatisation, de l’informatique et de l’électronique, elle s’en démarque par sa vitesse exponentielle, son ampleur (elle touche presque toutes les activités) et l’impact qu’elle a sur les systèmes de production, de management et de gouvernance. Elle prend la forme de multiples nouvelles technologies ou innovations : des objets connectés à l’impression 3D, de l’intelligence artificielle au Big Data en passant par les nanotechnologies ou l’informatique biologique.

Vers l’inconnu et au-delà ?

Face à la montée de toutes ces nouvelles technologies, on peut vite être pris de tournis. Et Euronews de citer par exemple, ce chef d’entreprise indien : « J’ai peur, je me demande si cela ne va pas trop vite ? » Car tous ces progrès techniques ouvrent des possibles capables de redéfinir l’humain et son rapport au monde de manière profonde : quid du contrôle des robots intelligents, des puces greffées directement dans le corps, des nanomatériaux, des données. Ce cyber-monde qui se dessine est porteur de plusieurs déséquilibres majeurs dans les modèles de sociétés actuelles.

Chômage de masse, menace sur la classe moyenne

Même si les économistes ne parlent pas tous d’une seule voix, nombre d’entre eux sont pessimistes quant à l’évolution de l’emploi face à la robotisation et à la numérisation de la production et des marchés. Des disparitions d’emplois massifs (de plusieurs millions à 40% dès 2030 selon les estimations) affecteraient non seulement les postes de production classiques de la robotisation mais aussi des métiers plus qualifiés de fonctionnaires, chauffeurs, du médical etc. D’autant que la numérisation du marché du travail rend encore plus fragile les travailleurs peu qualifiés soumis à une compétition accrue et à une dislocation des collectifs de travail. Dès lors, c’est tout un pan des classes moyennes qui est menacé de paupérisation. A la clé des conflits sociaux majeurs pourraient voir le jour.

Dans l’attente de décisions politiques ?

Si les puissants tremblent face aux nouvelles technologies, c’est surtout qu’elles rendent impossible de prévoir avec certitude le monde de demain, et donc impossible de s’assurer d’en avoir encore le contrôle pour préserver pouvoirs et privilèges. Même si jusqu’à présent, les riches ne cessent de s’enrichir quand les pauvres s’appauvrissent (voir le rapport de l’Oxfam sur ce sujet.

Kemal Dervis, ancien directeur du Programme des Nations Unies pour le Développement estime que le politique doit jouer son rôle de régulateur et ne pas laisser les marchés gérer seuls ces bouleversements. Mais les solutions socio-politiques ont été abordées plutôt timidement à Davos que ce soit pour évoquer la mise en place de revenus permanents de base, d’investissements dans les biens publics ou de coopération multilatérale. Et à ce jour, le monde politique semble, lui, trembler bien plus réellement devant cette 4ème révolution. Alors, sera-t-on capables d’inventer un nouveau contrat social sans passer par la case de l’autoritarisme et du repli identitaire ?

Par Sophie Hoguin

1946-2016 : 70 ans au service de l’industrie pour les Techniques de l’Ingénieur

Histoire d’un succès

Techniques de l’Ingénieur est né en 1946, cette date n’est pas anodine : lors de la seconde guerre mondiale, le potentiel productif a été profondément affecté.

En 1946, un ingénieur centralien décide d’aider l’industrie à se relever, en recueillant et mettant à disposition le savoir des meilleurs experts. Il crée Techniques de l’Ingénieur. Depuis lors les équipes éditoriales n’ont de cesse de recruter des auteurs, mettre en place des comités scientifiques pour écrire, auditer, vérifier, valider et ainsi fournir une ressource documentaire, toujours à jour.

En 2016, Techniques de l’Ingénieur couvre 14 domaines scientifiques et met à disposition 9000 articles. 350 000 utilisateurs bénéficient de ces ressources.

Avec le temps, Techniques de l’Ingénieur s’est imposé comme outil de formation mais aussi et surtout comme référentiel des donneurs d’ordre, guide pratique des sous-traitants, outil des bureaux d’étude et source d’inspiration de la R&D.

Une base vivante, relue, valisée, enrichie en permanence

Chaque année près de 400 articles nouveaux ou mis à jour sont publiés sur techniques-ingenieur.fr.

Ces articles complètent le fonds documentaire déjà en ligne, lui-même faisant l’objet d’une veille permanente. Cela se matérialise par la mention « Dernière validation», suivie de la date, publiée sur les articles.

Techniques de l’Ingénieur peut ainsi s’enorgueillir de mettre à disposition le plus grand corpus documentaire technique et scientifique en français.

Pour accompagner la mondialisation de l’information scientifique et technique, le travail éditorial accompli permet dorénavant de consulter, sur les nouveaux articles, des abstracts et mots clés en anglais. Ce nouvel atout, conjugué avec le Dictionnaire technique multilingue, facilite et simplifie votre recherche d’information.

Un site internet plus pratique, des fonctionnalités nouvelles pour gagner du temps

En1946, Techniques de l’Ingénieur innovait avec ses reliures et feuillets mobiles. La quantité d’articles et l’avènement d’internet ont eu raison de cette solution.

A la fin du 20éme siècle, Techniques de l’Ingénieur était l’un des tout premiers éditeurs à rendre disponible l’ensemble des articles via son site internet.

En 2016, toujours à la recherche des meilleures pratiques, le site techniques-ingenieur.fr vous propose de nouveaux outils, avec des tableaux dynamiques ou encore des images et figures à télécharger en haute définition.

Pour vous accompagner au mieux dans votre recherche sur le site, vous pouvez utiliser un nouveau mode de navigation : la cartographie interactive. Cette représentation en arbre des articles Techniques de l’ingénieur propose une nouvelle façon d’explorer les contenus, plus intuitive et plus fluide, par concept.

5 tutoriels pour mieux connaître Techniques de l’ingénieur

La rédaction

Revue du web #87 : les drones passent à l’action

Megacopter vient d’établir un record du monde en soulevant plus de 60 kg

Les drones savent parfaitement effectuer des livraisons, mais les charges se limitent généralement à de petits colis de quelques kilos seulement. Peut-être plus pour longtemps.

Le fabricant de drones Henning Pedersen et des étudiants de l’université d’Oslo viennent d’immortaliser leur exploit dans le Guiness des records pour la « plus lourde charge portée par un multicoptère contrôlé à distance » .

Constitué de 8 hexacoptères, mû par 48 moteurs et 13 propulseurs, le Megacopter a soulevé une charge de 61 kilogrammes à un mètre de hauteur pendant 37 secondes. Mais, l’engin étant homologué pour transporter jusqu’à 149,9 kilos, il pourrait bien battre son propre record bientôt…

Parrot a dévoilé au CES de Las Vegas un prototype de drone sans hélice baptisé Disco

Il ne nécessiterait aucun apprentissage. On le lance à la main, il s’envole. L’utilisateur n’a plus qu’à en prendre les commandes avec une application dédiée sur son smartphone. Disco gère lui-même son atterrissage.

Le drone peut atteindre les 80 km/h (on ne sait pas s’il en va de même par grands vents) et peut être piloté pendant 45 minutes. Il a été pensé pour un transport manuel aisé car en plus de sa légèreté, il pèse 700 grammes, ses deux ailes sont démontables. Enfin, il sera possible de capturer les vues du Disco puisqu’il dispose d’une caméra équipée d’un capteur haute résolution de 14 mégapixels et d’un stabilisateur optique.

Il devrait être commercialisé en 2016.

Le premier drone civil habitable sera commercialisé cette année

Les enchères sont ouvertes. Cette fois, ce drone ne soulève pas 60 kilos mais 100 ! Il vient d’être présenté au Salon international de l’électronique et des technologies grand public CES 2016 à Las Vegas.

L’engin doté de rotors coaxiaux (4 bras repliables, 8 hélices) et de moteurs électriques peut voler jusqu’à 3,5 kilomètres d’altitude et atteindre une vitesse d’environ 100 km/h. Son plan de vol est à établir sur une application mobile. Pour piloter son drone, le passager se contente de sélectionner sur sa tablette les commandes de décollage et d’atterrissage.

Son autonomie de 23 minutes n’est pas son point fort,  surtout qu’il lui faut pas moins de 2h pour recharger ses batteries. Mais la société chinoise croit en son potentiel. Il serait commercialisé en 2016 et coûterait entre 200 000 et 300 000 dollars.

 

Un drone a réussi à atterrir sur une voiture qui roulait à plus de 75 km/h

Les ingénieurs du centre aérospatial allemand ont réalisé une belle démonstration en envoyant un drone se poser seul sur le toit d’un véhicule en mouvement.

Armé d’une série de capteurs, il est venu se positionner au-dessus de la plateforme installée sur le toit de la voiture. Puis, des marqueurs installés sur le véhicule cible lui ont permis de se poser à la verticale, avec précision.

Catastrophes naturelles, recherche de personnes… Ce savoir-faire pourrait un jour permettre de sauver des vies.

 

Un drone-pompier baptisé Faros est capable d’endurer une température de 1000 degrés

Même si les drones peuvent se révéler particulièrement utiles lors d’accidents ou de catastrophes naturelles, ils restent souvent beaucoup trop fragiles pour réellement faire la différence.

Mais le FAROS (Fireproof Aerial RObot System) a de sérieux atouts. : son armure composée de fibres aramides et d’un système de refroidissement lui permet de résister à une température de 1000 degrés celsius tandis que les hélices placées sur son abdomen lui offrent d’excellentes capacités d’adhérence sur une paroi, telle une araignée. Armé d’une caméra thermique, il détecte la présence d’êtres humains dans un immeuble en feu.

Conçu par les chercheurs coréens du laboratoire URL (Urban Robotics Lab), le FAROS n’est encore qu’un prototype. Mais les pompiers pourraient bien faire appel à lui d’ici quelques années.

 

Un skieur échappe de justesse à la chute d’un drone en pleine compétition

Le skieur autrichien Marcel Hirscher aurait bien pu se faire assommer par un drone lors de l’épreuve de slalom messieurs de Madonna di Campiglio, en Italie !

Un multicoptère utilisé par l’équipe de production pour filmer l’événement s’est abattu sur la piste et s’est pulvérisé à l’endroit où le skieur se trouvait moins d’une seconde plus tôt.

L’apprenti assassin est un drone multirotor hexacoptère de type DFC-XR1. 1,38 mètre d’empattement,  7 kilos à vide, 12 kilos avec la batterie et la caméra numérique.

La société Infront Sport & Média chargée de filmer l’évènement a expliqué dans un communiqué que « d’après la société opératrice du drone, la raison la plus probable est une interférence lourde et imprévue sur la fréquence radio utilisée pour piloter le drone ». Mais les circonstances restent encore floues. Une expertise a été mandatée.

Par I.T.

2015 : des températures records

L’accord conclu à la COP21 vise à contenir l’augmentation de la température moyenne « bien en-deça de 2°C et de s’efforcer de limiter cette augmentation à 1,5°C » par rapport à l’ère pré-industrielle. Mais limiter cette hausse à 1,5°C semble bien impossible. Selon le bilan climatique de la NOAA, 2015 est l’année la plus chaude jamais enregistrée depuis le début des relevés climatiques en 1880. La température moyenne des surfaces terrestres et océaniques dépasse de 0,9°C la température moyenne enregistrée au 20e siècle, surpassant de 0,16 °C le précédent pic, atteint en 2014. Décembre 2015 a également enregistré la température la plus chaude au niveau mondial depuis 1880, dépassant de 1,11°C la moyenne enregistrée pour les mois de décembre au 20e siècle et de 0,29°C le précédent record datant de… décembre 2014.

Ce début de 21e siècle enregistre des températures records à tous les niveaux. Les années se suivent et déclassent les précédentes. L’année 2015 bat tous les records de chaleur, devant, dans l’ordre, 2014, 2010, 2013, 2005, 2009 et 1998.

« Dix mois ont connu des records de températures pour leurs mois respectifs pendant l’année », précise la NOAA.

Dans le détail, la température moyenne à la surface terrestre en 2015 a dépassé de 1,33°C la moyenne du 20e siècle et la température moyenne à la surface de l’eau a dépassé de 0,74°C la moyenne du 20e siècle. Il s’agit de deux nouveaux records, déclassant les précédents atteints respectivement en 2007 et 2014, de +0,25°C et +0,11°C. Le réchauffement climatique s’accélère : il s’agit du plus grand écart de température pour un record annuel, pa rapport au précédent record.

Presque toutes les régions du monde sont touchées par ces records de chaleur : l’Amérique Centrale, l’Amérique du Sud, l’Europe, ainsi que l’ouest de l’Asie et d’importantes portions de la Sibérie. Le thermomètre s’est aussi réchauffé dans des zones étendues de l’est et du sud de l’Afrique, ainsi que dans le Pacifique, dans l’ouest de l’Atlantique Nord, la plupart de l’Océan Indien et dans certaines parties de l’Océan Arctique.

Moins de neige et moins de précipitations

En 2015, la couverture neigeuse annuelle de l’hémisphère Nord a été de 24,6 millions de kilomètres carrés. Cela constitue la 11e plus faible couverture neigeuse annuelle depuis le début des relevés en 1968 et la plus faible depuis 2008.

L’étendue moyenne annuelle de la glace de mer en Arctique a été de 11 millions de kilomètres carrés, soit la sixième plus petite étendue depuis 37 ans. A l’opposé, l’Antarctique a connu sa troisième plus grande étendue moyenne annuelle de la glace de mer, à 12,74 millions de kilomètres carrés, derrière 2013 et 2014.

Et en France ?

2015 ne bat néanmoins pas tous les records en France. A l’échelle nationale, 2015 n’est « que » la 3e année la plus chaude depuis 1900. Selon le bilan climatique de Météo-France, les températures sont tout de même au-dessus de 1°C de la normale, devancée par 2014 (+ 1.2 °C) et 2011 (+ 1.1 °C). « La pluviométrie a été inférieure à la normale de plus de 15 % et l’ensoleillement supérieur à la normale sur l’ensemble du pays », note Météo-France. Le mois de décembre a néanmoins aussi été le plus chaud enregistré sur la période 1900-2015 et le plus sec sur la période 1959-2015. Au niveau européen, 2015 est la deuxième année la plus chaude depuis le début des mesures.

Par Matthieu Combe, journaliste scientifique

Biotech santé : 340 millions pour une filière solide

Le FABS (Fonds accélération biotech santé), lancé en octobre dernier, et qui devait être doté de 100 M€ voit son montant rehaussé à 340 M€. Une annonce favorablement accueillie par les acteurs du secteur tel que France Biotech qui, à l’automne, avait trouvé le montant insuffisant. Une décision qui s’inscrit aussi dans une volonté forte de soutenir l’innovation du secteur sous toutes ses formes souligne par ailleurs la ministre précisant que « la loi de financement de la sécurité sociale pour 2016 consacre près de 6 milliards d’euros aux différentes étapes de l’innovation ».

Maintenir l’innovation santé en France

Ce fonds s’accompagne de la promesse d’autres mesures évoquées par Marisol Touraine, la ministre de la santé, qui vise à : « solvabiliser l’innovation, lui garantir une diffusion rapide et massive, et donner un temps d’avance aux entreprises ». Derrière cet objectif de structurer et stabiliser la filière, on devine un autre enjeu de taille non évoqué par la ministre : éviter la fuite des idées et des entrepreneurs outre-Atlantique où la levée de fonds est tellement plus facile.

Organiser et structurer la filière

Professionnels de la santé numérique, start-up de biotech, État et collectivités, la médecine est un secteur extrêmement complexe où les acteurs sont multiples. Pour réussir et mutualiser les forces de chacun, le gouvernement est en train d’élaborer un plan « Médecine du futur » dans lequel il est prévu un soutien à des fonds d’entrepreneurs spécialisés et la création de clusters thématiques. Pour superviser ces différentes mesures au niveau exécutif, le Pr. Jean-Yves Fagon, actuel vice-président du CEPS (Comté économique des produits de santé), vient d’être nommé délégué ministériel à l’innovation en santé.

Faciliter la création et le développement des entreprises

La ministre a par ailleurs affirmé que d’autres dispositions seraient prises pour simplifier les procédures administratives et d’autorisation – sans pour autant affaiblir le cadre réglementaire lié à la sécurité. Il s’agira de dispositifs dans la même veine que ceux qui ont déjà été mis en place ces dernières années : suppression des redondances administratives, accès aux patients plus rapide par des dispositifs d’autorisation temporaire ou encore ouverture des données (Open Data) de l’assurance-maladie.

Le gouvernement veut s’appuyer sur l’Europe

Évidemment, le marché des biotech est tendu et la compétition féroce. Aussi, le gouvernement veut mobiliser l’Union européenne pour soutenir les entreprises d’innovation en santé. Rendez-vous est donc pris à Lyon en avril pour une conférence européenne sur les sujets du retour sur investissement des traitements innovants en santé et leur diffusion auprès des patients pour un coût acceptable pour les collectivités.

Par Sophie Hoguin

Kit Kat®, Nesquik®, Crunch®… comment la simulation met-elle la main à la pâte ?

Chez Nestlé, recherche, conception et fabrication d’une barre chocolatée impliquent des processus très élaborés, qui ne sont pas si différents de ceux de la chocolaterie spectaculaire de Willy Wonka. Bien qu’il n’y ait peut-être pas d’Umpa-Lumpas qui supervisent la production de confiseries, une réflexion approfondie et un zeste de simulation sont de mise pour perfectionner le processus.

Les ingénieurs du Centre de Technologie Produit à York, au Royaume-Uni (PTC York), travaillent entre autres sur la recherche et le développement de trois produits différents : un dispositif pour déposer le chocolat sur les barres chocolatées, une plaque de cuisson pour gaufrette et une extrudeuse, utilisée pour cuire et trier les céréales en même temps. Chez PTC York, siège de la R&D des produits de confiserie, les ingénieurs s’appuient sur la simulation multiphysique pour optimiser et simplifier le processus de production.

La R&D au service du chocolat

Les barres chocolatées, telles que les Kit Kat®, Aero®, Crunch, et les barres de chocolat au lait sont produites en utilisant un dispositif spécial qui remplit un moule avec du chocolat fondu. Le chocolat entre dans le dispositif par le haut via une conduite et ressort dans un moule via des buses.

nestle1
La géométrie SolidWorks® du dispositif de dépôt de chocolat
nestle2
Une simulation COMSOL Multiphysics® montrant la vitesse d’écoulement du chocolat dans les buses du dispositif et les canaux d’écoulement

« Afin que la quantité de chocolat dans chaque barre soit la même, il faut que les débits et les pressions de chocolat en sortie de toutes les buses soient également identiques », explique William Pickles, ingénieur procédé chez Nestlé. « Non seulement nous devons faire en sorte que chaque barre de chocolat ait le même poids pour optimiser les coûts et assurer la standardisation, mais aussi garantir que la valeur énergétique en calories indiquée sur l’emballage soit exacte. Cela nous permet de fournir des produits avec une teneur nutritionnelle précise qui puisse être intégrée dans l’équilibre alimentaire de nos clients. » Pour atteindre ce niveau de standardisation, les débits et les pressions des différentes buses sont à ajuster dans une plage étroite.

L’entreprise utilise une combinaison d’outils de modélisation et de simulation. La géométrie du dispositif de dépôt de chocolat a d’abord été conçue avec le logiciel SolidWorks® et a ensuite été importée dans COMSOL Multiphysics® pour étude. La simulation a été utilisée pour optimiser l’écoulement des fluides, tester les contraintes mécaniques et analyser les propriétés thermiques d’un design particulier.

« Chaque fabricant de chocolat possède sa recette spéciale pour produire du chocolat avec des caractéristiques uniques, » explique Pickles. « Nous avons entièrement modélisé le comportement non-newtonien de la signature du chocolat, en important dans le logiciel les données reliant le taux de cisaillement et la contrainte de cisaillement du fluide. Nous étions ainsi certains de modéliser un chocolat ayant les mêmes propriétés en écoulement que le produit réel. »

Grâce à la simulation, l’équipe a identifié les zones de débits élevés et faibles et a déterminé les différences de débit entre chacune des buses. Des sondes numériques ont été placées dans les canaux et aux extrémités des buses pour analyser les contraintes à certains endroits de la géométrie.

« En optimisant le design du dispositif de dépôt, nous avons réussi à atteindre un débit dans la section de chacune des buses très proche de la valeur souhaitée, soit un écart d’au maximum un dixième de pour cent, » précise Pickles.

Voici les résultats de cette simulation :

nestle3
Les sondes situées aux extrémités de chacune des buses et dans les canaux montrent que le débit du chocolat et la pression à l’intérieur du dispositif de dépôt et des buses varient selon les spécifications. Les lignes de courant indiquent le sens d’écoulement du chocolat

Le croustillant sauvé par la simulation

Que serait un Kit KAT® sans le croustillant bien connu de la gaufrette à l’intérieur? Lors de la cuisson d’une gaufrette, un chauffage inégal entraine des concentrations d’humidité différentes à l’intérieur de la gaufrette, gâchant ainsi sa texture croustillante ou causant même une cassure spontanée.

Dans le processus de cuisson de la gaufrette, deux plaques de cuisson sont utilisées pour comprimer la pâte (voir figure ci-dessous). Pendant la cuisson, les plaques sont passées au-dessus d’une série d’environ 40 flammes.

nestle4

nestle5
Deux plaques de cuisson (a) sont utilisées pour faire cuire les gaufrettes Kit Kat®. Les plaques supérieure et inférieure compriment la pâte (b), tandis que la flamme sous les plaques cuit la gaufrette (c)

« Nous utilisons la simulation pour optimiser le design de la plaque de cuisson, en regardant le flux d’air chaud en dessous et autour des plaques pour vérifier que le profil de température est homogène entre les surfaces des plaques », explique Pickles. « L’objectif de cette étude est de corriger la puissance du brûleur et son orientation afin d’obtenir la meilleure gaufrette, tout en réduisant la quantité de carburant utilisée. »

Les flammes sous les plaques de cuisson ont été modélisées sous la forme de jets d’air chaud, où le chauffage opère par convection.

A observer ci-dessous : le profil de la flamme sous la plaque de cuisson et le flux d’air autour de la plaque.

nestle6

« Nous avons validé notre modèle en comparant les résultats de simulation aux données expérimentales issues des dispositifs de plaques de cuisson, et nous avons constaté que les écarts étaient très faibles », dit Pickles. Les résultats montrent également comment des zones plus chaudes apparaissent en raison de l’augmentation de la conduction de chaleur à travers les boulons de fixation des plaques de cuisson :

nestle7
Distribution de température dans le support des plaques de cuisson
nestle8
Profil de température à la surface de la plaque de cuisson supérieure, où l’on peut voir des zones plus chaudes à l’emplacement des boulons (cercles blancs)

« La prochaine étape sera d’optimiser ce design pour répartir la chaleur le plus uniformément possible sur le haut de la plaque et minimiser les pics de température », conclut Pickles.

Cuire en Extrudant

Les céréales telles que les Cheerios®, Trix®, Nesquik® et beaucoup d’autres sont fabriquées par extrusion. « L’extrudeuse à haute température utilisée pour fabriquer certains types de céréales fonctionne en injectant la pâte à travers un moule. La pression et le frottement résultant font cuire la pâte par chauffage visqueux », explique Pickles, faisant référence à l’extrudeuse illustrée ci-dessous. « Les extrudeuses sont courantes parce que c’est un outil de production compacte et rentable ».

nestle9
Géométrie de l’extrudeuse

Pickles travaille sur la conception d’un boîtier pour viscosimètre, qui sera placé à l’intérieur de l’extrudeuse pour mesurer la viscosité de la pâte entrant dans le moule. Cela permettra de garantir une qualité constante pour la pâte et de faire en sorte qu’elle cuise de manière prévisible. « Pour ce design, nous devions nous assurer que l’enveloppe du viscosimètre pourrait résister à la haute pression régnant dans le dispositif, » souligne Pickles.

Dans le design initial de l’extrudeuse, le boîtier du viscosimètre ne pouvait pas supporter cette pression très élevée.

« Nous avons tout d’abord repensé la forme du boîtier, ce qui a contribué à réduire la pression. Ensuite, nous avons fait évoluer le design de l’injecteur afin d’éviter tout dépassement des seuils de contrainte, pour que le viscosimètre puisse être installé en toute sécurité », explique Pickles. De plus, la simulation a été utilisée pour vérifier que le déplacement de l’extrudeuse dans l’écoulement était limité, car des variations trop grandes entraîneraient une production de céréales de forme et de taille irrégulières (voir figure ci-dessous). Voici le boitier du viscosimètre et les résultats de simulation de l’injecteur :

nestle10
Contraintes de von Mises
nestle11
Coupe du déplacement total

« Chez Nestlé, la simulation est une part importante du processus de conception, de la production de chocolat aux gaufrettes, en passant par les céréales et tout le reste. Les produits étant destinés à la consommation, nous devons particulièrement veiller à la fiabilité de nos designs », conclut Pickles.

Par Alexandra Foley

La curiosité n’est pas un « vilain » défaut chez les souris

Dans notre quotidien, nous sommes fréquemment confrontés à des prises de décision. Quand il s’agit de choisir entre différentes options, celles-ci peuvent être sures et connues, ou bien plus incertaines. Estimer le « degré d’incertitude » associé à ces alternatives est indispensable pour prendre une décision adaptée. Cette évaluation joue sur notre motivation à tenter des actions aux conséquences incertaines, à être curieux. Elle peut aider à mieux connaître notre environnement et ainsi améliorer la réussite des actions futures. Ce mécanisme est clairement mis en œuvre dans les jeux d’argent comme le poker par exemple, mais aussi dans les marchés financiers ou dans la vie de tous les jours quand nous prenons des risques.

Jusqu’à présent, la manière dont l’évaluation de l’incertitude était régulée restait méconnue. L’équipe de Philippe Faure au laboratoire Neurosciences Paris-Seine (CNRS/UPMC/Inserm) a mis au point une expérience chez la souris permettant une analyse fine de ces comportements.

Première étape : les souris étaient placées dans une arène constituée de trois zones, chacune d’elle étant corrélée à l’obtention d’une récompense. Mais impossible pour elles d’obtenir deux récompenses consécutivement dans la même zone. Aussi, les souris ont vite appris à se déplacer de zone en zone pour obtenir une récompense. Une fois ce comportement acquis, les chercheurs ont, dans une deuxième étape, observé la réaction des souris en situation d’incertitude. Pour cela, ils ont associé à chaque zone une probabilité différente d’obtenir une récompense : 100% (soit la possibilité de recevoir une récompense à chaque fois, mais pas de manière consécutive) pour la zone A, 50% pour la zone B et 25% pour la zone C. Le résultat a été surprenant. En effet, les souris se sont avérées particulièrement motivées à se déplacer en zone B, celle associée à une incertitude maximale (50% de chance de ne pas avoir de récompense et 50% de chance d’en avoir une). Ce qui suggère qu’elles accordent une valeur positive à l’incertitude. En d’autres termes, elles attribuent une valeur à l’information, qui les pousse à être curieuses et à explorer leur environnement.

Afin de comprendre les mécanismes moléculaires sous-tendant ce type de comportement, les chercheurs ont ensuite testé des souris dépourvues du gène codant pour une sous-unité des récepteurs nicotiniques à l’acétylcholine2. Résultat : ces souris ont été capables d’apprendre à chercher les récompenses dans l’arène mais elles n’étaient pas motivées à se déplacer en zone incertaine (zone B) lors de la deuxième étape de l’expérience. En revanche, lorsque les scientifiques ont à nouveau introduit la sous-unité dans un noyau dopaminergique3 (l’aire tegmentale ventrale) de ces souris, la valeur positive de l’incertitude a été restaurée chez les rongeurs.

Ces résultats établissent clairement le rôle de l’acétylcholine dans la motivation induite spécifiquement par l’incertitude du résultat. Ce neurotransmetteur n’intervient pas dans la motivation pour obtenir des récompenses. La motivation intrinsèque à explorer l’inconnu serait donc dépendante du système de contrôle cholinergique des neurones dopaminergiques. Ces recherches suggèrent par ailleurs un lien neuronal possible entre l’addiction au tabac (la nicotine agissant sur les récepteurs nicotiniques des neurones dopaminergiques) et l’addiction au jeu pathologique. Les scientifiques vont désormais tâcher d’examiner comment ces comportements face à l’incertitude sont perturbés par des drogues telles que la nicotine.

Figurepress2
© Naudé, Faure (CNRS/UPMC/Inserm) Trajectoires de souris représentées dans différentes situations. Les ronds bleus indiquent les trois zones de récompenses et la probabilité d’obtenir une récompense. – A gauche : Trajectoire de souris sauvages dans le cas où la récompense est certaine. – Au milieu : Trajectoire de souris sauvages dans le cas où les récompenses sont incertaines. – A droite : Trajectoire de souris dépourvues du gène codant pour une sous-unité des récepteurs nicotiniques à l’acétylcholine, dans le cas où les récompenses sont incertaines.

Notes :
¹Le laboratoire fait partie de l’Institut de biologie Paris-Seine. Cette équipe a travaillé en collaboration avec une équipe de recherche CNRS/Institut Pasteur.
² Neurotransmetteur notamment impliqué dans la mémoire, l’apprentissage, l’attention et l’état de vigilance.
³Un noyau dopaminergique comprend des neurones qui délivrent la dopamine, un autre neurotransmetteur du cerveau, impliqué dans de nombreuses fonctions essentielles chez l’homme, comme le contrôle moteur, l’attention, la motivation, la mémoire et la cognition.

Références :
Nicotinic Receptors in the Ventral Tegmental Area promote Uncertainty-Seeking. J. Naudé, S. Tolu, M. Dongelmans, N. Torquet, S. Valverde, G. Rodriguez, S. Pons, U. Maskos, A. Mourot, F. Marti, P. Faure. Nature neuroscience . Mis en ligne le 18 janvier 2016.
DOI: 10.1038/nn.4223

Source : CNRS

Les cigarettes électroniques passent au biosourcé

« La question, c’est de savoir ce qu’il y a dans le liquide des vapoteuses. » s’interroge un jour Antoine Piccirilli, directeur scientifique du jeune laboratoire poitevin Xérès. « Du glycol, de la nicotine et des arômes » lui répond son futur associé Vincent Bonnarme. La réponse laisse le chimiste en arrêt. Glycol ? La molécule n’est pas inconnue de ce spécialiste en catalyse hétérogène qui a longtemps travaillé pour le département cosmétique de L’Oréal.

« Le propylène glycol utilisé dans le liquide des cigarettes électroniques est un irritant pour la peau notoire, explique le chimiste. Sa fabrication est également un gouffre de consommation en CO2. » Ce produit était auparavant très utilisé en cosmétique mais, depuis trois ou quatre ans, les entreprises le substituent par d’autres glucoses.

Selon Antoine Piccirilli, des discussions seraient même en cours pour le réglementer Spot 3 (toxicité pour certains organes cibles) dans la classification européenne des produits chimiques Reach. Mais ce glycol présente des avantages qui le rendent inévitable. C’est lui que l’on retrouve dans  les fumées utilisées en spectacles et, surtout, il bout à une température proche de celle de la nicotine (environ 170°C).

Du Glycol dans les cigarettes, une molécule irritante qu’évite l’industrie cosmétique

Pour remplacer ce produit issu du pétrole, les fondateurs du laboratoire Xérès utilisent les équipements de l’Institut de chimie des milieux et matériaux de Poitiers. Les analyses thermodifférentielle et thermogravimétrique leur permettent de repérer une substance qui convient à leurs attentes : le 1-3 propandiol, ou Végétol. Non-irritante, la molécule présente d’autres avantages sur le glycol. Son ébullition est encore plus proche de celle de la nicotine et sa basicité en fait un meilleur transporteur de cette toxine. Résultat : la nicotine est plus facilement absorbée par le corps humain.

Pour obtenir son Végétol de façon biologique, le laboratoire fait fermenter des levures avec de la glycérine végétale, un mélange d’huiles. « C’est comme faire de l’alcool avec du raisin, explique le directeur scientifique de Xérès. À la manière des bactéries du vin, qui consomment le sucre du fruit pour rejeter de l’alcool, notre levure consomme la glycérine et synthétise le Végétol. » Et la matière première n’est pas difficile à trouver : cette glycérine est un coproduit abondant de la fabrication des biodiesels.

Par Baptiste Cessieux

L’espace : Un marché porteur pour l’industrie nucléaire

Le Département américain à l’Energie (DOE) a annoncé en grande pompe fin décembre la production de 50 grammes (l’équivalent d’une balle de golf) de plutonium 238, destiné à la Nasa. Cette annonce marque une nouvelle étape dans la recrudescence des projets de la communauté scientifique américaine liés à l’exploration spatiale.

Plutonium 238

CuriositLe premier robot propulsé au plutonium s’est posé sur la planète Mars lundi 6 août 2012. Curiosity, c’est son nom, est un véhicule de la taille d’une petite voiture, qui prélève sur Mars des échantillons de roche et en étudie la surface. Tous ces systèmes sont alimentés en énergie et en chaleur par un générateur thermique à radio-isotope, contenant 4,8 kg de Plutonium 238, et fournissant 110-115 W de courant continu, produisant 2,7 kWh par jour. Cet isotope développe des propriétés qui lui ont permis d’obtenir rapidement les faveurs des experts. Avec une « demi-vie » de 87,7 ans – la demi-vie d’une substance radioactive est la période durant laquelle elle perd la moitié de sa radioactivité – le 238Pu libère suffisamment d’énergie et de chaleur pour alimenter les sondes d’exploration pendant plus d’un siècle. C’est ainsi que Voyager
1, la sonde spatiale lancée en 1977 continue d’envoyer des données alors qu’elle s’enfonce toujours plus dans l’espace. « Le 238Pu a démontré qu’il était une source d’énergie efficace là où l’utilisation de l’énergie solaire s’avère impossible. Son utilisation comme source d’énergie pour les engins spatiaux a été développée par les États-Unis et la Russie qui ont consacré plusieurs centaines de millions de dollars à son développement et sa production », rappelle la Société française de l’énergie nucléaire (SFEN).

Risques

L’utilisation de plutonium par la Nasa ne fait pas que des heureux. D’aucuns dénoncent le risque de propulser des engins équipés de tels isotopes. C’est le cas du réseau Sortir du nucléaire qui explique : « Le problème est celui d’accidents impliquant des vaisseaux spatiaux nucléaires, avec des relâchements de radioactivité touchant les humains et les autres formes de vie sur Terre ». Ce que craint avant tout l’ONG, c’est le risque d’accident sur le pas de tir : « La NASA, avant le lancement de Curiosity en novembre 2011, reconnaissait que si la fusée le transportant explosait lors du lancement à Cap Kennedy, du plutonium serait relâché, affectant une zone d’un rayon de 100 km, et si la fusée, échouant à échapper à la gravité de la Terre, retombait dans l’atmosphère avec Curiosity et se désintégrait, du plutonium serait alors dispersé sur une grande partie de la Terre entre environ 28 degrés de latitude nord et 28 degrés de latitude sud. Ceci comprend l’Amérique Centrale, la plus grande partie de l’Amérique du Sud, l’Asie, l’Afrique et l’Australie ». Pour rappel, dans sa déclaration d’impact environnemental consacrée à Curiosity, la NASA évaluait que les chances étaient de moins de 1 sur 220 pour que du plutonium soit dispersé durant sa mission.

Risque de pénurie

Les risques liés à l’utilisation du Plutonium 238 pourrait être drastiquement réduit pour une raison inattendue : sa pénurie. En effet, la production du 238Pu reste compliquée et coûteuse comme le rappelle la SFEN : « D’abord, vous avez besoin d’un réacteur avec le bon flux neutronique et de suffisamment de neptunium 237, matière première du plutonium. Vous avez ensuite besoin d’une petite usine de retraitement nucléaire pour séparer chimiquement le plutonium du combustible hautement radioactif. Au fil des ans, cet isotope a été produit par un certain nombre de pays, dont les États-Unis, la Russie et le Royaume-Uni ». Or, les stocks s’amenuisent et c’est pourquoi le DOE a décidé de relancer la production. Pour autant, de nombreux observateurs estiment qu’elle ne sera pas suffisante pour couvrir les besoins des différents projets en cours de développement.

L’alternative Américium 241

L’Europe s’intéresse de près à un autre isotope qui pourrait se substituer avantageusement au 238Pu : l’américium 241. Il est notamment présent en infime quantité (de l’ordre d’1 microcurie) dans les détecteurs de fumées installés dans les immeubles pour son rayonnement ionisant alpha. En grande quantité la production de chaleur est comparable à celle du 238Pu. L’Américium 241 peut être trouvé dans les déchets générés par les réacteurs nucléaires, mais son extraction est compliquée et coûteuse. Une autre piste consiste à exploiter la désintégration bêta du 241Pu. Lorsqu’un combustible nucléaire est usé, il est retraité pour séparer le plutonium, de l’uranium et des produits de fission. La France s’est faite une spécialité de ces opérations, et réutilise le plutonium pour fabriquer un nouveau combustible : le MOX. Le stockage à long terme de plutonium civil retraité pourrait permettre de produire de l’américium 241 isotopiquement pur, via la désintégration bêta. Cet américium a l’avantage d’être récupéré dans le plutonium stocké grâce à un procédé chimique relativement simple et rentable, sans travailler à partir du combustible usé hautement radioactif. Au Royaume-Uni, ce sont pas moins de 100 tonnes de plutonium recyclé qui pourraient être ainsi valorisées.

Adaptation

L’américium 241 se distingue du 238Pu par une demi-vie plus longue (432 ans) mais une puissance thermique plus faible 0,1 W/g (contre 0,4 W/g). Cela signifie qu’en cas de recours à l’241Am, les caractéristiques techniques des appareils devront être adaptées en fonction de cet état de fait. En 2009, l’Agence spatiale européenne (ESA) a financé un programme qui a établi la faisabilité de la production d’241Am, réalisé des pastilles-tests, développé et testé de nouveaux générateurs thermoélectriques adaptés à la température de l’américium 241. Actuellement, le programme européen met l’accent sur le développement de générateurs thermoélectriques à radio-isotopes évolutifs d’une puissance électrique de 10 à 50 W. Des niveaux encore insuffisants pour alimenter des robots comme Curiosity, mais déjà aptes à sustenter de petits engins spatiaux. En attendant mieux…

Romain Chicheportiche

 

Disco, le drone à ailes fixes signé Parrot

On le sait, à la grand-messe des technologies de Las Vegas, on voit de tout. Tout ce qui sera ou pourrait être demain. L’entreprise française Parrot, menée par Henry Seydoux, en a donc profité pour dévoiler sa dernière création, un drone à ailes fixes.

648x415_apres-quadricoptere-parrot-passe-ailes-volantes-disco

Une des particularités de disco, en tout cas vantée par Parrot, est qu’il ne nécessite aucun apprentissage. Ainsi, point besoin d’être un expert dans le maniement de ce genre d’appareil pour le prendre en main. Une facilité d’accès qu’apprécieront certainement les non-initiés. On le lance à la main, il s’envole. L’utilisateur n’a plus qu’à en prendre les commandes avec une application dédiée sur son smartphone. Disco gère lui-même son atterrissage.

parrot_disco_drone_front

Côté caractéristique, le drone peut atteindre les 80 km/h (on ne sait pas s’il en va de même par grands vents) et peut être piloté pendant 45 minutes. Il a été pensé pour un transport manuel aisé car en plus de sa légèreté, il pèse 700 grammes, ses deux ailes sont démontables. Enfin, il sera possible de capturer les vues du Disco puisqu’il dispose d’une caméra équipée d’un capteur haute résolution de 14 mégapixels et d’un stabilisateur optique.

Concernant sa commercialisation, aucune information précise n’a filtré au niveau de la date et du prix. On sait cependant qu’elle aura lieu en 2016.

Par Sébastien Tribot

Notre intelligence est-elle déterminée par nos gènes ?

Ces travaux partaient d’une base connue, comme le rappelle Michael R. Johnson, scientifique à l’Imperial College de London : « nous savons que la génétique joue un rôle dans l’intelligence ». Mais nous ignorions lesquels participaient à nos performances cognitives ni dans quelle mesure ils interagissaient entre eux.

Désormais, si l’on en croit l’étude qu’a publiée l’équipe menée par Michael R. Johnson dans la revue anglaise Nature Neuroscience, deux réseaux de gènes appelés M1 et M3 ont été identifié. Ces deux réseaux de gènes contiennent respectivement un millier et 150 gènes et sont employés constamment lors de nos activités. Ils déterminent en partie notre mémoire, notre attention, notre faculté à nous adapter, à raisonner, mais aussi notre rapidité de compréhension. Il s’avère également que ces groupes de gènes peuvent se détériorer avec le temps – ce que l’on appelle des mutations – et être à l’origine de maladies neuronales telles que l’autisme, la schizophrénie ou encore l’épilepsie. La question du rôle exact joué par chaque réseau reste toutefois à élucider.

Pour parvenir à la conclusion que M1 et M3 étaient impliqués dans l’intelligence, les chercheurs anglais ont étudié des échantillons de cerveaux de patients atteints d’épilepsie. C’est-à-dire qu’ils ont analysé des milliers de gènes sous toutes leurs coutures. Ils ont ensuite confronté leurs résultats avec ceux d’individus sains ayant effectué des tests de quotient intellectuel ainsi qu’à ceux atteints de troubles neurologiques (« troubles du spectre autistique, déficience mentale »). C’est à ce moment qu’est intervenue une aide informatique puisque toutes les données récoltées ont été analysées par ce biais ce qui a permis de découvrir que les gènes impliqués dans nos performances cognitives l’étaient également lorsque les gènes étaient altérés.

Michael R. Johnson s’est dit excité par les perspectives promises par cette découverte. Pourquoi ne pas, dans le futur, modifier ou manipuler ces groupes de gènes afin d’améliorer nos capacités cognitives, voire de soigner les gènes à l’origine de troubles neurologiques. Tout en restant prudent, « il ne s’agit pour le moment que d’une possibilité théorique ». D’autres travaux viendront sans doute compléter les compétences actuelles et confirmer ou infirmer cette hypothèse.

Par Sébastien Tribot

Cigéo : un coût politiquement (in)correct !

Ségolène Royal a tranché, conformément à la démarche officielle définie par la loi du 28 juin 2006, codifiée à l’article L.542-12 du code de l’environnement. Le coût officiel de Cigéo est désormais fixé à 25 milliards d’euros par l’arrêté du 15 janvier 2016. Il s’agit du coût global du projet, englobant  les études préalables, la construction, l’exploitation, le renouvellement des équipements,  la fermeture et la fiscalité sur une période de 140 ans à partir de 2016, « aux conditions économiques du 31 décembre 2011, année du démarrage des travaux d’évaluation des coûts ».

« Le coût arrêté constitue un objectif à atteindre par l’Andra [Agence nationale pour la gestion des déchets], dans le respect des normes de sûreté fixées par l’ASN [Autorité de sûreté nucléaire] »  et « s’appuie sur une coopération étroite entre l’Agence nationale pour la gestion des déchets radioactifs et les exploitants d’installations nucléaires », précise l’arrêté.

Conformément aux recommandations de l’ASN, cet arrêté prévoit la mise à jour régulière du coût de référence en raison des incertitudes qui subsistent. Cette réévaluation aura lieu lors d’étapes clés de développement du projet, notamment lors de l’autorisation de création, la mise en service, la fin de la phase industrielle pilote et lors des réexamens de sûreté.

Une démarche officielle définie par la loi

Selon la démarche officielle, dans un premier temps, l’Andra a transmis à Ségolène Royal un dossier de chiffrage de Cigéo en octobre 2014. L’évaluation s’élevait à 34,5 milliards d’euros « hors risques et opportunités », dont 19,8 milliards pour la construction, 8,8 milliards pour l’exploitation durant plus de cent ans et 4,1 milliards d’impôts et taxes. Il faut y ajouter 1,7 milliard de dépenses diverses : construction et exploitation du laboratoire souterrain, essais, simulations, analyse de l’environnement, communication…

Puis, la ministre en charge de l’énergie a recueilli les observations des producteurs en avril 2015 et janvier 2016 et l’avis de l’Autorité de sûreté nucléaire (ASN) en février 2015. L’ensemble de ces évaluations et observations n’ont été rendues publiques qu’en janvier 2016. Dans leurs observations, EDF, Areva et le CEA proposent de retenir un coût inférieur, de 20 milliards d’euros. « Il existe ainsi des visions différentes du chiffrage, selon la manière dont sont anticipés les progrès technologiques et les optimisations qui pourront être développées et valorisées dans les phases ultérieures des études », précisent les trois acteurs du nucléaire dans un communiqué. L’Andra et EDF vont renforcer leurs échanges techniques pour faire diminuer la facture. « EDF pourra appuyer l’Andra et la faire bénéficier de son expérience industrielle dans la phase de réalisation du projet », note le communiqué. De son côté, l’ASN estime que « certaines hypothèses retenues par l’Andra, d’ordre technique et économique, sont trop optimistes et de ce fait non conformes à l’impératif de prudence qui s’impose ». Pour l’ASN, le coût prévu par l’Andra pourrait donc être sous-évalué.

Mais seule l’évaluation arrêtée par le ministre sert de base à l’élaboration des provisions et représente le coût « objectif » à atteindre. Car pour limiter la charge portée par les générations futures, les producteurs de déchets (EDF, Areva et le CEA) doivent provisionner les coûts de gestion des déchets radioactifs qu’ils génèrent.

Une évolution constante des coûts ?

Malgré le cadre juridique défini, plusieurs estimations non officielles ont été annoncées. La première estimation des coûts de Cigéo par l’Andra date de 2003, pour un montant évalué entre 13,5 à 16,5 milliards d’euros 2002 (Md€2002).  De leur côté, les exploitants proposaient 14,1 Md€2002 Ces évaluations sont élaborés avec la valeur de l’euro, du prix du travail et des matières premières en 2002. Le chiffrage est donc régulièrement réévalué avec l’évolution de la fiscalité, des salaires, du prix des matières premières… En 2005, le Ministère arrête un montant de 15 Md€2005. Il s’agissait de la dernière évaluation arrêtée par le Ministère de l’énergie et la seule officielle.

Mais d’autres évaluations ont aussi circulé. En 2012, la Cour des comptes a notamment rendu publique une estimation des coûts de Cigéo par l’Andra, à hauteur de 35,9 Md€2010. Les exploitants ont quant à eux élaboré une contre-proposition, pour un coût de 14,4 Md€2010. Après avoir pris en compte les suites du débat public et des études d’optimisation, l’Andra a donc en réalité revu à la baisse son chiffrage dans sa dernière proposition.

Dans une note de synthèse, l’Andra rappelle qu’ « il n’est pas possible de réaliser des comparaisons directes entre des évaluations de coût différentes compte tenu des écarts de périmètres possibles et des nombreuses hypothèses sous-jacentes à chaque exercice de chiffrage ». Mais pourquoi le coût global a été multiplié par 2 entre 2005 et 2010 ? Il faut noter que les évaluations réalisées après 2005 reposent sur l’évolution des données techniques du centre, prenant en compte les objectifs de sûreté et de réversibilité et l’augmentation du volume de déchets, avec une durée de vie de réacteurs de 50 ans, contre 40 ans pour l’évaluation de 2005. Quoi qu’il en soit, tant que la phase pilote préalable d’expérimentation n’aura pas débuté, de nombreuses incertitudes persisteront sur l’inventaire à enfouir, la sûreté, les coûts, la récupérabilité des colis, les capacités d’évolution de l’installation pour accueillir des déchets supplémentaires…

Notons qu’une fois le site de stockage rempli, au bout d’une centaine d’année d’exploitation, le site sera fermé et ne nécessitera pas de maintenance humaine et donc aucun frais supplémentaire. C’est pourquoi l’évaluation des coûts porte sur une centaine d’années, malgré le fait que le centre stockera ses déchets pour au moins 100 000 ans après sa fermeture.

Quels sont les déchets pris en compte par ces évaluations ?

Le stockage de Cigéo prendra en charge l’ensemble des déchets de haute et moyenne activité à vie longue produits par toutes les installations nucléaires en fonctionnement ou autorisées (dont ITER et l’EPR de Flamanville). « Tous les déchets produits par les centrales autorisées ou existante pendant 50 ans sont pris en charge par Cigéo ; cela représente un volume de l’ordre de 80 000 m3 de déchets, 10 000 m3 de déchets de haute activité et 70 000 m3 de déchets de moyenne activité à vie longue », fait savoir l’Andra. Aujourd’hui, plus de 30 % des déchets de haute activité et 60 % des déchets de moyenne activité à vie longue sont déjà produits et entreposés dans des entrepôts de surface, notamment à La Hague.

Cigéo ne prévoit donc pas le stockage de déchets radioactifs d’un nouveau parc de réacteurs nucléaire. Si de nouveaux réacteurs EPR sont autorisés, il faudra soit adapter Cigéo et réévaluer son coût, soit créer un nouveau centre de stockage.

Malgré l’incertitude portant sur les coûts globaux de construction et d’exploitation de Cigéo, la Cour des comptes a estimé que le coût du stockage des déchets radioactifs ne représente que 1 à 2 % du coût total de production d’électricité sur l’ensemble de la durée d’exploitation d’un réacteur. Néanmoins, cette réévaluation a des conséquences sur les comptes et les actions du Groupe EDF et d’Areva.  Dans un communiqué, EDF explique que cette nouvelle évaluation aura pour conséquence, dans les comptes consolidés du Groupe EDF au 31 décembre 2015, une augmentation de l’ordre de 800 millions d’euros des  provisions à faire pour Cigéo. Cette augmentation des provisions se traduira par un impact négatif sur le résultat net part du Groupe 2015 de l’ordre de 500 millions d’euros net d’impôts.

Par Matthieu Combe, journaliste scientifique

Première lumière de la future machine à étudier des trous noirs

Le consortium européen qui a conçu et construit GRAVITY est très satisfait des performances obtenues. Ce consortium, regroupant des astronomes et des ingénieurs, est piloté par l’Institut Max Planck pour la Physique Extraterrestre de Garching. Au cours de cette première phase de tests, l’instrument a en effet déjà réalisé quelques « premières ». GRAVITY est le plus puissant des interféromètres installés à ce jour sur le VLT.

As part of the first observations with the new GRAVITY instrument the team looked closely at the bright, young stars known as the Trapezium Cluster, located in the heart of the Orion star-forming region. Already, from these first data, GRAVITY made a discovery: one of the components of the cluster (Theta1 Orionis F) was found to be a double star for the first time. The brighter known double star Theta1 Orionis C is also well seen. The background image comes from the ISAAC instrument on ESO's Very Large Telescope. The views of two of the stars from GRAVITY, shown as inserts, reveal far finer detail than could be detected with the NASA/ESA Hubble Space Telescope.
As part of the first observations with the new GRAVITY instrument the team looked closely at the bright, young stars known as the Trapezium Cluster, located in the heart of the Orion star-forming region. Already, from these first data, GRAVITY made a discovery: one of the components of the cluster (Theta1 Orionis F) was found to be a double star for the first time. The brighter known double star Theta1 Orionis C is also well seen. The background image comes from the ISAAC instrument on ESO’s Very Large Telescope. The views of two of the stars from GRAVITY, shown as inserts, reveal far finer detail than could be detected with the NASA/ESA Hubble Space Telescope.

L’instrument GRAVITY combine la lumière collectée par plusieurs télescopes afin de constituer un télescope virtuel dont le diamètre peut atteindre jusqu’à 200 mètres. Cette technique baptisée interférométrie, permet aux astronomes d’obtenir des images d’objets astronomiques avec une résolution – ou niveau de détails – supérieure à celle des images acquises par un unique télescope.

Depuis l’été 2015, une équipe internationale d’astronomes et d’ingénieurs conduite par Franck Eisenhauer (MPE, Garching, Allemagne) installe l’instrument dans des tunnels prévus à cet effet situés sous le Very Large Telescope de l’Observatoire Paranal de l’ESO au nord du Chili. Il s’agit de la première phase de la mise en service de GRAVITY sur le Very Large Telescope Interferometer (VLTI).. Une étape cruciale vient d’être franchie : pour la toute première fois, l’instrument a combiné avec succès la lumière stellaire collectée par les quatre Télescopes Auxiliaires du VLT.

« À l’occasion de sa première lumière, et pour la toute première fois dans l’histoire de l’interférométrie optique astronomique, GRAVITY a pu réaliser des poses de plusieurs minutes, plus de cent fois plus longues que ce qui était possible jusqu’à présent », précise Franck Eisenhauer. « GRAVITY va permettre d’étendre l’interférométrie optique à l’observation d’objets beaucoup moins lumineux, et repoussera bien au-delà des limites actuelles la sensibilité de l’astronomie à haute résolution angulaire ».

Parmi les observations de cette première campagne, l’équipe a pointé l’instrument sur de jeunes étoiles brillantes de l’Amas du Trapèze situé au cœur de la région de formation stellaire de la constellation d’Orion. Ces premières données de test ont déjà permis à GRAVITY d’effectuer une petite découverte : l’un des composants de l’amas est un système d’étoiles doubles.

Le succès de cette opération reposait sur la capacité à stabiliser le télescope virtuel suffisamment longtemps, en utilisant la lumière issue d’une étoile de référence, pour permettre une pose longue sur un second objet bien plus faible. En outre, les astronomes sont parvenus à stabiliser la lumière provenant simultanément de quatre télescopes – un exploit inédit avec ce niveau de performance.

GRAVITY peut mesurer la position d’objets astronomiques avec la plus haute précision, faire de l’imagerie interférométrique ainsi que de la spectroscopie. À titre d’exemple, il pourrait apercevoir des éléments de construction sur la Lune et les localiser à quelques centimètres près. L’imagerie à une résolution aussi extrême a de nombreuses applications. Mais l’objectif principal de GRAVITY est d’étudier l’environnement des trous noirs.

GRAVITY étudiera notamment les effets de l’intense champ gravitationnel régnant à proximité de l’horizon des événements du trou noir super-massif situé au centre de la Voie Lactée – ce qui explique le choix du nom de l’instrument. Ces effets sont dominés dans cette région par la théorie de la relativité générale d’Einstein. Par ailleurs, GRAVITY observera en détail les phénomènes d’accrétion et de jets de matière qui se produisent à proximité des trous noirs super-massifs au centre des galaxies ainsi que dans l’environnement des étoiles nouvellement formées. Il excellera également dans l’étude  des mouvements des étoiles binaires, des exoplanètes et des disques autour des étoiles jeunes, et dans l’imagerie des surfaces d’étoiles.

Jusqu’à présent, GRAVITY a été testé avec les quatre Télescopes Auxiliaires d’1,8 mètre. Les premières observations avec les quatre Télescopes Unitaires de 8 mètres du VLT sont prévues pour 2016.

Le consortium GRAVITY est piloté par l’Institut Max Planck pour la Physique Extraterrestre de Garching en Allemagne. Les autres institutions partenaires sont :

  • LESIA, Observatoire de Paris, PSL Research University, CNRS, Sorbonne Universités, UPMC Univ. Paris 06, Univ. Paris Diderot, Sorbonne Paris Cité, Meudon, France
  • Institut Max Planck pour l’Astronomie, Heidelberg, Allemagne
  • 1. Institut de Physique, Université de Cologne, Cologne, Allemagne
  • IPAG, Université Grenoble Alpes/CNRS, Grenoble, France
  • Centre Pluridisciplinaire d’Astrophysique, CENTRA (SIM), Lisbonne et Porto, Portugal
  • ESO, Garching, Allemagne
  • Le Centre Français de Recherche Aérospatiale (ONERA)

Source : eso

Le photovoltaïque rentable sans subventions en 2020

Le coût d’installation des panneaux photovoltaïques ne cesse de décroître. En France, il a ainsi été divisé par quatre entre 2007 et 2014 pour une centrale au sol. À en croire la prospective de l’Ademe, les coûts des composants des panneaux solaires devraient encore diminuer de l’ordre de 35 % d’ici 2025, par rapport à 2014. De quoi rendre ces panneaux compétitifs face à l’électricité issue du réseau, et ce, sans subventions, dans les zones françaises les plus ensoleillées.

« La rentabilité des centrales au sol apparaît en 2021 dans le sud de la France », analyse l’Ademe.

« La rentabilité de l’autoconsommation sans stockage pour les grandes toitures apparaît en 2021 dans le sud de la France si les prix de marché et de détails restent similaires, et si 70 % de l’énergie produite est autoconsommée », précise l’Ademe. De plus, pour les petits systèmes, sans stockage, le seuil de rentabilité sans subvention pour les particuliers pourrait apparaître en 2020 dans le sud. Ce seuil dépendra néanmoins fortement du taux d’autoconsommation. Dès lors, il sera plus rentable pour un acteur d’investir dans un système photovoltaïque s’il consomme l’intégralité  de sa production à la place de soutirer l’électricité sur le réseau. Néanmoins, « le volume concerné est encore incertain », note l’agence.

Jusqu’à 1000 MW par an entre 2020 et 2025

Cette compétitivité concerne donc la production issue des centrales au sol face aux offres de fourniture classiques et, à terme, avec les marchés de gros. Mais face à l’augmentation des prix de l’électricité sur le marché de détail, elle concerne aussi l’autoconsommation pour certains bâtiments tertiaires et industriels équipés de grandes toitures photovoltaïques. Sans subventions, la filière se développera dans le sud pour des raisons économiques et cette nouvelle compétitivité pourrait permettre la construction de 100 MW/an sur ces deux segments sur la période 2020-2025, selon les projections de l’agence.

Par ailleurs, le photovoltaïque se développera pour des raisons réglementaires. Dans le cadre de la future réglementation thermique (RT 2020), les bâtiments neufs devront être à énergie positive en 2020. L’Ademe prévoit donc un pic de développement de capacité à partir de 2021. En fonction du cadre réglementaire final qui sera défini, « c’est entre 550 et 900 MW/an qui pourraient être installés sur des bâtiments neufs résidentiels ou tertiaires », estime l’Ademe.

Une rentabilité différente selon les régions

Le rapport souligne les disparités régionales. Si le photovoltaïque sera compétitif dans le sud de la France dès 2020, la réalité devrait être différente dans le nord. Et pour cause : l’ensoleillement en France varie de 1800  à 1150 kWh/m2/an selon les régions. Cela a des conséquences importantes sur le prix auquel l’électricité doit être vendue pour atteindre le seuil de rentabilité d’un projet. Ainsi, en 2014, une centrale au sol située dans le Nord-Pas-de-Calais devait vendre son électricité à un prix 57% supérieur qu’en PACA pour être rentable.

Pour assurer le développement du photovoltaïque dans l’ensemble des régions françaises, l’Ademe recommande donc d’introduire une modulation régionale des tarifs d’achat entre 2016 et 2020. Ainsi, la technologie pourra se développer avec des subventions modulées à la hausse dans le nord, mais à la baisse dans le sud. De quoi équilibrer le seuil de rentabilité des projets au niveau national.

Par Matthieu Combe, journaliste scientifique

Le paiement sans contact et sans… sécurité

Sur le papier, le paiement sans contact présente des atouts séduisants : en quelques secondes un client peut payer sa baguette ou son journal en passant sa carte bancaire devant un lecteur ad hoc. Plus besoin de taper son mot de passe. Les banques incitent les consommateurs à utiliser cette solution reposant sur la technologie NFC (pour Near Field Communication, communication en champ proche) qui ne fonctionne qu’à une faible distance, inférieure à 10 centimètres.

Résultat environ 31,5 millions de cartes de paiement sans contact circulent en France. Mais combien de personnes savent qu’ils disposent de ce moyen de paiement ? Et combien en connaissent les risques ?

Très peu, certainement. Après avoir lu cet article, ils seront certainement plus méfiants. Outre-Rhin des experts en sécurité informatique du célèbre Chaos Computing Club ont présenté récemment les failles de deux protocoles de communication exploités par les lecteurs de cartes : ZVT (Zahlungverkehrsterminal) et Poseidon. Le premier est utilisé, majoritairement en Allemagne, en jonction avec les systèmes de caisses en point de vente. Le second fait le lien avec les banques, en tant qu’implémentation du standard ISO 8583 (spécifications d’échange de messages dans le cadre de transactions financières).

Le premier n’embarque pas de mécanisme d’authentification. Une personne mal intentionnée qui se trouve à quelques centimètres de vous (dans le métro par exemple) peut récupérer à votre insu des informations sur votre carte et notamment son code PIN.  Une simple application téléchargeable gratuitement sur internet permet de capter, via un smartphone compatible MSC, les informations confidentielles contenues sur une carte bancaire équipée de la technologie NFC. « En posant le téléphone sur la carte, on obtient des informations de la personne. On a la civilité, le numéro de carte, la date d’expiration, donc les deux informations qui servent à payer », explique à l’émission de la RTS Nicolas Chauveau, étudiant au laboratoire de cryptologie et de virologie opérationnelle de l’ESIEA, en France.

La cause ? Une mauvaise implémentation du MAC (le code d’authentification de message) destiné à prouver que les données proviennent d’un tiers de confiance et qu’elles n’ont subi aucune modification.

Concernant Poseidon, le piratage est plus délicat, car il faut disposer d’un lecteur de cartes qui sera configuré à l’identique de celui de la victime. Lors des échanges d’informations avec l’organisme qui traite les paiements, le terminal du marchand envoie son identifiant. Cette connexion est chiffrée, mais elle est aussi lisible sur chaque reçu imprimé… Autre grave erreur, le mot de passe de la liaison chiffrée est généralement le même pour tous les marchands associés à un même organisme de gestion des paiements. En quelques secondes, un hacker peut le découvrir avec un logiciel spécial ou en cherchant un peu sur le web les mots de passe de tel ou tel organisme.

Ces révélations ne font que confirmer les craintes de plusieurs experts dont Renaud Lifchitz, ingénieur sécurité chez BT (anciennement British Telecom) qui avait mis au jour un gros problème de sécurité dans les nouvelles cartes bancaires utilisant la technologie NFC en 2012.

De son côté, Pierre-Alain Fouque. Ce spécialiste de la cryptographie au sein de l’Institut de recherche en informatique et systèmes aléatoires (Irisa), à Rennes, reconnaît que « des mesures ont été prises pour éviter que quelqu’un vide votre compte bancaire, en limitant une transaction à 20 euros, et de telle manière qu’on ne puisse pas faire plus de trois ou quatre paiements sans contact par jour ». En revanche, « il n’y a pas de réelles mesures de sécurité à l’intérieur des cartes bancaires pour éviter ce type d’attaque ».

Par Philippe Richard

Diya One, le robot anti-pollution

Pendant quelques mois, un drôle d’engin autonome a déambulé dans les couloirs de Engie Cofely (ex-Cofely Services). Sa mission, c’était d’épurer l’air ambiant, de le débarrasser des particules fines et autres composés organiques volatils (COV) qui pouvaient empoisonner la santé du personnel occupant ces bureaux. Ce robot porte le nom de Diya One. Il s’est envolé avec son géniteur, Ramesh Caussy, au CES de Las Vegas pour y faire la démonstration de son savoir-faire. Cet événement, profitant d’une forte exposition médiatique et d’un grand rayonnement international, est une aubaine dans une perspective de commercialisation, prévue cette année.

La pollution, Ramesh Caussy en connaît hélas trop bien les méfaits. Sa propre fille souffre de maladies chroniques imputées à la mauvaise qualité de l’air. Mais à quelque chose, malheur est bon. Il y puise la motivation nécessaire à la réalisation d’un robot dont le rôle serait de purifier l’air à proximité des humains. Ce docteur ès sciences de l’Ecole Polytechnique se lance seul dans ce projet dès 2007, dans le grenier de son domicile situé à La Frette (Val d’Oise). Il crée la même année la société Partnering Robotics, dont l’effectif compte aujourd’hui 23 personnes. C’est en 2015 que les choses s’accélèrent grâce à une levée de fonds et à la signature d’un partenariat avec Cofely Services, dont l’objet est l’évaluation de 6 robots en situation réelle. Les compétences de Diya One reçoivent même la validation du Centre scientifique et technique du bâtiment (CSTB).

diya_one

Analyse, brassage et filtrage

Ce robot mobile d’environ 80 centimètres de haut a pour mission première d’analyser de nombreux paramètres de l’air grâce à une série de capteurs : température et hygrométrie, mais aussi le taux de CO2, la concentration en ozone, en particules fines, en COVs… Puis, si nécessaire, il enclenche un processus de brassage et de filtration pour diminuer la présence de ces éléments nocifs. C’est en quelque sorte une pompe à air ambulante, qui circule de manière autonome. «Diya One ne se cognera pas aux personnes ou aux objets, précise Ramesh Caussy. Il est capable de passer des portes ou de prendre l’ascenseur.» Il peut aussi effectuer des rondes selon un trajet prédéfini et bénéficie d’une dizaine d’heures d’autonomie. Quand la batterie est en voie d’épuisement, Diya One se dirige seul vers sa base de recharge, à l’instar des robots-aspirateurs domestiques.

Les données récupérées et traitées par le Diya One jouent un double rôle. «Elles sont affichées sur le Diya Board, explique Ramesh Caussy. C’est un écran visible par tous qui permet aux gens d’être rassurés sur leur environnement de travail et la qualité de l’air intérieur. En outre, ces données permettent d’analyser l’environnement, de le répertorier et de comprendre les facteurs prépondérants pour améliorer le bien-être des occupants du bâtiment.» La phase d’expérimentation réalisée dans les locaux de Engie Cofely a été positive, selon Ramesh Caussy : «La capacité de navigation de Diya One et sa discrétion sont concluantes. Et cette présence est perçue comme bienveillante du fait du bénéfice rendu : épurer l’air.»

L’acceptation du Diya One sera en effet un facteur clé de sa réussite commerciale, d’autant que ce robot pourrait croiser des publics très différents au vu des débouchés potentiels  : les EPHAD (établissements d’hébergement pour personnes âgées dépendantes), les musées (plus l’air est sain, mieux les œuvres sont conservés), etc. Quoi qu’il en soit, le contexte est favorable à en croire certaines prévisions, qui estiment que le marché de la robotique de services pourrait peser 100 milliards d’euros en 2020.

Par Frédéric Monflier