Comment exploiter les océans de manière durable ?

De même qu’une personne ne peut vivre sans un cœur et des poumons sains, la Terre ne peut pas survivre sans des mers et des océans sains. Ils remplissent le rôle de système respiratoire de la Terre, produisant de l’oxygène et absorbant les émissions de dioxyde de carbone et les déchets. Ils sont utilisés à des fins de stockage et absorbent 30 % des émissions de dioxyde de carbone dans le monde, tandis que le phytoplancton libère 50 % de l’oxygène nécessaire à la survie, et participent à la régulation du climat et des températures, rendant la planète hospitalière pour différentes formes de vie.

Les océans et les mers sont essentiels au bien-être économique et social. L’activité économique liée aux océans représente entre 3 000 et 6 000 milliards de dollars, contribuant à l’économie mondiale de nombreuses façons.

Quelques exemples

  • 90 % du commerce mondial se fait par voie maritime.
  • 95 % des télécommunications transitent par les câbles sous-marins.
  • Les pêcheries et l’aquaculture assurent plus de 15 % de la consommation annuelle de protéines animales à 4,3 milliards de personnes.
  • Plus de 30 % de la production de pétrole et de gaz dans le monde sont extraits des fonds marins.
  • Le tourisme côtier est le segment de marché le plus important de l’économie mondiale, représentant 5 % du produit intérieur brut (PIB) mondial et 6 à 7 % des emplois dans le monde.
  • Des connaissances plus approfondies de la biodiversité marine ont permis de faire des percées dans des secteurs comme l’industrie pharmaceutique, la production alimentaire et l’aquaculture.
  • 13 des 20 mégapoles au monde sont situées en zones côtières.
  • Les marées, les vagues, les courants et les vents marins au large des côtes sont des sources d’énergie qui peuvent considérablement contribuer à produire une énergie à faible émission de carbone dans de nombreux pays côtiers.

Les océans et les mers sont essentiels au bien-être social. Plus de 40 % de la population mondiale, soit 3,1 milliards de personnes, vit à 100 km des côtes dans près de 150 pays côtiers ou insulaires. Qu’un pays soit enclavé ou ait un littoral, toutes les nations ont un accès direct aux océans et aux mers par les fleuves, les lacs ou les rivières. Les nations ont accordé une importance significative aux ressources offertes par les océans et les mers, représentant plus de 60 % du produit national brut (PNB) mondial. En particulier, l’activité économique côtière est la force vive des pays côtiers et insulaires.

Les activités, comme la pêche durable, la production d’énergie renouvelable, l’écotourisme et les « transports maritimes verts », ont permis aux nations d’augmenter le taux d’emploi et d’améliorer l’assainissement tout en diminuant la pauvreté, la malnutrition et la pollution. Les économies axées sur les océans offrent de plus grandes possibilités d’autonomisation et d’emploi aux femmes qui constituent l’essentiel de la main-d’œuvre concentrée dans les activités secondaires dans les secteurs de la pêche et de l’aquaculture. L’augmentation de l’emploi des femmes consolide la vitalité économique des petites communautés isolées et améliore la condition féminine dans les pays en développement.

En même temps, les populations côtières et insulaires sont parmi les plus vulnérables aux changements climatiques. Les océans, les mers et les zones côtières connaissent des phénomènes climatiques extrêmes de plus en plus fréquents et intenses, comme des ouragans, des typhons et des cyclones plus dévastateurs. Ces régions sont également affectées par l’acidification des océans, la hausse du niveau de la mer, les modifications de la circulation océanique et la salinité. Ces changements sont notables non seulement dans les zones côtières, mais aussi à l’intérieur des terres en raison de l’influence grandissante des courants océaniques sur les systèmes météorologiques. D’ici à 2050, on estime que 50 à 200 millions de personnes dans le monde seront déplacées en raison des effets négatifs des changements climatiques, menaçant la sécurité alimentaire, les moyens de subsistance et la stabilité sociale non seulement dans les pays côtiers et insulaires, mais dans tous les pays qui prêteront assistance aux populations déplacées. Des mesures visant à renforcer l’atténuation et l’adaptation doivent être prises afin d’être mieux préparés à faire face aux situations d’urgence et aux catastrophes, de mettre en place des systèmes d’alerte rapide et des centres d’observation et de concevoir des plans pour l’aménagement et la gestion des zones côtières.

Elizabeth Thompson, Co-Executive Coordinator de la conférence RIO+20

Source : Extrait du Rapport du Groupe de travail ouvert de l’Assemblée générale sur les objectifs de développement durable, 12 août 2014 (A/68/970), UN Chronicles

Les ressources marines exploitées : sel, potassium et magnesium

Le sel

Le sel, ou chlorure de sodium, est présent dans l’eau de mer à une concentration d’environ 3 %. Par conséquent, il constitue à lui seul plus de 80 %  – en quantité – des éléments chimiques dissous dans l’eau de mer.

La quantité disponible de sel dans tous les océans est si énorme qu’elle pourrait subvenir aux besoins humains pour des centaines, voire des milliers d’années.

sel_de_mer

Même si le sel est extrait directement des océans dans de nombreux pays par évaporation de l’eau, la majorité des 200 millions de tonnes produites dans le monde annuellement provient de grands « lits » de sel.

Ces lits, maintenant profondément enterrés, se sont formés quand les eaux des mers peu profondes ou des bassins marginaux se sont évaporées, laissant d’épaisses couches résiduelles de sel apparaître. Les lits ont ensuite été recouverts et protégés de la dissolution ou/et de la destruction.

Potassium

Comme le sodium, et le chlore de sel, le potassium se produit en grandes quantités dans l’eau de mer, mais sa concentration moyenne d’environ 1 300 ppm est généralement trop faible pour permettre l’extraction économique directe.

potassiumLes sels de potassium  se produisent dans des milieux riches en  évaporites.   On en extrait des millions de tonnes de sel par an.  Les sels de potassium, eux, se sont déposés lorsque l’eau de mer s’est évaporée à 95 % (!).

Magnesium

Le magnésium, dissous dans l’eau de mer à une concentration d’environ 1000 ppm, est le seul métal directement extrait de l’eau de mer.

Magnesium

Actuellement, environ 60 % du magnésium métallique et un grand nombre des sels de magnésium produits aux Etats-Unis sont extraits de manière électrolytique de l’eau de mer. La partie restante du métal de magnésium et des sels est extraite de dépôts marins anciens où les sels ont précipité lors de l’évaporation ou se sont formés au cours de la diagenèse. Les principaux minerais extraits à cet effet sont la magnésite (MgCO 3) et la dolomie (CaMg [CO 3] 2).

Source

  • Craig, James R., David J. Vaughtan, et Brian J. Skinner. Ressources de la Terre: origine, l’utilisation, l’impact environnemental, 3e éd. Upper Saddle River, NJ: Prentice Hall, 2001.
  • Lahman, HS, et JB Lassiter III. L’évolution et l’utilisation des ressources minérales marines. Books for Business 2002.
  • http://www.waterencyclopedia.com/Mi-Oc/Mineral-Resources-from-the-Ocean.html

Traduit par S.Luc

Quelles ressources minérales au fond des océans ?

Ils sont le dépositaire ultime de nombreux matériaux érodés ou dissous à la surface de la terre. Par conséquent, les océans contiennent de grandes quantités de matériaux qui constituent actuellement des ressources majeures pour l’homme.

Aujourd’hui, l’extraction directe des ressources est limitée au sel, au magnésium, à l’or, l’étain, le titane, les diamants et l’eau fraîche.

Sel marin

Les dépôts océaniques anciens de sédiments et d’évaporites maintenant situés sur des terres ont été initialement déposés dans des conditions marines. Ces dépôts sont aujourd’hui exploité à très grande échelle, et en priorité par rapport aux dépôts sous-marin, en raison évidemment des coûts d’exploitation comparés. L’exploitation terrestre coûte moins cher, même si elle augmente avec la rareté des ressources, à l’inverse de l’exploitation marine qui voit ses coûts diminuer.

Des monticules de sel de mer ont été extraits de lits profondément enfouis et déposés lorsque l’eau de mer s’est évaporée, il y a quelques millions d’années.  Les lits ont été préservés en étant recouvert puis se sont « relevés », dans un cadre terrestre. Aujourd’hui l’exploitation minière fournit la majorité de la production de sel, le reste étant obtenu par évaporation de l’eau dans l’océan.

Pour autant, l’augmentation de la population humaine et l’épuisement des ressources terrestres combinés va rendre la facilité d’extraction du sel de moins en moins… facile. L’exploitation des ressources de sel des océans est un défi quasi actuel.

Quelles sont les ressources minérales principales ?

Les ressources actuellement extraites des mers et des zones qui ont un jour été marines sont hétérogènes : des matériaux de construction classiques aux métaux utilisés pour la haute technologie, en passant par… l’eau elle-même.

Les analyses chimiques ont démontré que l’eau de mer contient environ 3,5 % de solides dissous, avec au total plus de soixante éléments chimiques identifiés.

L’extraction des éléments dissous et des ressources minérales solides dans les milieux marins rencontre aujourd’hui un obstacle principalement économique. Elle est peu rentable. Pour le moment. La situation géographique des « gisements » peut aussi être un obstacle en termes de propriété et de transport.  La profondeur des bassins océaniques concernés peut constituer un obstacle technologique supplémentaire.

Source

  • Craig, James R., David J. Vaughtan, et Brian J. Skinner. Ressources de la Terre: origine, l’utilisation, l’impact environnemental, 3e éd. Upper Saddle River, NJ: Prentice Hall, 2001.
  • Lahman, HS, et JB Lassiter III. L’évolution et l’utilisation des ressources minérales marines. Books for Business 2002.
  • http://www.waterencyclopedia.com/Mi-Oc/Mineral-Resources-from-the-Ocean.html

Traduit par S.Luc

Comment exploiter les métaux et l’eau des océans ?

Dépôts métalliques associés au volcanisme sous-marin

Les études sous-marines des rifts océaniques ont révélé la présence de gisements importants de zinc, de cuivre, de plomb, d’or et fumeur-noird’argent… Ces éléments se forment sur les sites volcaniques immergés où se développent des émanations hydrothermales appelées fumeurs noirs. Ces fumeurs noirs sont à l’origine du dépôt des métaux dissous dans l’eau chaude remontant des profondeurs, tout le long des grandes fractures du plancher océanique.

Un réservoir énorme, mais qui n’est pas exploité aujourd’hui, le rift océanique étant situé à une profondeur très importante (6000 mètres), ce qui rend difficile tout travail sur site.

Or, étain, titane et diamants

Les accumulations de minéraux résistants et insolubles issus de l’érosion de roches situés le long de cours d’eau ou sur les côtes océaniques sont à l’origine de gisements métalliques. Les plus prometteurs de ces dépôts sont riches en or, en étain, en titane et en diamant.

Aujourd’hui, une grande partie de l’étain exploité et beaucoup de diamants (pour la joaillerie) sont récupérés par dragage près des côtes océaniques où les sédiments minéraux ont été déposés en mer par les rivières.

L’or a été exploité dans un passé récent via ces dépôts, particulièrement à Nome, en Alaska.

titaneDe grandes quantités de minéraux de titane sont également exploitées le long des plages et à proximité des côtes, mais uniquement en milieu terrestre, encore une fois en raison de coûts d’exploitation plus compétitifs.

Source

  • Craig, James R., David J. Vaughtan, et Brian J. Skinner. Ressources de la Terre: origine, l’utilisation, l’impact environnemental, 3e éd. Upper Saddle River, NJ: Prentice Hall, 2001.
  • Lahman, HS, et JB Lassiter III. L’évolution et l’utilisation des ressources minérales marines. Books for Business 2002.
  • http://www.waterencyclopedia.com/Mi-Oc/Mineral-Resources-from-the-Ocean.html

Traduit par S.luc

Diminution des récifs coralliens : quelles causes ?

Les récifs coralliens, qui représentent environ 0,5 % des fonds marins, sont des structures complexes à trois dimensions qui se sont formées au cours de milliers d’années résultant d’un dépôt de carbonate de calcium qui constitue leur squelette. On appelle souvent ces récifs la « forêt pluviale de la mer ». Cette comparaison sous-estime la complexité des récifs coralliens, qui présentent une plus grande diversité de la faune et de la flore que les forêts pluviales, recyclent les nutriments à travers des réseaux trophiques complexes et offrent de la nourriture à tous les niveaux de la chaîne alimentaire.

Historiquement, la mer a constitué un réseau de transport vital, a été une source de nourriture et un lieu d’activités récréatives favori. La plupart de grandes villes se sont bâties autour des ports de commerce. Aujourd’hui, environ 80 % de la population mondiale vit à une centaine de kilomètres des côtes, dépend de la mer pour assurer ses moyens d’existence (environ 3,5 milliards de personnes). En effet, la survie des populations les plus vulnérables du monde dépend de la mer. L’importance économique de celle-ci est constatée dans les services écosystémiques fournis par les pêcheries, le tourisme, la protection des côtes et dans son rôle comme source de matières premières. Cette dépendance à la mer est aujourd’hui menacée par les conditions environnementales dues au changement climatique mondial.

La réalité établie des changements climatiques

Le Quatrième rapport d’évaluation du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC 2007) a présenté des preuves solides démontrant qu’au cours de la dernière décennie le réchauffement de la planète a largement été causé par les activités humaines, comme l’utilisation des combustibles fossiles, la déforestation et la conversion des terres pour un usage agricole. Depuis 1850, la température moyenne a augmenté de 0,8 °C et d’autres analyses ont montré que depuis les années 1970 chaque décennie était plus chaude que la précédente. Depuis le milieu du XIXe siècle, début de la révolution industrielle, jusqu’au début du XXIe siècle, la concentration en dioxyde de carbone (CO2) a augmenté de 280 à 388 parties par million (ppm). Selon les estimations du GIEC, la tendance au réchauffement de la planète devrait continuer avec une augmentation de la température moyenne mondiale de 2,5 à 4,7 °C en 2100 par rapport aux niveaux pré-industriels.

Changements environnentaux anticipés

Afin d’évaluer les effets du changement climatique sur les récifs coralliens et l’environnement marin, nous devons examiner les changements environnementaux anticipés et évaluer la capacité des organismes marins à s’adapter à ces changements. Les modèles climatiques indiquent que la température de la mer en surface augmentera de 1 à 3 °C, tandis que le niveau de la mer augmentera de 0,18 à 0,79 mètre. Il est probable que les conditions climatiques régionales changeront, ce qui augmentera la fréquence et l’intensité des tempêtes, en particulier des cyclones. En outre, les modèles de circulation océanique seront probablement modifiés et le pH des océans devrait diminuer en raison de l’absorption du CO2.

Par MARCIA CREARY, Environmental Data Manager

Source : http://unchronicle.un.org/article/impacts-climate-change-coral-reefs-and-marine-environment/index.html

Pourquoi vous passez tant de temps au travail ?

Inscription gratuite à la conférence en ligne du 11 février

Depuis quelques décennies, de nombreuses et récurrentes études confirment que 90% des cadres se plaignent de ne pas maîtriser leurs emplois du temps professionnel. Selon les circonstances, ils en attribuent la faute au management, à la direction, aux clients, aux processus, à la société de consommation, à la crise, à la concurrence, à la globalisation, etc.

Pourtant, la sagesse populaire nous rappelle qu’on ne saurait faire boire un âne qui n’a pas soif. Ainsi, au cours de ce webinaire, vous aurez l’occasion de clarifier cette question irrésolue du « work/life balance » comme nos amis anglosaxons la qualifient.

En s’inspirant de l’approche Gestalt OD, ce webinaire ambitionne également de vous donner un aperçu des potentialités de cette approche lorsqu’elle s’applique au développement des Hommes et des Organisations.

Nous avons souhaité une grande interactivité et votre participation sera souvent sollicitée. Enfin, nous vous invitions à vous munir d’une feuille de papier, d’un crayon et d’une règle pour tirer le meilleur profit de cette séance à l’issue de laquelle vous pourrez échanger avec l’animateur de la conférence, Dino Ragazzo.

Dino Ragazzo a été successivement technicien commercial, ingénieur d’essais, directeur technique, chef d’une entreprise d’ingénierie électrique et de maintenance nucléaire et conseiller de la direction générale d’un grand groupe industriel. Il est le fondateur d’EXPERIENCE (conseil, coaching, formation, développement organisationnel), et est également l’auteur de l’ouvrage Manager d’élite.

Inscrivez-vous dès maintenant et faites-nous part des questions que vous aimeriez absolument lui poser. Elles seront traitées en priorité.

Des ballons stockeurs d’énergie

« Fabriquer de l’énergie, c’est bien, mais il faut soit utiliser l’énergie tout de suite soit la stocker. Les centrales électriques classiques sont régulées en fonction des besoins mais cela n’est pas possible avec l’énergie éolienne ou celle fournie par les panneaux solaires. Il faut donc stocker l’énergie mais les batteries sont polluantes, chères à fabriquer et  s’usent rapidement.

Une société canadienne Hydrostor vient de présenter un système de stockage d’énergie aussi simple que prometteur. Cette société a testé sur les rives du lac Ontario un système de stockage d’énergie sous forme d’air comprimé. »

En voici le principe :

Source : universcience.tv

  • Réalisation : Christine Loubeau, Alexis Lardilleux
  • Production : Universcience
  • Durée : 6 min 55 s

Eboulement à Bure : un mort

L’éboulement est survenu dans une galerie en cours de forage où étaient effectués des relevés géophysiques, a indiqué le préfet de la Meuse, Jean-Michel Mougard, lors d’une conférence de presse à Bure (Meuse). Six personnes travaillaient dans la galerie quand la partie supérieure s’est écroulée. Un technicien de la société Eiffage, âgé de 42 ans, y a péri. Un de ses collègues, « légèrement » blessé aux mains, a été évacué.

bure
Le site d’enfouissement de Bure

Une enquête de gendarmerie a été ouverte pour déterminer les causes de cet accident. Dans un communiqué,« EELV appelle à faire toute la lumière sur les circonstances du drame -malgré l’opacité de la filière nucléaire- et à en tirer les conclusions sur l’arrêt immédiat du projet face à des risques majeurs pour la santé et la sécurité des populations ». Il s’agit du deuxième accident mortel sur ce site. En 2002, un ouvrier de 33 ans avait été enseveli lors du creusement du puits d’accès principal, provoquant l’arrêt du chantier pendant cinq mois.

Ce laboratoire souterrain n’accueille pas de déchets radioactifs. Il sert à mener des tests (construction de galeries et d’alvéoles) pour élaborer le futur centre de stockage de déchets radioactifs Cigéo qui sera construit à proximité. Le projet de stockage des déchets radioactifs en couche géologique profonde est très controversé, notamment en raison de son coût et des risques environnementaux potentiels. Mi-janvier, Ségolène Royal avait arrêté le coût global du projet à 25 milliards d’euros.

Par Matthieu Combe, journaliste scientifique

Les puissants ont-ils peur des nouvelles technologies ?

Du 20 au 23 janvier 2016, la petite station de ski suisse de Davos, désormais mondialement célèbre, accueillait une fois de plus, le forum économique mondial (WEF pour l’acronyme anglais). Les représentants des 10% de la population qui détiennent 90% des richesses et des pouvoirs de la planète, sont là pour réfléchir à l’état du monde et aux perspectives économiques. Pour cette édition, les quelques 2500 participants ont planché sur la « 4ème révolution industrielle ».

C’est quoi la « 4ème révolution industrielle « ?

Klaus Schwab, ingénieur et économiste allemand et surtout, président et fondateur du WEF, a posé la définition et les contours de ce qu’il appelle la 4ème révolution industrielle dans une présentation publiée le 14 janvier 2016 sur le site du WEF. Elle reprend les grandes lignes de son propos développé dans le livre éponyme (The fourth industrial revolution). Pour lui, elle est caractérisée par « la fusion de technologies qui brouillent les lignes entre les mondes physiques, numériques et biologiques ». Et, affirme-t-il, si cette 4eme révolution s’appuie sur la troisième, qui était celle de l’automatisation, de l’informatique et de l’électronique, elle s’en démarque par sa vitesse exponentielle, son ampleur (elle touche presque toutes les activités) et l’impact qu’elle a sur les systèmes de production, de management et de gouvernance. Elle prend la forme de multiples nouvelles technologies ou innovations : des objets connectés à l’impression 3D, de l’intelligence artificielle au Big Data en passant par les nanotechnologies ou l’informatique biologique.

Vers l’inconnu et au-delà ?

Face à la montée de toutes ces nouvelles technologies, on peut vite être pris de tournis. Et Euronews de citer par exemple, ce chef d’entreprise indien : « J’ai peur, je me demande si cela ne va pas trop vite ? » Car tous ces progrès techniques ouvrent des possibles capables de redéfinir l’humain et son rapport au monde de manière profonde : quid du contrôle des robots intelligents, des puces greffées directement dans le corps, des nanomatériaux, des données. Ce cyber-monde qui se dessine est porteur de plusieurs déséquilibres majeurs dans les modèles de sociétés actuelles.

Chômage de masse, menace sur la classe moyenne

Même si les économistes ne parlent pas tous d’une seule voix, nombre d’entre eux sont pessimistes quant à l’évolution de l’emploi face à la robotisation et à la numérisation de la production et des marchés. Des disparitions d’emplois massifs (de plusieurs millions à 40% dès 2030 selon les estimations) affecteraient non seulement les postes de production classiques de la robotisation mais aussi des métiers plus qualifiés de fonctionnaires, chauffeurs, du médical etc. D’autant que la numérisation du marché du travail rend encore plus fragile les travailleurs peu qualifiés soumis à une compétition accrue et à une dislocation des collectifs de travail. Dès lors, c’est tout un pan des classes moyennes qui est menacé de paupérisation. A la clé des conflits sociaux majeurs pourraient voir le jour.

Dans l’attente de décisions politiques ?

Si les puissants tremblent face aux nouvelles technologies, c’est surtout qu’elles rendent impossible de prévoir avec certitude le monde de demain, et donc impossible de s’assurer d’en avoir encore le contrôle pour préserver pouvoirs et privilèges. Même si jusqu’à présent, les riches ne cessent de s’enrichir quand les pauvres s’appauvrissent (voir le rapport de l’Oxfam sur ce sujet.

Kemal Dervis, ancien directeur du Programme des Nations Unies pour le Développement estime que le politique doit jouer son rôle de régulateur et ne pas laisser les marchés gérer seuls ces bouleversements. Mais les solutions socio-politiques ont été abordées plutôt timidement à Davos que ce soit pour évoquer la mise en place de revenus permanents de base, d’investissements dans les biens publics ou de coopération multilatérale. Et à ce jour, le monde politique semble, lui, trembler bien plus réellement devant cette 4ème révolution. Alors, sera-t-on capables d’inventer un nouveau contrat social sans passer par la case de l’autoritarisme et du repli identitaire ?

Par Sophie Hoguin

1946-2016 : 70 ans au service de l’industrie pour les Techniques de l’Ingénieur

Histoire d’un succès

Techniques de l’Ingénieur est né en 1946, cette date n’est pas anodine : lors de la seconde guerre mondiale, le potentiel productif a été profondément affecté.

En 1946, un ingénieur centralien décide d’aider l’industrie à se relever, en recueillant et mettant à disposition le savoir des meilleurs experts. Il crée Techniques de l’Ingénieur. Depuis lors les équipes éditoriales n’ont de cesse de recruter des auteurs, mettre en place des comités scientifiques pour écrire, auditer, vérifier, valider et ainsi fournir une ressource documentaire, toujours à jour.

En 2016, Techniques de l’Ingénieur couvre 14 domaines scientifiques et met à disposition 9000 articles. 350 000 utilisateurs bénéficient de ces ressources.

Avec le temps, Techniques de l’Ingénieur s’est imposé comme outil de formation mais aussi et surtout comme référentiel des donneurs d’ordre, guide pratique des sous-traitants, outil des bureaux d’étude et source d’inspiration de la R&D.

Une base vivante, relue, valisée, enrichie en permanence

Chaque année près de 400 articles nouveaux ou mis à jour sont publiés sur techniques-ingenieur.fr.

Ces articles complètent le fonds documentaire déjà en ligne, lui-même faisant l’objet d’une veille permanente. Cela se matérialise par la mention « Dernière validation», suivie de la date, publiée sur les articles.

Techniques de l’Ingénieur peut ainsi s’enorgueillir de mettre à disposition le plus grand corpus documentaire technique et scientifique en français.

Pour accompagner la mondialisation de l’information scientifique et technique, le travail éditorial accompli permet dorénavant de consulter, sur les nouveaux articles, des abstracts et mots clés en anglais. Ce nouvel atout, conjugué avec le Dictionnaire technique multilingue, facilite et simplifie votre recherche d’information.

Un site internet plus pratique, des fonctionnalités nouvelles pour gagner du temps

En1946, Techniques de l’Ingénieur innovait avec ses reliures et feuillets mobiles. La quantité d’articles et l’avènement d’internet ont eu raison de cette solution.

A la fin du 20éme siècle, Techniques de l’Ingénieur était l’un des tout premiers éditeurs à rendre disponible l’ensemble des articles via son site internet.

En 2016, toujours à la recherche des meilleures pratiques, le site techniques-ingenieur.fr vous propose de nouveaux outils, avec des tableaux dynamiques ou encore des images et figures à télécharger en haute définition.

Pour vous accompagner au mieux dans votre recherche sur le site, vous pouvez utiliser un nouveau mode de navigation : la cartographie interactive. Cette représentation en arbre des articles Techniques de l’ingénieur propose une nouvelle façon d’explorer les contenus, plus intuitive et plus fluide, par concept.

5 tutoriels pour mieux connaître Techniques de l’ingénieur

La rédaction

Revue du web #87 : les drones passent à l’action

Megacopter vient d’établir un record du monde en soulevant plus de 60 kg

Les drones savent parfaitement effectuer des livraisons, mais les charges se limitent généralement à de petits colis de quelques kilos seulement. Peut-être plus pour longtemps.

Le fabricant de drones Henning Pedersen et des étudiants de l’université d’Oslo viennent d’immortaliser leur exploit dans le Guiness des records pour la « plus lourde charge portée par un multicoptère contrôlé à distance » .

Constitué de 8 hexacoptères, mû par 48 moteurs et 13 propulseurs, le Megacopter a soulevé une charge de 61 kilogrammes à un mètre de hauteur pendant 37 secondes. Mais, l’engin étant homologué pour transporter jusqu’à 149,9 kilos, il pourrait bien battre son propre record bientôt…

Parrot a dévoilé au CES de Las Vegas un prototype de drone sans hélice baptisé Disco

Il ne nécessiterait aucun apprentissage. On le lance à la main, il s’envole. L’utilisateur n’a plus qu’à en prendre les commandes avec une application dédiée sur son smartphone. Disco gère lui-même son atterrissage.

Le drone peut atteindre les 80 km/h (on ne sait pas s’il en va de même par grands vents) et peut être piloté pendant 45 minutes. Il a été pensé pour un transport manuel aisé car en plus de sa légèreté, il pèse 700 grammes, ses deux ailes sont démontables. Enfin, il sera possible de capturer les vues du Disco puisqu’il dispose d’une caméra équipée d’un capteur haute résolution de 14 mégapixels et d’un stabilisateur optique.

Il devrait être commercialisé en 2016.

Le premier drone civil habitable sera commercialisé cette année

Les enchères sont ouvertes. Cette fois, ce drone ne soulève pas 60 kilos mais 100 ! Il vient d’être présenté au Salon international de l’électronique et des technologies grand public CES 2016 à Las Vegas.

L’engin doté de rotors coaxiaux (4 bras repliables, 8 hélices) et de moteurs électriques peut voler jusqu’à 3,5 kilomètres d’altitude et atteindre une vitesse d’environ 100 km/h. Son plan de vol est à établir sur une application mobile. Pour piloter son drone, le passager se contente de sélectionner sur sa tablette les commandes de décollage et d’atterrissage.

Son autonomie de 23 minutes n’est pas son point fort,  surtout qu’il lui faut pas moins de 2h pour recharger ses batteries. Mais la société chinoise croit en son potentiel. Il serait commercialisé en 2016 et coûterait entre 200 000 et 300 000 dollars.

 

Un drone a réussi à atterrir sur une voiture qui roulait à plus de 75 km/h

Les ingénieurs du centre aérospatial allemand ont réalisé une belle démonstration en envoyant un drone se poser seul sur le toit d’un véhicule en mouvement.

Armé d’une série de capteurs, il est venu se positionner au-dessus de la plateforme installée sur le toit de la voiture. Puis, des marqueurs installés sur le véhicule cible lui ont permis de se poser à la verticale, avec précision.

Catastrophes naturelles, recherche de personnes… Ce savoir-faire pourrait un jour permettre de sauver des vies.

 

Un drone-pompier baptisé Faros est capable d’endurer une température de 1000 degrés

Même si les drones peuvent se révéler particulièrement utiles lors d’accidents ou de catastrophes naturelles, ils restent souvent beaucoup trop fragiles pour réellement faire la différence.

Mais le FAROS (Fireproof Aerial RObot System) a de sérieux atouts. : son armure composée de fibres aramides et d’un système de refroidissement lui permet de résister à une température de 1000 degrés celsius tandis que les hélices placées sur son abdomen lui offrent d’excellentes capacités d’adhérence sur une paroi, telle une araignée. Armé d’une caméra thermique, il détecte la présence d’êtres humains dans un immeuble en feu.

Conçu par les chercheurs coréens du laboratoire URL (Urban Robotics Lab), le FAROS n’est encore qu’un prototype. Mais les pompiers pourraient bien faire appel à lui d’ici quelques années.

 

Un skieur échappe de justesse à la chute d’un drone en pleine compétition

Le skieur autrichien Marcel Hirscher aurait bien pu se faire assommer par un drone lors de l’épreuve de slalom messieurs de Madonna di Campiglio, en Italie !

Un multicoptère utilisé par l’équipe de production pour filmer l’événement s’est abattu sur la piste et s’est pulvérisé à l’endroit où le skieur se trouvait moins d’une seconde plus tôt.

L’apprenti assassin est un drone multirotor hexacoptère de type DFC-XR1. 1,38 mètre d’empattement,  7 kilos à vide, 12 kilos avec la batterie et la caméra numérique.

La société Infront Sport & Média chargée de filmer l’évènement a expliqué dans un communiqué que « d’après la société opératrice du drone, la raison la plus probable est une interférence lourde et imprévue sur la fréquence radio utilisée pour piloter le drone ». Mais les circonstances restent encore floues. Une expertise a été mandatée.

Par I.T.

2015 : des températures records

L’accord conclu à la COP21 vise à contenir l’augmentation de la température moyenne « bien en-deça de 2°C et de s’efforcer de limiter cette augmentation à 1,5°C » par rapport à l’ère pré-industrielle. Mais limiter cette hausse à 1,5°C semble bien impossible. Selon le bilan climatique de la NOAA, 2015 est l’année la plus chaude jamais enregistrée depuis le début des relevés climatiques en 1880. La température moyenne des surfaces terrestres et océaniques dépasse de 0,9°C la température moyenne enregistrée au 20e siècle, surpassant de 0,16 °C le précédent pic, atteint en 2014. Décembre 2015 a également enregistré la température la plus chaude au niveau mondial depuis 1880, dépassant de 1,11°C la moyenne enregistrée pour les mois de décembre au 20e siècle et de 0,29°C le précédent record datant de… décembre 2014.

Ce début de 21e siècle enregistre des températures records à tous les niveaux. Les années se suivent et déclassent les précédentes. L’année 2015 bat tous les records de chaleur, devant, dans l’ordre, 2014, 2010, 2013, 2005, 2009 et 1998.

« Dix mois ont connu des records de températures pour leurs mois respectifs pendant l’année », précise la NOAA.

Dans le détail, la température moyenne à la surface terrestre en 2015 a dépassé de 1,33°C la moyenne du 20e siècle et la température moyenne à la surface de l’eau a dépassé de 0,74°C la moyenne du 20e siècle. Il s’agit de deux nouveaux records, déclassant les précédents atteints respectivement en 2007 et 2014, de +0,25°C et +0,11°C. Le réchauffement climatique s’accélère : il s’agit du plus grand écart de température pour un record annuel, pa rapport au précédent record.

Presque toutes les régions du monde sont touchées par ces records de chaleur : l’Amérique Centrale, l’Amérique du Sud, l’Europe, ainsi que l’ouest de l’Asie et d’importantes portions de la Sibérie. Le thermomètre s’est aussi réchauffé dans des zones étendues de l’est et du sud de l’Afrique, ainsi que dans le Pacifique, dans l’ouest de l’Atlantique Nord, la plupart de l’Océan Indien et dans certaines parties de l’Océan Arctique.

Moins de neige et moins de précipitations

En 2015, la couverture neigeuse annuelle de l’hémisphère Nord a été de 24,6 millions de kilomètres carrés. Cela constitue la 11e plus faible couverture neigeuse annuelle depuis le début des relevés en 1968 et la plus faible depuis 2008.

L’étendue moyenne annuelle de la glace de mer en Arctique a été de 11 millions de kilomètres carrés, soit la sixième plus petite étendue depuis 37 ans. A l’opposé, l’Antarctique a connu sa troisième plus grande étendue moyenne annuelle de la glace de mer, à 12,74 millions de kilomètres carrés, derrière 2013 et 2014.

Et en France ?

2015 ne bat néanmoins pas tous les records en France. A l’échelle nationale, 2015 n’est « que » la 3e année la plus chaude depuis 1900. Selon le bilan climatique de Météo-France, les températures sont tout de même au-dessus de 1°C de la normale, devancée par 2014 (+ 1.2 °C) et 2011 (+ 1.1 °C). « La pluviométrie a été inférieure à la normale de plus de 15 % et l’ensoleillement supérieur à la normale sur l’ensemble du pays », note Météo-France. Le mois de décembre a néanmoins aussi été le plus chaud enregistré sur la période 1900-2015 et le plus sec sur la période 1959-2015. Au niveau européen, 2015 est la deuxième année la plus chaude depuis le début des mesures.

Par Matthieu Combe, journaliste scientifique

Biotech santé : 340 millions pour une filière solide

Le FABS (Fonds accélération biotech santé), lancé en octobre dernier, et qui devait être doté de 100 M€ voit son montant rehaussé à 340 M€. Une annonce favorablement accueillie par les acteurs du secteur tel que France Biotech qui, à l’automne, avait trouvé le montant insuffisant. Une décision qui s’inscrit aussi dans une volonté forte de soutenir l’innovation du secteur sous toutes ses formes souligne par ailleurs la ministre précisant que « la loi de financement de la sécurité sociale pour 2016 consacre près de 6 milliards d’euros aux différentes étapes de l’innovation ».

Maintenir l’innovation santé en France

Ce fonds s’accompagne de la promesse d’autres mesures évoquées par Marisol Touraine, la ministre de la santé, qui vise à : « solvabiliser l’innovation, lui garantir une diffusion rapide et massive, et donner un temps d’avance aux entreprises ». Derrière cet objectif de structurer et stabiliser la filière, on devine un autre enjeu de taille non évoqué par la ministre : éviter la fuite des idées et des entrepreneurs outre-Atlantique où la levée de fonds est tellement plus facile.

Organiser et structurer la filière

Professionnels de la santé numérique, start-up de biotech, État et collectivités, la médecine est un secteur extrêmement complexe où les acteurs sont multiples. Pour réussir et mutualiser les forces de chacun, le gouvernement est en train d’élaborer un plan « Médecine du futur » dans lequel il est prévu un soutien à des fonds d’entrepreneurs spécialisés et la création de clusters thématiques. Pour superviser ces différentes mesures au niveau exécutif, le Pr. Jean-Yves Fagon, actuel vice-président du CEPS (Comté économique des produits de santé), vient d’être nommé délégué ministériel à l’innovation en santé.

Faciliter la création et le développement des entreprises

La ministre a par ailleurs affirmé que d’autres dispositions seraient prises pour simplifier les procédures administratives et d’autorisation – sans pour autant affaiblir le cadre réglementaire lié à la sécurité. Il s’agira de dispositifs dans la même veine que ceux qui ont déjà été mis en place ces dernières années : suppression des redondances administratives, accès aux patients plus rapide par des dispositifs d’autorisation temporaire ou encore ouverture des données (Open Data) de l’assurance-maladie.

Le gouvernement veut s’appuyer sur l’Europe

Évidemment, le marché des biotech est tendu et la compétition féroce. Aussi, le gouvernement veut mobiliser l’Union européenne pour soutenir les entreprises d’innovation en santé. Rendez-vous est donc pris à Lyon en avril pour une conférence européenne sur les sujets du retour sur investissement des traitements innovants en santé et leur diffusion auprès des patients pour un coût acceptable pour les collectivités.

Par Sophie Hoguin

Kit Kat®, Nesquik®, Crunch®… comment la simulation met-elle la main à la pâte ?

Chez Nestlé, recherche, conception et fabrication d’une barre chocolatée impliquent des processus très élaborés, qui ne sont pas si différents de ceux de la chocolaterie spectaculaire de Willy Wonka. Bien qu’il n’y ait peut-être pas d’Umpa-Lumpas qui supervisent la production de confiseries, une réflexion approfondie et un zeste de simulation sont de mise pour perfectionner le processus.

Les ingénieurs du Centre de Technologie Produit à York, au Royaume-Uni (PTC York), travaillent entre autres sur la recherche et le développement de trois produits différents : un dispositif pour déposer le chocolat sur les barres chocolatées, une plaque de cuisson pour gaufrette et une extrudeuse, utilisée pour cuire et trier les céréales en même temps. Chez PTC York, siège de la R&D des produits de confiserie, les ingénieurs s’appuient sur la simulation multiphysique pour optimiser et simplifier le processus de production.

La R&D au service du chocolat

Les barres chocolatées, telles que les Kit Kat®, Aero®, Crunch, et les barres de chocolat au lait sont produites en utilisant un dispositif spécial qui remplit un moule avec du chocolat fondu. Le chocolat entre dans le dispositif par le haut via une conduite et ressort dans un moule via des buses.

nestle1
La géométrie SolidWorks® du dispositif de dépôt de chocolat
nestle2
Une simulation COMSOL Multiphysics® montrant la vitesse d’écoulement du chocolat dans les buses du dispositif et les canaux d’écoulement

« Afin que la quantité de chocolat dans chaque barre soit la même, il faut que les débits et les pressions de chocolat en sortie de toutes les buses soient également identiques », explique William Pickles, ingénieur procédé chez Nestlé. « Non seulement nous devons faire en sorte que chaque barre de chocolat ait le même poids pour optimiser les coûts et assurer la standardisation, mais aussi garantir que la valeur énergétique en calories indiquée sur l’emballage soit exacte. Cela nous permet de fournir des produits avec une teneur nutritionnelle précise qui puisse être intégrée dans l’équilibre alimentaire de nos clients. » Pour atteindre ce niveau de standardisation, les débits et les pressions des différentes buses sont à ajuster dans une plage étroite.

L’entreprise utilise une combinaison d’outils de modélisation et de simulation. La géométrie du dispositif de dépôt de chocolat a d’abord été conçue avec le logiciel SolidWorks® et a ensuite été importée dans COMSOL Multiphysics® pour étude. La simulation a été utilisée pour optimiser l’écoulement des fluides, tester les contraintes mécaniques et analyser les propriétés thermiques d’un design particulier.

« Chaque fabricant de chocolat possède sa recette spéciale pour produire du chocolat avec des caractéristiques uniques, » explique Pickles. « Nous avons entièrement modélisé le comportement non-newtonien de la signature du chocolat, en important dans le logiciel les données reliant le taux de cisaillement et la contrainte de cisaillement du fluide. Nous étions ainsi certains de modéliser un chocolat ayant les mêmes propriétés en écoulement que le produit réel. »

Grâce à la simulation, l’équipe a identifié les zones de débits élevés et faibles et a déterminé les différences de débit entre chacune des buses. Des sondes numériques ont été placées dans les canaux et aux extrémités des buses pour analyser les contraintes à certains endroits de la géométrie.

« En optimisant le design du dispositif de dépôt, nous avons réussi à atteindre un débit dans la section de chacune des buses très proche de la valeur souhaitée, soit un écart d’au maximum un dixième de pour cent, » précise Pickles.

Voici les résultats de cette simulation :

nestle3
Les sondes situées aux extrémités de chacune des buses et dans les canaux montrent que le débit du chocolat et la pression à l’intérieur du dispositif de dépôt et des buses varient selon les spécifications. Les lignes de courant indiquent le sens d’écoulement du chocolat

Le croustillant sauvé par la simulation

Que serait un Kit KAT® sans le croustillant bien connu de la gaufrette à l’intérieur? Lors de la cuisson d’une gaufrette, un chauffage inégal entraine des concentrations d’humidité différentes à l’intérieur de la gaufrette, gâchant ainsi sa texture croustillante ou causant même une cassure spontanée.

Dans le processus de cuisson de la gaufrette, deux plaques de cuisson sont utilisées pour comprimer la pâte (voir figure ci-dessous). Pendant la cuisson, les plaques sont passées au-dessus d’une série d’environ 40 flammes.

nestle4

nestle5
Deux plaques de cuisson (a) sont utilisées pour faire cuire les gaufrettes Kit Kat®. Les plaques supérieure et inférieure compriment la pâte (b), tandis que la flamme sous les plaques cuit la gaufrette (c)

« Nous utilisons la simulation pour optimiser le design de la plaque de cuisson, en regardant le flux d’air chaud en dessous et autour des plaques pour vérifier que le profil de température est homogène entre les surfaces des plaques », explique Pickles. « L’objectif de cette étude est de corriger la puissance du brûleur et son orientation afin d’obtenir la meilleure gaufrette, tout en réduisant la quantité de carburant utilisée. »

Les flammes sous les plaques de cuisson ont été modélisées sous la forme de jets d’air chaud, où le chauffage opère par convection.

A observer ci-dessous : le profil de la flamme sous la plaque de cuisson et le flux d’air autour de la plaque.

nestle6

« Nous avons validé notre modèle en comparant les résultats de simulation aux données expérimentales issues des dispositifs de plaques de cuisson, et nous avons constaté que les écarts étaient très faibles », dit Pickles. Les résultats montrent également comment des zones plus chaudes apparaissent en raison de l’augmentation de la conduction de chaleur à travers les boulons de fixation des plaques de cuisson :

nestle7
Distribution de température dans le support des plaques de cuisson
nestle8
Profil de température à la surface de la plaque de cuisson supérieure, où l’on peut voir des zones plus chaudes à l’emplacement des boulons (cercles blancs)

« La prochaine étape sera d’optimiser ce design pour répartir la chaleur le plus uniformément possible sur le haut de la plaque et minimiser les pics de température », conclut Pickles.

Cuire en Extrudant

Les céréales telles que les Cheerios®, Trix®, Nesquik® et beaucoup d’autres sont fabriquées par extrusion. « L’extrudeuse à haute température utilisée pour fabriquer certains types de céréales fonctionne en injectant la pâte à travers un moule. La pression et le frottement résultant font cuire la pâte par chauffage visqueux », explique Pickles, faisant référence à l’extrudeuse illustrée ci-dessous. « Les extrudeuses sont courantes parce que c’est un outil de production compacte et rentable ».

nestle9
Géométrie de l’extrudeuse

Pickles travaille sur la conception d’un boîtier pour viscosimètre, qui sera placé à l’intérieur de l’extrudeuse pour mesurer la viscosité de la pâte entrant dans le moule. Cela permettra de garantir une qualité constante pour la pâte et de faire en sorte qu’elle cuise de manière prévisible. « Pour ce design, nous devions nous assurer que l’enveloppe du viscosimètre pourrait résister à la haute pression régnant dans le dispositif, » souligne Pickles.

Dans le design initial de l’extrudeuse, le boîtier du viscosimètre ne pouvait pas supporter cette pression très élevée.

« Nous avons tout d’abord repensé la forme du boîtier, ce qui a contribué à réduire la pression. Ensuite, nous avons fait évoluer le design de l’injecteur afin d’éviter tout dépassement des seuils de contrainte, pour que le viscosimètre puisse être installé en toute sécurité », explique Pickles. De plus, la simulation a été utilisée pour vérifier que le déplacement de l’extrudeuse dans l’écoulement était limité, car des variations trop grandes entraîneraient une production de céréales de forme et de taille irrégulières (voir figure ci-dessous). Voici le boitier du viscosimètre et les résultats de simulation de l’injecteur :

nestle10
Contraintes de von Mises
nestle11
Coupe du déplacement total

« Chez Nestlé, la simulation est une part importante du processus de conception, de la production de chocolat aux gaufrettes, en passant par les céréales et tout le reste. Les produits étant destinés à la consommation, nous devons particulièrement veiller à la fiabilité de nos designs », conclut Pickles.

Par Alexandra Foley

La curiosité n’est pas un « vilain » défaut chez les souris

Dans notre quotidien, nous sommes fréquemment confrontés à des prises de décision. Quand il s’agit de choisir entre différentes options, celles-ci peuvent être sures et connues, ou bien plus incertaines. Estimer le « degré d’incertitude » associé à ces alternatives est indispensable pour prendre une décision adaptée. Cette évaluation joue sur notre motivation à tenter des actions aux conséquences incertaines, à être curieux. Elle peut aider à mieux connaître notre environnement et ainsi améliorer la réussite des actions futures. Ce mécanisme est clairement mis en œuvre dans les jeux d’argent comme le poker par exemple, mais aussi dans les marchés financiers ou dans la vie de tous les jours quand nous prenons des risques.

Jusqu’à présent, la manière dont l’évaluation de l’incertitude était régulée restait méconnue. L’équipe de Philippe Faure au laboratoire Neurosciences Paris-Seine (CNRS/UPMC/Inserm) a mis au point une expérience chez la souris permettant une analyse fine de ces comportements.

Première étape : les souris étaient placées dans une arène constituée de trois zones, chacune d’elle étant corrélée à l’obtention d’une récompense. Mais impossible pour elles d’obtenir deux récompenses consécutivement dans la même zone. Aussi, les souris ont vite appris à se déplacer de zone en zone pour obtenir une récompense. Une fois ce comportement acquis, les chercheurs ont, dans une deuxième étape, observé la réaction des souris en situation d’incertitude. Pour cela, ils ont associé à chaque zone une probabilité différente d’obtenir une récompense : 100% (soit la possibilité de recevoir une récompense à chaque fois, mais pas de manière consécutive) pour la zone A, 50% pour la zone B et 25% pour la zone C. Le résultat a été surprenant. En effet, les souris se sont avérées particulièrement motivées à se déplacer en zone B, celle associée à une incertitude maximale (50% de chance de ne pas avoir de récompense et 50% de chance d’en avoir une). Ce qui suggère qu’elles accordent une valeur positive à l’incertitude. En d’autres termes, elles attribuent une valeur à l’information, qui les pousse à être curieuses et à explorer leur environnement.

Afin de comprendre les mécanismes moléculaires sous-tendant ce type de comportement, les chercheurs ont ensuite testé des souris dépourvues du gène codant pour une sous-unité des récepteurs nicotiniques à l’acétylcholine2. Résultat : ces souris ont été capables d’apprendre à chercher les récompenses dans l’arène mais elles n’étaient pas motivées à se déplacer en zone incertaine (zone B) lors de la deuxième étape de l’expérience. En revanche, lorsque les scientifiques ont à nouveau introduit la sous-unité dans un noyau dopaminergique3 (l’aire tegmentale ventrale) de ces souris, la valeur positive de l’incertitude a été restaurée chez les rongeurs.

Ces résultats établissent clairement le rôle de l’acétylcholine dans la motivation induite spécifiquement par l’incertitude du résultat. Ce neurotransmetteur n’intervient pas dans la motivation pour obtenir des récompenses. La motivation intrinsèque à explorer l’inconnu serait donc dépendante du système de contrôle cholinergique des neurones dopaminergiques. Ces recherches suggèrent par ailleurs un lien neuronal possible entre l’addiction au tabac (la nicotine agissant sur les récepteurs nicotiniques des neurones dopaminergiques) et l’addiction au jeu pathologique. Les scientifiques vont désormais tâcher d’examiner comment ces comportements face à l’incertitude sont perturbés par des drogues telles que la nicotine.

Figurepress2
© Naudé, Faure (CNRS/UPMC/Inserm) Trajectoires de souris représentées dans différentes situations. Les ronds bleus indiquent les trois zones de récompenses et la probabilité d’obtenir une récompense. – A gauche : Trajectoire de souris sauvages dans le cas où la récompense est certaine. – Au milieu : Trajectoire de souris sauvages dans le cas où les récompenses sont incertaines. – A droite : Trajectoire de souris dépourvues du gène codant pour une sous-unité des récepteurs nicotiniques à l’acétylcholine, dans le cas où les récompenses sont incertaines.

Notes :
¹Le laboratoire fait partie de l’Institut de biologie Paris-Seine. Cette équipe a travaillé en collaboration avec une équipe de recherche CNRS/Institut Pasteur.
² Neurotransmetteur notamment impliqué dans la mémoire, l’apprentissage, l’attention et l’état de vigilance.
³Un noyau dopaminergique comprend des neurones qui délivrent la dopamine, un autre neurotransmetteur du cerveau, impliqué dans de nombreuses fonctions essentielles chez l’homme, comme le contrôle moteur, l’attention, la motivation, la mémoire et la cognition.

Références :
Nicotinic Receptors in the Ventral Tegmental Area promote Uncertainty-Seeking. J. Naudé, S. Tolu, M. Dongelmans, N. Torquet, S. Valverde, G. Rodriguez, S. Pons, U. Maskos, A. Mourot, F. Marti, P. Faure. Nature neuroscience . Mis en ligne le 18 janvier 2016.
DOI: 10.1038/nn.4223

Source : CNRS

Les cigarettes électroniques passent au biosourcé

« La question, c’est de savoir ce qu’il y a dans le liquide des vapoteuses. » s’interroge un jour Antoine Piccirilli, directeur scientifique du jeune laboratoire poitevin Xérès. « Du glycol, de la nicotine et des arômes » lui répond son futur associé Vincent Bonnarme. La réponse laisse le chimiste en arrêt. Glycol ? La molécule n’est pas inconnue de ce spécialiste en catalyse hétérogène qui a longtemps travaillé pour le département cosmétique de L’Oréal.

« Le propylène glycol utilisé dans le liquide des cigarettes électroniques est un irritant pour la peau notoire, explique le chimiste. Sa fabrication est également un gouffre de consommation en CO2. » Ce produit était auparavant très utilisé en cosmétique mais, depuis trois ou quatre ans, les entreprises le substituent par d’autres glucoses.

Selon Antoine Piccirilli, des discussions seraient même en cours pour le réglementer Spot 3 (toxicité pour certains organes cibles) dans la classification européenne des produits chimiques Reach. Mais ce glycol présente des avantages qui le rendent inévitable. C’est lui que l’on retrouve dans  les fumées utilisées en spectacles et, surtout, il bout à une température proche de celle de la nicotine (environ 170°C).

Du Glycol dans les cigarettes, une molécule irritante qu’évite l’industrie cosmétique

Pour remplacer ce produit issu du pétrole, les fondateurs du laboratoire Xérès utilisent les équipements de l’Institut de chimie des milieux et matériaux de Poitiers. Les analyses thermodifférentielle et thermogravimétrique leur permettent de repérer une substance qui convient à leurs attentes : le 1-3 propandiol, ou Végétol. Non-irritante, la molécule présente d’autres avantages sur le glycol. Son ébullition est encore plus proche de celle de la nicotine et sa basicité en fait un meilleur transporteur de cette toxine. Résultat : la nicotine est plus facilement absorbée par le corps humain.

Pour obtenir son Végétol de façon biologique, le laboratoire fait fermenter des levures avec de la glycérine végétale, un mélange d’huiles. « C’est comme faire de l’alcool avec du raisin, explique le directeur scientifique de Xérès. À la manière des bactéries du vin, qui consomment le sucre du fruit pour rejeter de l’alcool, notre levure consomme la glycérine et synthétise le Végétol. » Et la matière première n’est pas difficile à trouver : cette glycérine est un coproduit abondant de la fabrication des biodiesels.

Par Baptiste Cessieux

L’espace : Un marché porteur pour l’industrie nucléaire

Le Département américain à l’Energie (DOE) a annoncé en grande pompe fin décembre la production de 50 grammes (l’équivalent d’une balle de golf) de plutonium 238, destiné à la Nasa. Cette annonce marque une nouvelle étape dans la recrudescence des projets de la communauté scientifique américaine liés à l’exploration spatiale.

Plutonium 238

CuriositLe premier robot propulsé au plutonium s’est posé sur la planète Mars lundi 6 août 2012. Curiosity, c’est son nom, est un véhicule de la taille d’une petite voiture, qui prélève sur Mars des échantillons de roche et en étudie la surface. Tous ces systèmes sont alimentés en énergie et en chaleur par un générateur thermique à radio-isotope, contenant 4,8 kg de Plutonium 238, et fournissant 110-115 W de courant continu, produisant 2,7 kWh par jour. Cet isotope développe des propriétés qui lui ont permis d’obtenir rapidement les faveurs des experts. Avec une « demi-vie » de 87,7 ans – la demi-vie d’une substance radioactive est la période durant laquelle elle perd la moitié de sa radioactivité – le 238Pu libère suffisamment d’énergie et de chaleur pour alimenter les sondes d’exploration pendant plus d’un siècle. C’est ainsi que Voyager
1, la sonde spatiale lancée en 1977 continue d’envoyer des données alors qu’elle s’enfonce toujours plus dans l’espace. « Le 238Pu a démontré qu’il était une source d’énergie efficace là où l’utilisation de l’énergie solaire s’avère impossible. Son utilisation comme source d’énergie pour les engins spatiaux a été développée par les États-Unis et la Russie qui ont consacré plusieurs centaines de millions de dollars à son développement et sa production », rappelle la Société française de l’énergie nucléaire (SFEN).

Risques

L’utilisation de plutonium par la Nasa ne fait pas que des heureux. D’aucuns dénoncent le risque de propulser des engins équipés de tels isotopes. C’est le cas du réseau Sortir du nucléaire qui explique : « Le problème est celui d’accidents impliquant des vaisseaux spatiaux nucléaires, avec des relâchements de radioactivité touchant les humains et les autres formes de vie sur Terre ». Ce que craint avant tout l’ONG, c’est le risque d’accident sur le pas de tir : « La NASA, avant le lancement de Curiosity en novembre 2011, reconnaissait que si la fusée le transportant explosait lors du lancement à Cap Kennedy, du plutonium serait relâché, affectant une zone d’un rayon de 100 km, et si la fusée, échouant à échapper à la gravité de la Terre, retombait dans l’atmosphère avec Curiosity et se désintégrait, du plutonium serait alors dispersé sur une grande partie de la Terre entre environ 28 degrés de latitude nord et 28 degrés de latitude sud. Ceci comprend l’Amérique Centrale, la plus grande partie de l’Amérique du Sud, l’Asie, l’Afrique et l’Australie ». Pour rappel, dans sa déclaration d’impact environnemental consacrée à Curiosity, la NASA évaluait que les chances étaient de moins de 1 sur 220 pour que du plutonium soit dispersé durant sa mission.

Risque de pénurie

Les risques liés à l’utilisation du Plutonium 238 pourrait être drastiquement réduit pour une raison inattendue : sa pénurie. En effet, la production du 238Pu reste compliquée et coûteuse comme le rappelle la SFEN : « D’abord, vous avez besoin d’un réacteur avec le bon flux neutronique et de suffisamment de neptunium 237, matière première du plutonium. Vous avez ensuite besoin d’une petite usine de retraitement nucléaire pour séparer chimiquement le plutonium du combustible hautement radioactif. Au fil des ans, cet isotope a été produit par un certain nombre de pays, dont les États-Unis, la Russie et le Royaume-Uni ». Or, les stocks s’amenuisent et c’est pourquoi le DOE a décidé de relancer la production. Pour autant, de nombreux observateurs estiment qu’elle ne sera pas suffisante pour couvrir les besoins des différents projets en cours de développement.

L’alternative Américium 241

L’Europe s’intéresse de près à un autre isotope qui pourrait se substituer avantageusement au 238Pu : l’américium 241. Il est notamment présent en infime quantité (de l’ordre d’1 microcurie) dans les détecteurs de fumées installés dans les immeubles pour son rayonnement ionisant alpha. En grande quantité la production de chaleur est comparable à celle du 238Pu. L’Américium 241 peut être trouvé dans les déchets générés par les réacteurs nucléaires, mais son extraction est compliquée et coûteuse. Une autre piste consiste à exploiter la désintégration bêta du 241Pu. Lorsqu’un combustible nucléaire est usé, il est retraité pour séparer le plutonium, de l’uranium et des produits de fission. La France s’est faite une spécialité de ces opérations, et réutilise le plutonium pour fabriquer un nouveau combustible : le MOX. Le stockage à long terme de plutonium civil retraité pourrait permettre de produire de l’américium 241 isotopiquement pur, via la désintégration bêta. Cet américium a l’avantage d’être récupéré dans le plutonium stocké grâce à un procédé chimique relativement simple et rentable, sans travailler à partir du combustible usé hautement radioactif. Au Royaume-Uni, ce sont pas moins de 100 tonnes de plutonium recyclé qui pourraient être ainsi valorisées.

Adaptation

L’américium 241 se distingue du 238Pu par une demi-vie plus longue (432 ans) mais une puissance thermique plus faible 0,1 W/g (contre 0,4 W/g). Cela signifie qu’en cas de recours à l’241Am, les caractéristiques techniques des appareils devront être adaptées en fonction de cet état de fait. En 2009, l’Agence spatiale européenne (ESA) a financé un programme qui a établi la faisabilité de la production d’241Am, réalisé des pastilles-tests, développé et testé de nouveaux générateurs thermoélectriques adaptés à la température de l’américium 241. Actuellement, le programme européen met l’accent sur le développement de générateurs thermoélectriques à radio-isotopes évolutifs d’une puissance électrique de 10 à 50 W. Des niveaux encore insuffisants pour alimenter des robots comme Curiosity, mais déjà aptes à sustenter de petits engins spatiaux. En attendant mieux…

Romain Chicheportiche

 

Disco, le drone à ailes fixes signé Parrot

On le sait, à la grand-messe des technologies de Las Vegas, on voit de tout. Tout ce qui sera ou pourrait être demain. L’entreprise française Parrot, menée par Henry Seydoux, en a donc profité pour dévoiler sa dernière création, un drone à ailes fixes.

648x415_apres-quadricoptere-parrot-passe-ailes-volantes-disco

Une des particularités de disco, en tout cas vantée par Parrot, est qu’il ne nécessite aucun apprentissage. Ainsi, point besoin d’être un expert dans le maniement de ce genre d’appareil pour le prendre en main. Une facilité d’accès qu’apprécieront certainement les non-initiés. On le lance à la main, il s’envole. L’utilisateur n’a plus qu’à en prendre les commandes avec une application dédiée sur son smartphone. Disco gère lui-même son atterrissage.

parrot_disco_drone_front

Côté caractéristique, le drone peut atteindre les 80 km/h (on ne sait pas s’il en va de même par grands vents) et peut être piloté pendant 45 minutes. Il a été pensé pour un transport manuel aisé car en plus de sa légèreté, il pèse 700 grammes, ses deux ailes sont démontables. Enfin, il sera possible de capturer les vues du Disco puisqu’il dispose d’une caméra équipée d’un capteur haute résolution de 14 mégapixels et d’un stabilisateur optique.

Concernant sa commercialisation, aucune information précise n’a filtré au niveau de la date et du prix. On sait cependant qu’elle aura lieu en 2016.

Par Sébastien Tribot

Notre intelligence est-elle déterminée par nos gènes ?

Ces travaux partaient d’une base connue, comme le rappelle Michael R. Johnson, scientifique à l’Imperial College de London : « nous savons que la génétique joue un rôle dans l’intelligence ». Mais nous ignorions lesquels participaient à nos performances cognitives ni dans quelle mesure ils interagissaient entre eux.

Désormais, si l’on en croit l’étude qu’a publiée l’équipe menée par Michael R. Johnson dans la revue anglaise Nature Neuroscience, deux réseaux de gènes appelés M1 et M3 ont été identifié. Ces deux réseaux de gènes contiennent respectivement un millier et 150 gènes et sont employés constamment lors de nos activités. Ils déterminent en partie notre mémoire, notre attention, notre faculté à nous adapter, à raisonner, mais aussi notre rapidité de compréhension. Il s’avère également que ces groupes de gènes peuvent se détériorer avec le temps – ce que l’on appelle des mutations – et être à l’origine de maladies neuronales telles que l’autisme, la schizophrénie ou encore l’épilepsie. La question du rôle exact joué par chaque réseau reste toutefois à élucider.

Pour parvenir à la conclusion que M1 et M3 étaient impliqués dans l’intelligence, les chercheurs anglais ont étudié des échantillons de cerveaux de patients atteints d’épilepsie. C’est-à-dire qu’ils ont analysé des milliers de gènes sous toutes leurs coutures. Ils ont ensuite confronté leurs résultats avec ceux d’individus sains ayant effectué des tests de quotient intellectuel ainsi qu’à ceux atteints de troubles neurologiques (« troubles du spectre autistique, déficience mentale »). C’est à ce moment qu’est intervenue une aide informatique puisque toutes les données récoltées ont été analysées par ce biais ce qui a permis de découvrir que les gènes impliqués dans nos performances cognitives l’étaient également lorsque les gènes étaient altérés.

Michael R. Johnson s’est dit excité par les perspectives promises par cette découverte. Pourquoi ne pas, dans le futur, modifier ou manipuler ces groupes de gènes afin d’améliorer nos capacités cognitives, voire de soigner les gènes à l’origine de troubles neurologiques. Tout en restant prudent, « il ne s’agit pour le moment que d’une possibilité théorique ». D’autres travaux viendront sans doute compléter les compétences actuelles et confirmer ou infirmer cette hypothèse.

Par Sébastien Tribot

Cigéo : un coût politiquement (in)correct !

Ségolène Royal a tranché, conformément à la démarche officielle définie par la loi du 28 juin 2006, codifiée à l’article L.542-12 du code de l’environnement. Le coût officiel de Cigéo est désormais fixé à 25 milliards d’euros par l’arrêté du 15 janvier 2016. Il s’agit du coût global du projet, englobant  les études préalables, la construction, l’exploitation, le renouvellement des équipements,  la fermeture et la fiscalité sur une période de 140 ans à partir de 2016, « aux conditions économiques du 31 décembre 2011, année du démarrage des travaux d’évaluation des coûts ».

« Le coût arrêté constitue un objectif à atteindre par l’Andra [Agence nationale pour la gestion des déchets], dans le respect des normes de sûreté fixées par l’ASN [Autorité de sûreté nucléaire] »  et « s’appuie sur une coopération étroite entre l’Agence nationale pour la gestion des déchets radioactifs et les exploitants d’installations nucléaires », précise l’arrêté.

Conformément aux recommandations de l’ASN, cet arrêté prévoit la mise à jour régulière du coût de référence en raison des incertitudes qui subsistent. Cette réévaluation aura lieu lors d’étapes clés de développement du projet, notamment lors de l’autorisation de création, la mise en service, la fin de la phase industrielle pilote et lors des réexamens de sûreté.

Une démarche officielle définie par la loi

Selon la démarche officielle, dans un premier temps, l’Andra a transmis à Ségolène Royal un dossier de chiffrage de Cigéo en octobre 2014. L’évaluation s’élevait à 34,5 milliards d’euros « hors risques et opportunités », dont 19,8 milliards pour la construction, 8,8 milliards pour l’exploitation durant plus de cent ans et 4,1 milliards d’impôts et taxes. Il faut y ajouter 1,7 milliard de dépenses diverses : construction et exploitation du laboratoire souterrain, essais, simulations, analyse de l’environnement, communication…

Puis, la ministre en charge de l’énergie a recueilli les observations des producteurs en avril 2015 et janvier 2016 et l’avis de l’Autorité de sûreté nucléaire (ASN) en février 2015. L’ensemble de ces évaluations et observations n’ont été rendues publiques qu’en janvier 2016. Dans leurs observations, EDF, Areva et le CEA proposent de retenir un coût inférieur, de 20 milliards d’euros. « Il existe ainsi des visions différentes du chiffrage, selon la manière dont sont anticipés les progrès technologiques et les optimisations qui pourront être développées et valorisées dans les phases ultérieures des études », précisent les trois acteurs du nucléaire dans un communiqué. L’Andra et EDF vont renforcer leurs échanges techniques pour faire diminuer la facture. « EDF pourra appuyer l’Andra et la faire bénéficier de son expérience industrielle dans la phase de réalisation du projet », note le communiqué. De son côté, l’ASN estime que « certaines hypothèses retenues par l’Andra, d’ordre technique et économique, sont trop optimistes et de ce fait non conformes à l’impératif de prudence qui s’impose ». Pour l’ASN, le coût prévu par l’Andra pourrait donc être sous-évalué.

Mais seule l’évaluation arrêtée par le ministre sert de base à l’élaboration des provisions et représente le coût « objectif » à atteindre. Car pour limiter la charge portée par les générations futures, les producteurs de déchets (EDF, Areva et le CEA) doivent provisionner les coûts de gestion des déchets radioactifs qu’ils génèrent.

Une évolution constante des coûts ?

Malgré le cadre juridique défini, plusieurs estimations non officielles ont été annoncées. La première estimation des coûts de Cigéo par l’Andra date de 2003, pour un montant évalué entre 13,5 à 16,5 milliards d’euros 2002 (Md€2002).  De leur côté, les exploitants proposaient 14,1 Md€2002 Ces évaluations sont élaborés avec la valeur de l’euro, du prix du travail et des matières premières en 2002. Le chiffrage est donc régulièrement réévalué avec l’évolution de la fiscalité, des salaires, du prix des matières premières… En 2005, le Ministère arrête un montant de 15 Md€2005. Il s’agissait de la dernière évaluation arrêtée par le Ministère de l’énergie et la seule officielle.

Mais d’autres évaluations ont aussi circulé. En 2012, la Cour des comptes a notamment rendu publique une estimation des coûts de Cigéo par l’Andra, à hauteur de 35,9 Md€2010. Les exploitants ont quant à eux élaboré une contre-proposition, pour un coût de 14,4 Md€2010. Après avoir pris en compte les suites du débat public et des études d’optimisation, l’Andra a donc en réalité revu à la baisse son chiffrage dans sa dernière proposition.

Dans une note de synthèse, l’Andra rappelle qu’ « il n’est pas possible de réaliser des comparaisons directes entre des évaluations de coût différentes compte tenu des écarts de périmètres possibles et des nombreuses hypothèses sous-jacentes à chaque exercice de chiffrage ». Mais pourquoi le coût global a été multiplié par 2 entre 2005 et 2010 ? Il faut noter que les évaluations réalisées après 2005 reposent sur l’évolution des données techniques du centre, prenant en compte les objectifs de sûreté et de réversibilité et l’augmentation du volume de déchets, avec une durée de vie de réacteurs de 50 ans, contre 40 ans pour l’évaluation de 2005. Quoi qu’il en soit, tant que la phase pilote préalable d’expérimentation n’aura pas débuté, de nombreuses incertitudes persisteront sur l’inventaire à enfouir, la sûreté, les coûts, la récupérabilité des colis, les capacités d’évolution de l’installation pour accueillir des déchets supplémentaires…

Notons qu’une fois le site de stockage rempli, au bout d’une centaine d’année d’exploitation, le site sera fermé et ne nécessitera pas de maintenance humaine et donc aucun frais supplémentaire. C’est pourquoi l’évaluation des coûts porte sur une centaine d’années, malgré le fait que le centre stockera ses déchets pour au moins 100 000 ans après sa fermeture.

Quels sont les déchets pris en compte par ces évaluations ?

Le stockage de Cigéo prendra en charge l’ensemble des déchets de haute et moyenne activité à vie longue produits par toutes les installations nucléaires en fonctionnement ou autorisées (dont ITER et l’EPR de Flamanville). « Tous les déchets produits par les centrales autorisées ou existante pendant 50 ans sont pris en charge par Cigéo ; cela représente un volume de l’ordre de 80 000 m3 de déchets, 10 000 m3 de déchets de haute activité et 70 000 m3 de déchets de moyenne activité à vie longue », fait savoir l’Andra. Aujourd’hui, plus de 30 % des déchets de haute activité et 60 % des déchets de moyenne activité à vie longue sont déjà produits et entreposés dans des entrepôts de surface, notamment à La Hague.

Cigéo ne prévoit donc pas le stockage de déchets radioactifs d’un nouveau parc de réacteurs nucléaire. Si de nouveaux réacteurs EPR sont autorisés, il faudra soit adapter Cigéo et réévaluer son coût, soit créer un nouveau centre de stockage.

Malgré l’incertitude portant sur les coûts globaux de construction et d’exploitation de Cigéo, la Cour des comptes a estimé que le coût du stockage des déchets radioactifs ne représente que 1 à 2 % du coût total de production d’électricité sur l’ensemble de la durée d’exploitation d’un réacteur. Néanmoins, cette réévaluation a des conséquences sur les comptes et les actions du Groupe EDF et d’Areva.  Dans un communiqué, EDF explique que cette nouvelle évaluation aura pour conséquence, dans les comptes consolidés du Groupe EDF au 31 décembre 2015, une augmentation de l’ordre de 800 millions d’euros des  provisions à faire pour Cigéo. Cette augmentation des provisions se traduira par un impact négatif sur le résultat net part du Groupe 2015 de l’ordre de 500 millions d’euros net d’impôts.

Par Matthieu Combe, journaliste scientifique

Première lumière de la future machine à étudier des trous noirs

Le consortium européen qui a conçu et construit GRAVITY est très satisfait des performances obtenues. Ce consortium, regroupant des astronomes et des ingénieurs, est piloté par l’Institut Max Planck pour la Physique Extraterrestre de Garching. Au cours de cette première phase de tests, l’instrument a en effet déjà réalisé quelques « premières ». GRAVITY est le plus puissant des interféromètres installés à ce jour sur le VLT.

As part of the first observations with the new GRAVITY instrument the team looked closely at the bright, young stars known as the Trapezium Cluster, located in the heart of the Orion star-forming region. Already, from these first data, GRAVITY made a discovery: one of the components of the cluster (Theta1 Orionis F) was found to be a double star for the first time. The brighter known double star Theta1 Orionis C is also well seen. The background image comes from the ISAAC instrument on ESO's Very Large Telescope. The views of two of the stars from GRAVITY, shown as inserts, reveal far finer detail than could be detected with the NASA/ESA Hubble Space Telescope.
As part of the first observations with the new GRAVITY instrument the team looked closely at the bright, young stars known as the Trapezium Cluster, located in the heart of the Orion star-forming region. Already, from these first data, GRAVITY made a discovery: one of the components of the cluster (Theta1 Orionis F) was found to be a double star for the first time. The brighter known double star Theta1 Orionis C is also well seen. The background image comes from the ISAAC instrument on ESO’s Very Large Telescope. The views of two of the stars from GRAVITY, shown as inserts, reveal far finer detail than could be detected with the NASA/ESA Hubble Space Telescope.

L’instrument GRAVITY combine la lumière collectée par plusieurs télescopes afin de constituer un télescope virtuel dont le diamètre peut atteindre jusqu’à 200 mètres. Cette technique baptisée interférométrie, permet aux astronomes d’obtenir des images d’objets astronomiques avec une résolution – ou niveau de détails – supérieure à celle des images acquises par un unique télescope.

Depuis l’été 2015, une équipe internationale d’astronomes et d’ingénieurs conduite par Franck Eisenhauer (MPE, Garching, Allemagne) installe l’instrument dans des tunnels prévus à cet effet situés sous le Very Large Telescope de l’Observatoire Paranal de l’ESO au nord du Chili. Il s’agit de la première phase de la mise en service de GRAVITY sur le Very Large Telescope Interferometer (VLTI).. Une étape cruciale vient d’être franchie : pour la toute première fois, l’instrument a combiné avec succès la lumière stellaire collectée par les quatre Télescopes Auxiliaires du VLT.

« À l’occasion de sa première lumière, et pour la toute première fois dans l’histoire de l’interférométrie optique astronomique, GRAVITY a pu réaliser des poses de plusieurs minutes, plus de cent fois plus longues que ce qui était possible jusqu’à présent », précise Franck Eisenhauer. « GRAVITY va permettre d’étendre l’interférométrie optique à l’observation d’objets beaucoup moins lumineux, et repoussera bien au-delà des limites actuelles la sensibilité de l’astronomie à haute résolution angulaire ».

Parmi les observations de cette première campagne, l’équipe a pointé l’instrument sur de jeunes étoiles brillantes de l’Amas du Trapèze situé au cœur de la région de formation stellaire de la constellation d’Orion. Ces premières données de test ont déjà permis à GRAVITY d’effectuer une petite découverte : l’un des composants de l’amas est un système d’étoiles doubles.

Le succès de cette opération reposait sur la capacité à stabiliser le télescope virtuel suffisamment longtemps, en utilisant la lumière issue d’une étoile de référence, pour permettre une pose longue sur un second objet bien plus faible. En outre, les astronomes sont parvenus à stabiliser la lumière provenant simultanément de quatre télescopes – un exploit inédit avec ce niveau de performance.

GRAVITY peut mesurer la position d’objets astronomiques avec la plus haute précision, faire de l’imagerie interférométrique ainsi que de la spectroscopie. À titre d’exemple, il pourrait apercevoir des éléments de construction sur la Lune et les localiser à quelques centimètres près. L’imagerie à une résolution aussi extrême a de nombreuses applications. Mais l’objectif principal de GRAVITY est d’étudier l’environnement des trous noirs.

GRAVITY étudiera notamment les effets de l’intense champ gravitationnel régnant à proximité de l’horizon des événements du trou noir super-massif situé au centre de la Voie Lactée – ce qui explique le choix du nom de l’instrument. Ces effets sont dominés dans cette région par la théorie de la relativité générale d’Einstein. Par ailleurs, GRAVITY observera en détail les phénomènes d’accrétion et de jets de matière qui se produisent à proximité des trous noirs super-massifs au centre des galaxies ainsi que dans l’environnement des étoiles nouvellement formées. Il excellera également dans l’étude  des mouvements des étoiles binaires, des exoplanètes et des disques autour des étoiles jeunes, et dans l’imagerie des surfaces d’étoiles.

Jusqu’à présent, GRAVITY a été testé avec les quatre Télescopes Auxiliaires d’1,8 mètre. Les premières observations avec les quatre Télescopes Unitaires de 8 mètres du VLT sont prévues pour 2016.

Le consortium GRAVITY est piloté par l’Institut Max Planck pour la Physique Extraterrestre de Garching en Allemagne. Les autres institutions partenaires sont :

  • LESIA, Observatoire de Paris, PSL Research University, CNRS, Sorbonne Universités, UPMC Univ. Paris 06, Univ. Paris Diderot, Sorbonne Paris Cité, Meudon, France
  • Institut Max Planck pour l’Astronomie, Heidelberg, Allemagne
  • 1. Institut de Physique, Université de Cologne, Cologne, Allemagne
  • IPAG, Université Grenoble Alpes/CNRS, Grenoble, France
  • Centre Pluridisciplinaire d’Astrophysique, CENTRA (SIM), Lisbonne et Porto, Portugal
  • ESO, Garching, Allemagne
  • Le Centre Français de Recherche Aérospatiale (ONERA)

Source : eso

Le photovoltaïque rentable sans subventions en 2020

Le coût d’installation des panneaux photovoltaïques ne cesse de décroître. En France, il a ainsi été divisé par quatre entre 2007 et 2014 pour une centrale au sol. À en croire la prospective de l’Ademe, les coûts des composants des panneaux solaires devraient encore diminuer de l’ordre de 35 % d’ici 2025, par rapport à 2014. De quoi rendre ces panneaux compétitifs face à l’électricité issue du réseau, et ce, sans subventions, dans les zones françaises les plus ensoleillées.

« La rentabilité des centrales au sol apparaît en 2021 dans le sud de la France », analyse l’Ademe.

« La rentabilité de l’autoconsommation sans stockage pour les grandes toitures apparaît en 2021 dans le sud de la France si les prix de marché et de détails restent similaires, et si 70 % de l’énergie produite est autoconsommée », précise l’Ademe. De plus, pour les petits systèmes, sans stockage, le seuil de rentabilité sans subvention pour les particuliers pourrait apparaître en 2020 dans le sud. Ce seuil dépendra néanmoins fortement du taux d’autoconsommation. Dès lors, il sera plus rentable pour un acteur d’investir dans un système photovoltaïque s’il consomme l’intégralité  de sa production à la place de soutirer l’électricité sur le réseau. Néanmoins, « le volume concerné est encore incertain », note l’agence.

Jusqu’à 1000 MW par an entre 2020 et 2025

Cette compétitivité concerne donc la production issue des centrales au sol face aux offres de fourniture classiques et, à terme, avec les marchés de gros. Mais face à l’augmentation des prix de l’électricité sur le marché de détail, elle concerne aussi l’autoconsommation pour certains bâtiments tertiaires et industriels équipés de grandes toitures photovoltaïques. Sans subventions, la filière se développera dans le sud pour des raisons économiques et cette nouvelle compétitivité pourrait permettre la construction de 100 MW/an sur ces deux segments sur la période 2020-2025, selon les projections de l’agence.

Par ailleurs, le photovoltaïque se développera pour des raisons réglementaires. Dans le cadre de la future réglementation thermique (RT 2020), les bâtiments neufs devront être à énergie positive en 2020. L’Ademe prévoit donc un pic de développement de capacité à partir de 2021. En fonction du cadre réglementaire final qui sera défini, « c’est entre 550 et 900 MW/an qui pourraient être installés sur des bâtiments neufs résidentiels ou tertiaires », estime l’Ademe.

Une rentabilité différente selon les régions

Le rapport souligne les disparités régionales. Si le photovoltaïque sera compétitif dans le sud de la France dès 2020, la réalité devrait être différente dans le nord. Et pour cause : l’ensoleillement en France varie de 1800  à 1150 kWh/m2/an selon les régions. Cela a des conséquences importantes sur le prix auquel l’électricité doit être vendue pour atteindre le seuil de rentabilité d’un projet. Ainsi, en 2014, une centrale au sol située dans le Nord-Pas-de-Calais devait vendre son électricité à un prix 57% supérieur qu’en PACA pour être rentable.

Pour assurer le développement du photovoltaïque dans l’ensemble des régions françaises, l’Ademe recommande donc d’introduire une modulation régionale des tarifs d’achat entre 2016 et 2020. Ainsi, la technologie pourra se développer avec des subventions modulées à la hausse dans le nord, mais à la baisse dans le sud. De quoi équilibrer le seuil de rentabilité des projets au niveau national.

Par Matthieu Combe, journaliste scientifique

Le paiement sans contact et sans… sécurité

Sur le papier, le paiement sans contact présente des atouts séduisants : en quelques secondes un client peut payer sa baguette ou son journal en passant sa carte bancaire devant un lecteur ad hoc. Plus besoin de taper son mot de passe. Les banques incitent les consommateurs à utiliser cette solution reposant sur la technologie NFC (pour Near Field Communication, communication en champ proche) qui ne fonctionne qu’à une faible distance, inférieure à 10 centimètres.

Résultat environ 31,5 millions de cartes de paiement sans contact circulent en France. Mais combien de personnes savent qu’ils disposent de ce moyen de paiement ? Et combien en connaissent les risques ?

Très peu, certainement. Après avoir lu cet article, ils seront certainement plus méfiants. Outre-Rhin des experts en sécurité informatique du célèbre Chaos Computing Club ont présenté récemment les failles de deux protocoles de communication exploités par les lecteurs de cartes : ZVT (Zahlungverkehrsterminal) et Poseidon. Le premier est utilisé, majoritairement en Allemagne, en jonction avec les systèmes de caisses en point de vente. Le second fait le lien avec les banques, en tant qu’implémentation du standard ISO 8583 (spécifications d’échange de messages dans le cadre de transactions financières).

Le premier n’embarque pas de mécanisme d’authentification. Une personne mal intentionnée qui se trouve à quelques centimètres de vous (dans le métro par exemple) peut récupérer à votre insu des informations sur votre carte et notamment son code PIN.  Une simple application téléchargeable gratuitement sur internet permet de capter, via un smartphone compatible MSC, les informations confidentielles contenues sur une carte bancaire équipée de la technologie NFC. « En posant le téléphone sur la carte, on obtient des informations de la personne. On a la civilité, le numéro de carte, la date d’expiration, donc les deux informations qui servent à payer », explique à l’émission de la RTS Nicolas Chauveau, étudiant au laboratoire de cryptologie et de virologie opérationnelle de l’ESIEA, en France.

La cause ? Une mauvaise implémentation du MAC (le code d’authentification de message) destiné à prouver que les données proviennent d’un tiers de confiance et qu’elles n’ont subi aucune modification.

Concernant Poseidon, le piratage est plus délicat, car il faut disposer d’un lecteur de cartes qui sera configuré à l’identique de celui de la victime. Lors des échanges d’informations avec l’organisme qui traite les paiements, le terminal du marchand envoie son identifiant. Cette connexion est chiffrée, mais elle est aussi lisible sur chaque reçu imprimé… Autre grave erreur, le mot de passe de la liaison chiffrée est généralement le même pour tous les marchands associés à un même organisme de gestion des paiements. En quelques secondes, un hacker peut le découvrir avec un logiciel spécial ou en cherchant un peu sur le web les mots de passe de tel ou tel organisme.

Ces révélations ne font que confirmer les craintes de plusieurs experts dont Renaud Lifchitz, ingénieur sécurité chez BT (anciennement British Telecom) qui avait mis au jour un gros problème de sécurité dans les nouvelles cartes bancaires utilisant la technologie NFC en 2012.

De son côté, Pierre-Alain Fouque. Ce spécialiste de la cryptographie au sein de l’Institut de recherche en informatique et systèmes aléatoires (Irisa), à Rennes, reconnaît que « des mesures ont été prises pour éviter que quelqu’un vide votre compte bancaire, en limitant une transaction à 20 euros, et de telle manière qu’on ne puisse pas faire plus de trois ou quatre paiements sans contact par jour ». En revanche, « il n’y a pas de réelles mesures de sécurité à l’intérieur des cartes bancaires pour éviter ce type d’attaque ».

Par Philippe Richard

Diya One, le robot anti-pollution

Pendant quelques mois, un drôle d’engin autonome a déambulé dans les couloirs de Engie Cofely (ex-Cofely Services). Sa mission, c’était d’épurer l’air ambiant, de le débarrasser des particules fines et autres composés organiques volatils (COV) qui pouvaient empoisonner la santé du personnel occupant ces bureaux. Ce robot porte le nom de Diya One. Il s’est envolé avec son géniteur, Ramesh Caussy, au CES de Las Vegas pour y faire la démonstration de son savoir-faire. Cet événement, profitant d’une forte exposition médiatique et d’un grand rayonnement international, est une aubaine dans une perspective de commercialisation, prévue cette année.

La pollution, Ramesh Caussy en connaît hélas trop bien les méfaits. Sa propre fille souffre de maladies chroniques imputées à la mauvaise qualité de l’air. Mais à quelque chose, malheur est bon. Il y puise la motivation nécessaire à la réalisation d’un robot dont le rôle serait de purifier l’air à proximité des humains. Ce docteur ès sciences de l’Ecole Polytechnique se lance seul dans ce projet dès 2007, dans le grenier de son domicile situé à La Frette (Val d’Oise). Il crée la même année la société Partnering Robotics, dont l’effectif compte aujourd’hui 23 personnes. C’est en 2015 que les choses s’accélèrent grâce à une levée de fonds et à la signature d’un partenariat avec Cofely Services, dont l’objet est l’évaluation de 6 robots en situation réelle. Les compétences de Diya One reçoivent même la validation du Centre scientifique et technique du bâtiment (CSTB).

diya_one

Analyse, brassage et filtrage

Ce robot mobile d’environ 80 centimètres de haut a pour mission première d’analyser de nombreux paramètres de l’air grâce à une série de capteurs : température et hygrométrie, mais aussi le taux de CO2, la concentration en ozone, en particules fines, en COVs… Puis, si nécessaire, il enclenche un processus de brassage et de filtration pour diminuer la présence de ces éléments nocifs. C’est en quelque sorte une pompe à air ambulante, qui circule de manière autonome. «Diya One ne se cognera pas aux personnes ou aux objets, précise Ramesh Caussy. Il est capable de passer des portes ou de prendre l’ascenseur.» Il peut aussi effectuer des rondes selon un trajet prédéfini et bénéficie d’une dizaine d’heures d’autonomie. Quand la batterie est en voie d’épuisement, Diya One se dirige seul vers sa base de recharge, à l’instar des robots-aspirateurs domestiques.

Les données récupérées et traitées par le Diya One jouent un double rôle. «Elles sont affichées sur le Diya Board, explique Ramesh Caussy. C’est un écran visible par tous qui permet aux gens d’être rassurés sur leur environnement de travail et la qualité de l’air intérieur. En outre, ces données permettent d’analyser l’environnement, de le répertorier et de comprendre les facteurs prépondérants pour améliorer le bien-être des occupants du bâtiment.» La phase d’expérimentation réalisée dans les locaux de Engie Cofely a été positive, selon Ramesh Caussy : «La capacité de navigation de Diya One et sa discrétion sont concluantes. Et cette présence est perçue comme bienveillante du fait du bénéfice rendu : épurer l’air.»

L’acceptation du Diya One sera en effet un facteur clé de sa réussite commerciale, d’autant que ce robot pourrait croiser des publics très différents au vu des débouchés potentiels  : les EPHAD (établissements d’hébergement pour personnes âgées dépendantes), les musées (plus l’air est sain, mieux les œuvres sont conservés), etc. Quoi qu’il en soit, le contexte est favorable à en croire certaines prévisions, qui estiment que le marché de la robotique de services pourrait peser 100 milliards d’euros en 2020.

Par Frédéric Monflier

Données personnelles : l’Europe renforce les droits des internautes

L’adoption d’un texte final, validé par le Parlement européen, la Commission européenne et le Conseil de l’Europe, aura le mérite de clarifier la situation avec des contraintes plus explicites pour les professionnels.

Les obligations des entreprises

La collecte et le traitement des données par les entreprises, quel que soit leur statut, va être réglementés par différentes mesures dont certaines n’entreront en vigueur qu’en 2018. Principale nouveauté, l’accord tacite, basé sur le principe du « qui ne dit mot consent », est révolu. Avant de recueillir des informations sur leurs visiteurs, les sites devront solliciter leur consentement explicite sous la forme, par exemple, d’une case à cocher. Si ses données personnelles ont été collectées irrégulièrement ou si une personne ne souhaite plus l’exploitation d’informations la concernant, elle pourra faire jouer son « droit à l’oubli ». Ce nouveau règlement européen élargit donc à toutes les entreprises ce que la justice a déjà imposé aux moteurs de recherche, en particulier à Google.

Par ailleurs, si un internaute souhaite récupérer des données personnelles récupérées et analysées par une entreprise, celle-ci devra les lui fournir dans un format utilisable par un autre service en ligne. Cette « portabilité » des informations risque néanmoins d’être une contrainte pour certaines entreprises… L’irréversibilité des données a en effet donné lieu à différents litiges, voire des procès (comme ce fut le cas entre Oracle et l’UMP), entre hébergeurs de données et leurs clients…

Histoire de convaincre les entreprises de tout mettre en œuvre pour protéger les données qu’elles stockent et parfois analysent, l’Europe annonce des amendes pouvant aller jusqu’à 4 % du chiffre d’affaires mondial. Certains pays, comme l’Allemagne, estimant que ce pourcentage pouvait être nuisible aux intérêts des entreprises, l’Europe a indiqué que les professionnels qui traiteront de façon anonyme les données personnelles ne seront pas contraints par cette réglementation.

Toujours dans le but de renforcer la protection des données sensibles (santé, opinion, etc.), le texte européen impose aux entreprises publiques de nommer un data protection officer, dont le rôle est proche du CIL, le Correspondant informatique et liberté.

Les droits des citoyens

Leurs droits sont renforcés puisque le texte leur garantit un meilleur accès aux données les concernant et entérine le principe du « droit à l’oubli ».
Les données liées à l’exercice de droits et de choix fondamentaux, comme la religion, l’appartenance politique ou la race bénéficient d’une protection renforcée. Leur traitement devrait être une exception et soumis, avant leur exécution, à une analyse d’impact du risque.
Enfin, comme c’est le cas dans certains États américains, les entreprises ayant constaté une fuite de données devront informer dans les 72 heures les autorités et les personnes concernées. Cette obligation est levée lorsque les informations sont chiffrées.

Les droits des États

Bien que ce texte s’impose à tous les États membres, ces derniers pourront adapter certains points. C’est le cas notamment de l’âge de « la majorité numérique », c’est-à-dire l’âge à partir duquel un adolescent n’a plus besoin de demander l’accord de ses parents pour accéder à un service en ligne. Bruxelles proposait 13 ans, comme aux États-Unis. Mais les États membres, et en particulier la France, préféraient 16 ans.
Finalement, les États membres pourront déroger à la règle générale des 16 ans.

Par Philippe Richard

Le télétravail : une faille de plus dans la sécurité des entreprises ?

Cette éventualité semble séduire les salariés. Plus de 60 % d’entre eux souhaiteraient faire du télétravail. La même proportion a émis le souhait de pouvoir le faire au moins plusieurs jours par semaine ou de temps en temps, d’après les résultats d’une étude de l’institut Odaxa, publiée en avril 2015.

Cette évolution des comportements est facilitée par les multiples solutions permettant de travailler à distance : visioconférence, ordinateur portable, messageries instantanées, calendrier partagé, smartphones, etc.

Revers de la médaille, ces multiples accès au réseau informatique de l’entreprise sont autant de failles de sécurité. Le télétravail peut être l’occasion pour les entreprises de profiter d’une souplesse et d’une meilleure productivité (pas de perte de temps avec les transports notamment). Mais le télétravail doit être aussi l’occasion pour les entreprises de renforcer leur politique de sécurité et notamment de mettre en place une gestion très précise des accès et des identités.

Les postes de travail des collaborateurs travaillant depuis leur domicile doivent être configurés de façon à ce que les risques d’infection virale soient limités et que les fuites de données sensibles soient réduites. Antivirus, pare-feu, logiciel antispam, mais aussi VPN (réseau virtuel privatif) et carte à puce intégrée au PC (pour authentifier les accès à distance) doivent être installés et mis à jour automatiquement.

Sensibilisation à tous les étages

La sensibilisation de tous les salariés est également prioritaire afin que chacun applique les règles essentielles de la sécurité informatique. Les salariés ne doivent pas cliquer sur des pièces jointes à des emails envoyés par des inconnus ou usurpant une identité. De leur côté, les responsables informatiques doivent mettre en place une politique stricte des accès afin d’autoriser telle ou telle personne à se connecter à tel ou tel service (ou application) et à faire telle ou telle tache. « Cela implique de définir précisément la zone de confiance, car il y a des risques d’usurpation d’identité. Cela implique de supprimer tous les comptes génériques et les remplacer par des comptes nominaux avec, pour chaque personne, la liste des opérations autorisées », insiste Dominique Meurisse, Chief Operating Officer de Wallix, un éditeur français de solutions de sécurité informatique spécialisé dans la traçabilité et la sécurisation des accès privilégiés aux systèmes d’informations des entreprises.

Grâce à des règles simples, il est possible de contrôler l’ensemble des accès à des équipements réseau. Ces règles sont définies en fonction de critères précis : l’adresse IP de l’utilisateur, son email, son login, les plages horaires auxquelles il est autorisé à accéder auxdits équipements, le type de session (interactive, transfert de fichiers, etc.) ou le protocole.

Les responsables informatiques doivent aussi proposer des plates-formes sécurisées de collaboration pour éviter les supports de stockage amovibles. Ils doivent aussi inciter les collaborateurs à utiliser un chiffrement complexe pour leur routeur à domicile. Même si vous devez assister l’utilisateur lors de la configuration ou proposer un point d’accès 4G (qui offre ce type de protection) à un prix préférentiel, c’est une étape nécessaire pour sécuriser les réseaux à domicile.

Séparation

Mais pour les experts du Laboratoire de virologie et de cryptologie, dépendant de l’ESIEA (une école d’ingénieurs du numérique), « le télétravail est comme incompatible avec le SI de l’entreprise. Pourquoi vouloir sécuriser un équipement qui, par sa nature instable, est une menace pour la sécurité du SI ? L’idéal serait d’utiliser au sein de cet équipement un conteneur logiciel étanche. Celui-ci serait une extension logique de l’entreprise au sein du terminal de l’employé. Relié au réseau local via un tunnel chiffré (Virtual Private Network (VPN)) lui aussi étanche, le conteneur aurait accès aux applications métiers et aux ressources de l’entreprise de manière sécurisée. L’utilisation d’un conteneur apporte une séparation forte entre une utilisation personnelle et une utilisation professionnelle ».

Ne pas mettre ses œufs dans le même panier est une règle qui peut paraître banale, mais qui a démontré son efficacité…

Par Philippe Richard

La menace coréenne monte d’un cran

Génèse

Les sources du conflit coréen remontent au début du XXème siècle. A l’époque, la Corée est colonisée par le Japon dont les méthodes provoquent des révoltes durement réprimées. La Seconde Guerre Mondiale va mettre fin à l’oppression japonaise. La conférence de Yalta en 1945 dessine le nouvel ordre mondial et prévoit l’indépendance de la Corée. Dans les faits, la péninsule sera sacrifiée sur l’autel de la Guerre Froide, divisée en deux le long du 38ème parallèle. La partie nord est dirigée d’une main de fer par Kim Il-sung, allié des Soviétiques, le sud étant soutenu par les Etats-Unis. La péninsule sera l’un des théâtres de guerre indirecte entre les deux superpuissances. Entre 1950 et 1953, le conflit fait 2 millions de victimes civils et militaires et marque profondément l’esprit des survivants. La fracture entre Coréens, devenus frères ennemis, ne fera alors que grandir. La guerre se conclut sur un armistice et non un traité de paix ce qui implique que les deux pays sont théoriquement toujours en guerre. Une zone démilitarisée est tracée autour du 38ème parallèle pour limiter le risque d’embrasement. Mais dans les faits, les deux armées se font face et cette bande de terre détient le titre peu enviable de plus grande densité d’armes et de militaires de la planète…

La chute de l’empire soviétique en 1989 va laisser Pyongyang seul face à ce qu’il appelle « l’impérialisme américain ». La disparition de l’URSS a impacté durement l’économie nord-coréenne qui s’est progressivement recroqueviller sur elle-même. L’autosuffisance et la menace étrangère vont ainsi devenir les thèmes principaux de la propagande du parti.

Le péril extérieur

Le sentiment d’insécurité va être exacerbé par le régime afin d’asseoir son emprise et constituer une armée disproportionnée. Selon les experts, le pays aurait la quatrième plus grande armée du monde avec 1,19 million de soldats et officiers, mais également une réserve de 5,7 millions de miliciens, sur une population qui n’excèderait pas les 25 millions d’habitants. Très nombreuse, l’armée nord-coréenne est assise sur un stock d’armes impressionnant issu de la Guerre Froide. Pyongyang disposerait ainsi de pas moins de 6 000 blindés en tous genres, 21 000 pièces d’artillerie, plus de 500 avions de combat ou encore de 70 sous-marins ! Pour autant, ces matériels sont anciens (années 60) voire obsolètes. La capacité d’attaque de Pyongyang est donc relativement faible mais, Séoul, la capitale sud-coréenne est très proche de la frontière et reste donc vulnérable par l’artillerie lourde nord-coréenne souvent dissimulée sous terre, à l’abri de l’aviation américaine et sud-coréenne.

C’est dans ce contexte que Pyongyang a décidé de lancer à la fin des années 90 son programme nucléaire, seul à même selon Kim Jong-Il, fils de Kim Il-sung et père de l’actuel dirigeant Kim Jong-Un, de garantir l’indépendance du pays.

Objectif A

Le programme nucléaire nord-coréen est relativement récent. Débuté selon les observateurs en 1998, il répond au sentiment d’insécurité lié à la chute de l’Union soviétique. L’arme atomique, objet de dissuasion, devient la priorité du régime et un instrument de cohésion national. Au vu de la difficulté technique et technologique d’une telle entreprise, du peu de moyens du pays, et de l’avancée rapide de son programme nucléaire, des soupçons pèsent fortement sur le concours d’un réseau clandestin qui aiderait le régime. L’ingénieur Abdul Qadeer Khan, « père » de la bombe nucléaire pakistanaise, est l’un des suspects. Il faut dire que les progrès nord-coréens en physique nucléaire ont été anormalement rapides. Pyongyang a testé sa première bombe au plutonium en octobre 2006 créant une vague d’inquiétude dans la région. Des négociations sont engagées mais n’aboutissent pas. En mai 2009, la Corée du nord annonce l’essai réussi d’une deuxième bombe au plutonium, plus puissante. En février 2013, les scientifiques nord-coréens franchissent une nouvelle étape-clé en faisant exploser sur leur site de Punggye-ri une bombe alimentée en uranium enrichi, ce qui implique une possible maîtrise du procédé d’enrichissement. Enfin, le dernier en date, l’essai en janvier 2016 d’une bombe à hydrogène.

essai

Des doutes

L’annonce de Pyongyang a surpris les observateurs internationaux. En premier lieu car la bombe à hydrogène représente un saut qualitatif majeur dans la menace que représente l’arsenal nucléaire nord-coréen. Contrairement à la bombe A (fission), la bombe thermonucléaire consiste en la fusion de deux noyaux légers (deutérium ou tritium), ce qui représente un défi technologique qui semblait jusqu’ici hors de portée du régime de Kim Jong-un. Ces engins sont généralement divisés en deux étages : le premier est celui d’une bombe A qui fait office de détonateur pour le second étage, constitué des combustibles de fusion. Une complexité qui fait douter certains experts en armement de la véracité de cette annonce. Les relevés sismologiques de l’agence américaine USGS font en effet apparaître des mesures de 5,1 sur l’échelle de Richter, soit sensiblement équivalent à ceux enregistrés en 2013 lors du 3ème essai de la bombe A. Or, une bombe à hydrogène est nettement plus puissante, le séisme enregistré aurait donc dû être plus important. Ce ne serait pas la première fois que Pyongyang use de la désinformation.

L’autre inconnue réside dans la capacité réelle des ingénieurs nord-coréens à miniaturiser la bombe présumée. Un pré-requis indispensable pour pouvoir l’installer sur les missiles balistiques Taepodong-2, d’une portée théorique de 4 500 km mais dont la maîtrise est encore imparfaite (2 tirs ratés sur 3). Par ailleurs, ces fusées restent encore très rustiques par rapport aux technologies anti-missiles développées par les Etats-Unis notamment. En revanche, la proximité de la Corée du sud et du Japon les rend potentiellement plus vulnérables.

Axe du mal

Face à la menace que représentait le développement d’un programme nucléaire clandestin, l’administration Clinton avait initié des négociations. L’élection de Georges W. Bush, et les attentats du 11 septembre 2001, ont radicalement changé la donne. La Corée du nord a été classée dans le fameux « Axe du mal », aux côtés de l’Irak et l’Iran, contre lequel Washington partit en guerre, au sens propre et figuré. La multiplication des essais nucléaires nord-coréens s’est traduite par le vote systématique de nouvelles sanctions au Conseil de sécurité des Nations-Unies, dont l’efficacité semble aujourd’hui bien maigre. Ces provocations ont durci un peu plus l’opinion publique du sud qui a porté au pouvoir en 2008 le parti conservateur, peu enclin à l’apaisement. Ainsi, les années 2010 se sont caractérisées par des provocations verbales des deux côtés, Pyongyang promettant « une mer de feu » à Séoul, qui s’en amuse en retour : « un chien qui aboie ne mord pas », se serait hasardé le ministère de la Défense sud-coréen. Cette tension a dépassé les simples mots en novembre 2010, lorsque le nord a bombardé l’île de Yeonpyeong, située dans une zone stratégique et très disputée. Elle est, depuis la fin des années 90, l’objet de nombreux accrochages entre les armées des deux pays, mais jusqu’ici, le conflit n’a jamais dégénéré. L’arrivée à la Maison Blanche de Barack Obama n’a guère changé la donne. Empêtré au Moyen-Orient, le président américain s’est concentré sur d’autres priorités laissant la situation coréenne pourrir un peu plus. De fait, les pays de la région poursuivent leur course aux armements.

Bombe à retardement

Si le scénario d’une confrontation directe et totale sur la péninsule coréenne est peu probable, l’attitude belliqueuse de la Corée du nord n’en reste pas moins problématique au regard de la situation régionale tendue. Historiquement premier allié du régime de Kim Jong-un, Pékin joue un jeu d’équilibriste. Le maintien de la menace nord-coréenne est utile car elle détourne en partie l’attention et les ressources de ses concurrents régionaux. Par ailleurs, Pékin craint  l’effondrement du régime nord-coréen et des millions de réfugiés qu’il pourrait entraîner. Longtemps solidaire, la Chine a ainsi peu à peu pris ses distances avec le voisin coréen, jusqu’à voter des sanctions au Conseil de sécurité, elle qui n’hésite pas à opposer son veto lorsque ses intérêts sont menacés. L’attitude de la Chine est le deuxième facteur de tension régionale.

La montée en puissance de l’économie chinoise s’est accompagnée d’une politique étrangère visant à sécuriser ses approvisionnements en matières premières et les passages maritimes stratégiques (comme le détroit de Malacca). Cette stratégie s’est traduite notamment par le déploiement d’une grande flotte de guerre qui inquiète au plus haut point ses voisins et les Etats-Unis.

Mais le changement de paradigme majeur est sans aucun doute la remilitarisation du Japon qui, depuis la Seconde Guerre Mondiale, s’était interdit d’envoyer des troupes hors du sol nippon et avait délégué aux États-Unis la charge de protéger le pays. Une règle inscrite dans la Loi japonaise mais amendée par le Premier ministre Shinzo Abe, élu en 2012. Il s’agit là d’un tournant géopolitique majeur dans l’équilibre des forces. Les capacités technologiques de l’archipel devraient propulser son armée à la quatrième position des forces de la région. En 2015, le budget de la Défense japonais a atteint les 41,7 milliards de dollars, un record pour le pays et, le septième plus important au monde. Cette remilitarisation est justifiée par les Conservateurs japonais par la menace nord-coréenne et la politique marine active menée par Pékin. Le Japon entretient avec la Chine un contentieux territorial au sujet des îles Senkaku/Diaoyu en Mer de Chine orientale. Cette dernière inquiète ses voisins en raison de sa stratégie dite de « polders », en référence aux Pays-Bas, qui consiste à créer de toutes pièces des îles artificielles, en Mer de Chine méridionale, destinées à abriter des bases militaires.

En somme, le cas nord-coréen montre les limites du Traité de non-prolifération nucléaire, conclu en 1968, qui n’aura pas empêché plusieurs nations d’acquérir l’arme atomique (Israël, Inde, Pakistan et Corée du nord). Face à une Chine ambitieuse, on assiste au renforcement de l’alliance militaire tripartite issue de la Guerre Froide entre les Etats-Unis, la Corée du sud et le Japon. Une escalade militaire qui ne présage rien de bon.

Par Romain Chicheportiche

E-cigarette : le diacétyle, une substance dangereuse ?

C’est ce qu’indiquent des chercheurs de l’Université de Harvard (Massachusetts, États-Unis). Selon leurs travaux publiés dans l’édition de décembre 2015 de la revue Environmental Health Perspectives, des traces de diacétyle ont été repérées dans 39 des 51 types de liquides testés. Or, son inhalation prolongée peut déclencher une bronchiolite oblitérante.  Deux autres composés potentiellement toxiques pour les voies respiratoires, l’acétoïne et l’acétyle propionyle, ont également été détectés.

Cet additif alimentaire très utilisé dans l’industrie agro-alimentaire pour renforcer les goûts des biscuits, gâteaux mais aussi des boissons alcoolisées est mis à l’index par des scientifiques depuis 1985. A cette époque, une corrélation entre le diacétyle et cette maladie a été constatée lorsqu’elle est inhalée (pas lorsqu’elle est ingérée).

Mais cette étude est-elle réellement alarmiste ? Le Dr Konstantinos Farsalinos, spécialiste grec de la cigarette électronique « précise que les valeurs retrouvées dans cette étude sont faibles et même inférieures à celles que lui-même avait trouvées dans son étude de l’an dernier. Et surtout, cette nouvelle étude ne fait pas mention que ces substances sont aussi trouvées dans la fumée des cigarettes de tabac à des concentrations 10 fois (pour le diacétyle) et 100 fois (pour l’acétyle propionyle) plus élevées ».

surtout, cette nouvelle étude ne fait pas mention que ces substances sont aussi trouvées dans la fumée des cigarettes de tabac à des concentrations 10 fois (pour le diacétyle) et 100 fois (pour l’acétyle propionyle) plus élevées

Pour Jacques Le Houezec, membre de l’équipe de recherche en Addictologie à l’Institut national de la santé et de la recherche médicale (INSERM), le but de cette étude est de « faire peur, et le résultat est que de moins en moins de fumeurs font confiance à la vape pour arrêter de fumer, car ils pensent à tort qu’elle est aussi, voire plus dangereuse que la cigarette. Dès l’instant où l’on arrête d’inhaler de la fumée (c’est elle qui est dangereuse, pas la nicotine) il y a un bénéfice de santé. Même si pour cela il peut être nécessaire de s’exposer à un très faible risque résiduel, qui reste cependant à démontrer ».

L’alarme lancée par les scientifiques américains vise peut-être un objectif plus précis : Sylvia Mathews Burwell, la secrétaire à la Santé et aux Services sociaux des États-Unis. A la différence de la France où différentes normes Afnor ont été adoptées en mai 2015, les États-Unis (mais aussi des pays européens) n’ont pas une réglementation restrictive. « La norme XP90-300 interdit l’utilisation de diacétyle dans les produits de la cigarette électronique. Les liquides fabriqués en France sont donc en principe exempts de cette substance, quelle que soit la saveur », a expliqué à Sciences et Avenir le Pr Bertrand Dautzenberg, professeur de médecine français et praticien dans le service de pneumologie de l’Hôpital de la Salpêtrière à Paris.

Par ailleurs, un processus de certification des fabricants, destiné à attester le respect de la norme Afnor, sera mis en place cette année.  En attendant, les vapoteurs peuvent se tourner en priorité vers les plus grandes marques françaises (Alfaliquid, D’lice ou Vincent dans les Vapes) et certaines marques nord-américaines (Halo et Vapor Shark) qui proposent des liquides sans diacétyle.

Ce n’est pas la première fois que la cigarette électronique est pointée du doigt. En 2014, une campagne de vérifications de la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) avait conclut à une non-conformité de 90 % des liquides prélevés et de près de la totalité des chargeurs. Sur 110 analyses chimiques effectuées sur les liquides, la DGCCRF a relevé 90 % de produits non conformes. Par ailleurs, 6 % de ces produits ont été jugés « dangereux » pour des motifs d’absence d’étiquetage de danger ou d’absence de dispositif de fermeture de sécurité pour enfants.

Jacques Le Houezec rappelle aussi « que le risque zéro n’existe pas dans la vie. Même respirer l’air de nos villes ou boire l’eau du robinet n’est pas sans risques. Mais il est clair que, pour un fumeur, l’exposition à la vapeur d’e-cigarette est bien moins problématique que de continuer à fumer ».

Par Philippe Richard

Des lampadaires solaires créent des nano-réseaux !

Voici une invention qui pourrait bien changer la donne pour les 600 millions d’Africains qui n’ont pas accès à l’électricité. Le 20 novembre, Sunna Design a lancé une campagne de crowdlending. Alors que l’objectif initial porté à 100 000 € prévoyait l’électrification de 500 foyers au Sénégal, la jauge atteint déjà plus de 373 000 euros. Les objectifs ont donc été réhaussés et 1 500 foyers devraient accueillir la fée électricité en 2016. Au total, 10 000 foyers devraient être équipés dans cette région du Sénégal, l’entreprise attend donc de nouveaux investisseurs. L’intégralité de la production de l’entreprise est « made in France», sur son site de Blanquefort près de Bordeaux.

up4Des innovations techniques

Les lampadaires sont surmontés de panneaux solaires et équipés d’une batterie nickel-hydrures NiMH. Cette technologie de batterie, développée en partenariat avec le laboratoire public CEA-INES (Institut national de l’énergie solaire)  fonctionne même dans un environnement désertique ou tropical, et résisterait pendant 10 ans, sans maintenance, à des températures allant jusqu’à 70°C.

L’électricité produite par le lampadaire allume des rangées de LED à la nuit tombée et éclaire la place publique. En plus, chaque lampadaire peut être relié par câbles jusqu’à 8 maisons. A l’intérieur, un boîtier électrique permet de brancher un dispositif d’éclairage à LED, d’y utiliser de petits appareils électriques ou de recharger un téléphone portable grâce aux différents câbles fournis.

Un mode de financement innovant

Outre les spécificités techniques, le mode de financement est également innovant. D’abord, le lampadaire, les lampes et les boitiers sont installés gratuitement et ils sont remboursés progressivement par les habitants au fur et à mesure de leur utilisation du service. Ainsi, les habitants reliés à chaque lampadaire payent ce service 20 centimes d’euros par jour d’utilisation, via leur téléphone portable. Sunna assure que grâce à ce système, l’installation est remboursée en 3 ans (soit environ 1 700 euros).

Ce lampadaire solaire permet aux habitants de faire des économies et de s’affranchir de modes de chauffage et d’éclairage polluants. « Les 600 millions d’Africains qui n’ont accès à l’électricité dépensent jusqu’à 30% de leurs revenus en bougies, piles et kérosène. Et 80% d’entre eux possèdent un téléphone mobile : pour le charger, ils doivent parfois faire des kilomètres et payer jusqu’à 50 centimes d’euros », explique Jean-Baptiste Lenoir, Directeur Nouveaux Marchés de Sunna Design à Sciences et Avenir.

Dans ce business model, il restait à savoir comment Sunna Design pouvait financer l’installation de milliers de lampadaires, sachant qu’elle serait remboursée par leur utilisation. Pour ce faire, plutôt que de miser sur le crowdfunding comme le font de nombreuses start-up, Sunna Design a préféré le système de crowdlending. Le particulier qui apporte son épargne finance le projet et est rémunéré avec un taux d’intérêt annuel brut de 6% sur la somme prêtée. Il est remboursé tous les six mois, pendant trois ans, le temps que l’installation du lampadaire soit remboursée par les utilisateurs à l’entreprise ! Les prêts sont ouverts dès 50 €.

Sunna Design aurait déjà mis en place 5 000 de ces lampadaires. Ces premières réussites attirent les investisseurs. En Décembre 2014, l’entreprise a levé 5,3 millions d’euros. Elle espère désormais lever 20 millions d’euros supplémentaires en 2016.

L’intérêt des lampadaires Sunna en vidéo !

Par Matthieu Combe, journaliste scientifique

Une imprimante 3D qui sculpte du verre fondu

Leur machine, présentée lors de la conférence de mécanique des fluides de la Société Américaine de Physique, le 24 novembre à Boston, est capable de chauffer du verre à 1037,77° Celsius – afin de le faire fondre, de le maintenir en fusion, et de pouvoir ensuite le faire “couler” jusqu’à “modeler” et obtenir l’objet désiré.

3d-printed-glass-MIT-Neri-Oxman

“La machine à coudre du verre en fusion”

L’imprimante 3D du Glass Lab, baptisée “Glass 3D Printing” (G3DP), et aussi surnommée par les scientifiques “la machine à coudre de verre en fusion”, a été conçue en aluminium, sur une armature d’acier.

Test-impression-3D-verre-04

Selon Sciences et Avenir, la G3DP est dotée de “buses en oxyde d’aluminium” et d’un “système de compartiments”, qui permet de “faire passer la matière en fusion d’un creuset aux buses tout en maintenant la température adéquate à tous les stades de l’opération”.

impression3d-verre

Afin de solidifier l’objet (à l’origine, conçu à partir d’un fichier numérique), et de le refroidir sans le briser, la machine injecte progressivement de l’air comprimé dans l’espace où il se forme.

Ce procédé corrige le principal défaut des techniques utilisées jusqu’ici pour imprimer des objets en verre en 3D : l’utilisation de poudre de verre, qui ne permet de produire que des objets opaques, et non transparents.

Par Fabien Soyez