Les pièges à molécules se diversifient et se multiplient

De l’Amoco Cadiz à Deepwater Horizon, les marées noires reviennent régulièrement polluer les côtes et les mers du monde entier. Des chercheurs chinois d’un côté et des chercheurs américains de l’autre ont développé des éponges à hydrocarbures en s’appuyant sur les composés chimiques super-oléophiles et super-hydrophobes. Les éponges à hydrocarbures actuellement sur le marché donnent des déchets solides qu’il faut traiter alors que le nouveau type d’éponges mises au point au laboratoire d’Argonne à Chicago par des Américains présente l’avantage de pouvoir relarguer les hydrocarbures sous une forme utilisable. L’Oleo-Sponge, comme elle a été baptisée, se présente plutôt comme une bande de tissu peut donc être utilisée plusieurs fois. Elle est composée d’un polymère auquel a été ajouté une couche d’oxydes métalliques qui retient les hydrocarbures. Les chercheurs expliquent s’être inspirés des méthodes de synthèse d’infiltration séquentielle (SIS) utilisées à l’échelle nanométrique pour créer leur éponge en polymère. Testée en laboratoire et dans un bassin d’eau de mer, l’éponge a démontré sa capacité à absorber les hydrocarbures à la surface et en profondeur avec un taux de 30 fois son poids d’origine pour le polyuréthane à 90 fois pour le polyimide (voir cette vidéo). Ces recherches ont fait l’objet d’un article dans le Journal of material chemistry A.

Dans ce même journal, un an plus tôt, une équipe chinoise de la Northwest Normal University de Gansu proposait une éponge à hydrocarbure basée sur un polyuréthane dont la surface était couverte d’attapulgite super-hydrophobe. Pour rendre leur éponge pleinement opérationnelle en condition maritime, les chercheurs proposait de la coupler à un système d’aspiration par vide d’air permettant ainsi de récolter 3200 fois le poids de l’éponge en 20s. L’étude note aussi que cette éponge peut permettre de séparer à plus de 99% les gouttes d’huile d’une émulsion huile-eau obtenue après la dispersion d’un tensioactif.

Capter les odeurs et les micro-polluants

Le système de l’”éponge” inspire d’autres secteurs et sous d’autres formes. Ainsi, un article de Science et Avenir de mars 2017 sur la biométrie olfactive en criminologie, se faisait l’écho d’un organogel microporeux mis au point par une équipe de chercheurs toulousains. A base d’huiles végétales et de gélifiants auxquels sont ajoutés des cristaux de sucre, le dispositif piège les odeurs résiduelles, celles que l’on laisse sans s’en apercevoir et ce de manière extrêmement concentré. Alexandra ter Halle, l’une des chercheuses, précise ainsi que “dans une pastille d’organogel de la taille d’une pièce de monnaie la surface de contact avoisine 200m2”. Mais il reste encore à analyser le contenu avec un spectromètre de masse et à le caractériser avec certitude.

Dans la catégorie piège à molécules, l’innovation se tourne aussi vers le “bio”. Biostart, jeune pousse, récemment primée au concours de l’innovation du Génopole, Genopole Young Biotech Award en décembre 2016, propose ainsi, un polymère à base de cyclodextrine pour piéger les micro-polluants des eaux usées, notamment les 40 visés par la directive européenne sur la protection de l’eau. La cyclodextrine est un polymère que l’on peut par exemple facilement fabriquer à partir de l’amidon de la pomme de terre et qui est couramment utilisé pour l’encapsulation dans l’industrie pharmaceutique. Le brevet déposé, le polymère doit maintenant être testé en conditions réelles dans une station d’épuration.

Sophie Hoguin

Cigéo : les associations montent au créneau

La Cour d’appel de Versailles estime que « l’examen attentif » de l’argumentation du réseau Sortir du nucléaire et de cinq associations locales « ne permet pas de caractériser contre l’Andra la moindre faute ». En somme, la Cour d’appel a cette fois estimé que les associations avaient « intérêt à agir » et que leur plainte était recevable, contrairement à la première décision du Tribunal de grande instance de Nanterre en mars 2015. Néanmoins, elle rejette leur requête sur le fond.

« L’Andra se félicite de cette décision », fait savoir l’agence dans un communiqué. Elle souligne que « les données et leur interprétation, transmises en toute transparence, n’ont jamais été contestées par les contre-expertises qui ont eu lieu ». Néanmoins, le réseau Sortir du nucléaire estime que l’Andra a cherché à minimiser ce potentiel géothermique. De son côté, la fédération d’association France Natura Environnement considère que « la Cour d’appel de Versailles a refusé de prendre acte de la faute commise par l’Andra ». Les associations envisagent de saisir la Cour de cassation.

Y a-t-il un potentiel géothermique important?

Selon le Guide de sûreté relatif au stockage définitif des déchets en formation géologique profonde établi par l’ASN en 2008, le site retenu pour le stockage des déchets radioactifs en profondeur ne doit pas présenter « d’intérêt particulier » du point de vue de la géothermie. L’Andra et les associations interprètent ce point différemment. Selon l’Andra, seul un potentiel « exceptionnel » pourrait remettre en cause le projet. Et l’agence est formelle: le potentiel géothermique y est seulement « équivalent à la moyenne européenne ».

Pour les opposants, une géothermique économiquement viable suffit à mettre fin au projet. Les associations se fondent sur l’avis de la société GEOWATT AG, qui conclut dans son rapport de 2013 que « les ressources géothermiques au Trias dans la région de Bure peuvent aujourd’hui être exploitées de manière économique avec l’emploi de techniques et de matériel appropriés ».

Le projet Cigéo fait l’objet d’une bataille juridique acharnée entre les associations anti-nucléaires et l’Andra. Plusieurs jugements sont en attente de libéré. Le tribunal administratif de Nancy a invalidé le 28 février la cession du bois Lejuc à l’Andra pour y installer les cheminées d’aération de Cigéo. La commune de Mandes, proche de Bure dispose de 4 mois pour revoter la cession. Par ailleurs, le tribunal de grande instance de Bar-le-Duc se prononcera le 5 avril sur la possible expulsion d’opposants qui occupent ce bois. Enfin, en mai, la cour d’appel de Nancy fera savoir si l’Andra doit remettre le lieu en état, suite à un défrichage jugé illégal par les opposants.

Par Matthieu Combe, journaliste scientifique

Les réunions de demain seront-elles holographiques ?

Censées exhorter les échanges et in fine la productivité, les technologies interactives et de collaboration distante font l’objet d’installations tangibles dans de nombreuses entreprises et de réflexions approfondies pour les autres. Pour Mimesys, la réalité virtuelle a elle-aussi le potentiel pour s’imposer dans les salles de réunion de demain. L’outil développé par cette start-up belge est défini comme une plateforme de réunion holographique : les participants, où qu’ils soient, sont reproduits en 3D (pas sous forme d’avatar) et interagissent dans un espace virtuel.

mimesys

Le néologisme «holoportation», entendu ici et là, est assez représentatif du fonctionnement de ce dispositif. «On s’inscrit dans la continuité de la visioconférence, explique Rémi Rousseau, le co-fondateur. Mais en vérité, les télécommunications n’ont pas beaucoup évolué depuis 100 ans.» La réalité virtuelle a donc pour vocation de leur apporter une nouvelle dimension. Mimesys n’est pas la seule à s’intéresser à la question. Cette édition de Laval compte parmi ses exposants MiddleVR (Improov) et Manzalab (Teemew), dont les méthodes sont proches.

En ce qui concerne Mimesys, chaque participant est en pratique filmé – ou plutôt capturé – par une caméra 3D et porte un casque audio et un casque de RV/RA, grâce auquel il voit l’environnement de travail, réalisé en images de synthèse, et la «doublure virtuelle» de ses interlocuteurs. Manettes en main, tous ont la possibilité d’agir sur les plans, les photos et les documents, de les partager, de les agrandir, de les annoter à l’aide d’un stylo, de la même manière que sur un tableau blanc interactif. Les sensations et l’ergonomie générale sont impressionnantes.

Un outil attractif pour la génération Y

A Laval Virtual, pour les besoins de la démonstration, les équipes de Mimesys ont déployé un matériel somme toute assez standard, preuve que les investissements ne sont décidément plus aussi lourds qu’autrefois : une caméra Kinect, pour la capture, et un casque HTC Vive pour chaque participant, sachant que le casque HoloLens de Microsoft est aussi pris en charge.

Mais, comme il s’agit avant tout d’une plateforme cloud à la demande (« as a service »), le moteur de ce projet repose surtout sur un logiciel maison. «Nous avons créé un codec qui traite de manière dynamique les images 3D, précise Rémi Rousseau. Le dépôt de brevet est en cours. L’enjeu, pour la recherche et le développement, consiste à aligner les mondes réel et virtuel.»

Il existe aussi un enjeu pour les entreprises-clientes, au delà des aspects opérationnels. «Ces outils sont attractifs pour les «millenials » (NDLR : génération Y), de plus en plus sensibles à l’environnement technologique des entreprises.» Autrement dit, un moyen efficace pour recruter. A voir si l’outil de Mimesys, expérimenté dans des grandes entreprises, saura convaincre les jeunes et les moins jeunes.

Frédéric Monflier

Smart Helmet, casque de sécurité et de réalité augmentée

Présenté à plusieurs reprises depuis 2015, en particulier lors du CES de Las Vegas, le Smart Helmet de la société américaine Daqri s’expose au salon Laval Virtual. Ce casque de réalité augmentée a la particularité d’assurer une protection identique à celle d’un véritable casque de chantier. Cette conformité aux normes de sécurité lui permet d’être employé par les techniciens et les maîtres d’œuvre intervenant en usine ou sur les chantiers de construction. Même la visière a été renforcée.

smart

Le Smart Helmet se distingue de plus par son intégration. Le mini-PC (assorti d’un processeur Intel Core m7) qui supervise le fonctionnement du dispositif est logé à l’arrière du casque et les communications s’opèrent sans fil, via WiFi ou Bluetooth. Se pose alors la question de l’autonomie fournie par la batterie. «Celle-ci est de l’ordre de 4 à 5 heures » répond Fabrice Etienne, directeur du marketing international chez Daqri.

Une caméra thermique en complément

L’équipement est logiquement complété par une caméra, dont les images réelles servent de référence pour la réalité augmentée, et par un système stéréo d’émetteur/capteur infrarouge qui analysent les distances nécessaires aux images 3D. Une caméra thermique a cependant été ajoutée et les possibilités fonctionnelles de l’ensemble sont donc assez inédites. «Cette permet de distinguer les différences de température et de détecter des fuites potentiellement dangereuses pour le technicien, explique Fabrice Etienne. C’est aussi un moyen de réaliser une maintenance proactive si l’on observe une usure ou une anomalie

Ce casque de réalité augmentée tout-en-un, en version développeur, est commercialisé à 15000 dollars et disponible auprès de Daqri ou de ses partenaires. Il est déjà utilisé aux Etats-Unis dans le cadre de la construction d’un hôpital. En France, Vinci l’expérimente également. Daqri, se tournant d’habitude vers l’industrie, profite de Laval Virtual 2017 pour présenter d’autres orientations professionnelles et les nouveaux produits correspondant. Dont les Smart Glasses (5000 dollars, disponibles en juin), lunettes de réalité augmentée plus classiques qui pourraient trouver preneur dans le secteur médical par exemple ; et aussi le Smart Hub, projecteur holographique prévu pour intégrer de série les voitures.

Frédéric Monflier

Vers la création d’une île artificielle en mer du Nord ?

L’île de Dogger Bank

Cette idée a été lancée en 2016 par TenneT et Energinet, les gestionnaires de réseaux (GRT) hollandais, allemand et danois. Les deux compagnies avaient annoncé leur intention d’utiliser un banc de sable connu de mer du Nord, Dogger Bank, pour construire une île artificielle. Cette formation géologique particulière montre une profondeur d’eau limitée (entre 15 et 36 mètres), ce qui permettrait de faire surgir de l’eau une île d’environ 6,5 km2. Une surface qui permettrait d’y installer toutes les installations nécessaires à une base logistique en pleine mer sur laquelle vivrait un contingent d’ingénieurs spécialisés dans l’éolien offshore. La construction d’une, voire plusieurs îles artificielles, nécessite des techniques de remblayage et de digues bien maîtrisées par les ingénieurs. Des pays comme les Pays-Bas et le Japon se sont fait une spécialité de ces techniques qui permettent de gagner du terrain sur la mer. Les monarchies du Golfe se sont elles-aussi intéressées ces dernières années à ces îles, tout comme la Chine mais pour des raisons éminemment plus géopolitiques.

dogger island map north sea
dogger island map north sea

Wind Hub

L’intérêt de cette île artificielle, dénommée North Sea Wind Hub, réside dans les importantes économies d’échelle qu’elle pourrait générer. En effet, la filière de l’éolien offshore se heurte encore à des coûts de construction et de maintenance élevés en raison des difficultés d’accès et des conditions météorologiques. Créer une base logistique en pleine mer devrait réduire un peu les coûts de construction et surtout de maintenance. « Construire une ou plusieurs îles artificielles au milieu de la mer du Nord ressemble à un projet de science-fiction, mais il pourrait être un moyen très efficace et abordable pour les pays de la mer du Nord de répondre à la demande future d’énergie renouvelable », déclare Torben Glar Nielsen, directeur technique d’Energinet.

csm_csm_North-Sea-Island_web_c9f64bf2a4_a5e620ae6c

Selon les porteurs du projet, le potentiel de l’éolien offshore dans cette zone serait compris entre 70 et 100 GW, soit un important vivier d’énergie. L’électricité produite serait alors évacuée vers les pays limitrophes : le Royaume-Uni, la Norvège, l’Allemagne, les Pays-Bas, le Danemark et la Belgique grâce à de nouveaux câbles sous-marins qui viendraient s’ajouter aux existants, permettant d’augmenter les échanges sur les marchés électriques de ces pays.

Réalisable ?

Si le projet North Sea Wind Hub est très séduisant sur le papier, reste la question de sa réalisation. La technique n’est pas l’enjeu majeur de ce projet, même si des arbitrages techniques restent encore à faire pour répondre aux problématiques spécifiques liées à la réalisation d’un projet d’une telle envergure dans des conditions pour le moins difficiles. La question du coût reste l’enjeu majeur. Il a été estimé au bas mot à 1,2 milliards d’euros par le Copenhagen Post ce qui explique que les deux compagnies cherchent d’autres partenaires : « Cette coopération avec Energinet est une invitation aux GRT des pays de la mer du Nord ainsi qu’à d’autres entreprises d’infrastructures à rejoindre l’initiative. Le but ultime est de construire une solide coalition d’entreprises qui rendra la transition énergétique européenne possible et abordable », indique Mel Kroon, pdg de TenneT.

Le projet North Sea Wind Hub n’est pas sans rappeler un autre projet d’envergure lancé en 2009 : Desertec. Il s’agissait à l’époque d’utiliser le potentiel solaire d’Afrique du nord et du Moyen-Orient pour installer pas moins de 100 GW de panneaux photovoltaïques. L’électricité produite aurait été en grande partie renvoyée vers l’Europe à travers des câbles passant sous la Méditerranée. Mais les révolutions arabes sont passées par là et la détérioration rapide de la situation géopolitique dans cette région a mis à bas tout espoir de voir ce projet se réaliser à court ou moyen terme. Fort heureusement, la situation politique en mer du Nord est loin d’être aussi tumultueuse laissant présager une autre issue. Encore faut-il que TenneT et Energinet parviennent à fédérer autour d’eux les volontés, les moyens financiers et humains des autres GRT. C’est la condition sine qua non à la réalisation de cet ambitieux projet.

Romain Chicheportiche

Lanceurs légers : quand le premier étage de la fusée est un ballon stratosphérique

Le premier mars 2017, partis au large de la côte espagnole dans le golfe de Cadix, quelques membres de l’équipe de Zero 2 Infinity ont lâché un ballon stratosphérique stabilisé (sa trajectoire n’est pas aléatoire) transportant le prototype de la fusée Bloostar. Arrivé à 25 km d’altitude, l’équipe au sol, accueillie dans les locaux de l’Institut national de technologies aérospatiales espagnol, à El Arenosillo (province de Huelva), a déclenché la mise à feu des neuf moteurs de la fusée Bloostar qui a atteint en quelques secondes sa vitesse de pointe de 62m/s (voir la vidéo).

bloostar_launch

L’objectif de ce premier vol d’essai était de valider les choix technologiques faits pour contrôler la séquence de vol de la fusée: fonctionnement du système télémétrique dans les conditions spatiales, contrôle de la mise à feu des moteurs, stabilisation de la fusée, déploiement du parachute et récupération du lanceur. Tous les paramètres testés ont été validés.

Une solution écologique et économique

Bloostar proposera à terme une solution pour lancer des petits satellites extrêmement compétitive. En effet, en s’affranchissant de la résistance de l’atmosphère lors du lancement, le besoin en carburant est minimum et la conception de la fusée grandement facilitée puisqu’elle doit juste opérer dans des conditions de vide ou proche du vide. En outre, d’un point de vue logistique, les lancements peuvent être réalisés n’importe où (pas besoin de base spéciale au sol) et avec une flexibilité maximum. Les Espagnols annonçant qu’il ne faudra que 15 jours pour préparer un vol.

Depuis la présentation officielle de son projet fin 2014, la société basée à Barcelone, a déjà réuni 250 millions d’euros en lettres d’intention pour de futurs lancements. Évidemment, le marché visé est celui de petits satellites puisque la charge utile embarquable tourne autour de 75kg.

En parallèle, Zero 2 Infinity travaille aussi sur son projet Bloon, pour envoyer à 36km d’altitude des touristes qui pourront observer la terre et le début de l’espace à bord d’une capsule portée par un ballon. Les premiers tests en vol du ballon et un premier prototype de la capsule grandeur nature ont été présentés en janvier dernier. A noter que sur ce segment, le principal concurrent déclaré est pour l’instant un américain, World View Entreprises, spécialiste du ballon stratosphérique, qui a inauguré ses toutes nouvelles installations sur l’aéroport de Tucson fin février.

Par Sophie Hoguin

Hayo, la réalité augmentée au service du Smart Home

La réalité augmentée se découvre une utilité hors des usines, dans les foyers… et même dans le Smart Home, pour être exact. Hayo, cylindre noir de 22 centimètres de haut, est en effet capable d’interpréter les mouvements de l’utilisateur à des endroits précis puis d’enclencher en conséquence une fonction programmée. A Laval, la démonstration implique un galet installé sur une table et un ventilateur : Hayo détecte quant on approche la main du galet et procède à l’allumage ou à l’extinction du ventilateur.

Hayo_BuyNow-compressor

Hayo est l’œuvre de la société éponyme, basée à Paris, pour la recherche et le développement, et aussi à New-York. La start-up vise en priorité le marché nord-américain de la domotique, beaucoup plus développé que le marché français. Outre une levée de fonds réalisée aux Etats-Unis, ce projet a bénéficié d’un financement participatif sur la plateforme Indiegogo. L’initiative a été payante, puisque Hayo a récolté plus de 90 000 dollars à ce jour, au-dessus de l’objectif initial des 80 000 dollars.

«Notre produit est composé d’une caméra couleur, d’un émetteur infrarouge et d’un capteur infrarouge, décrit Adrien Kaiser, ingénieur en vision par ordinateur. L’ensemble constitue un capteur 3D, qui mesure des positions dans l’espace à l’aide de faisceaux infrarouges, et fonctionne donc la nuit. De manière classique, la modification du motif de ce faisceau permet de déterminer la profondeur». Selon le site internet de la société, la portée est d’environ 6 mètres.

Compatible avec les objets les plus populaires

L’application mobile, qui sert à configurer le dispositif, reproduit l’image filmée par la caméra. L’utilisateur positionne ensuite des boutons virtuels dans cette image et assigne des actions à chacun d’eux. Deux options sont disponibles : un interrupteur on/off ou un curseur de défilement, afin de moduler le volume d’une enceinte ou l’intensité lumineuse d’une ampoule. Quant aux fonctions possibles, elles dépendent des autres objets connectés présents dans le foyer. L’équipe de Hayo a intégré les APIs (Application Program Interface) des produits parmi les plus populaires, dont les enceintes Sonos, les ampoules Hue et Lifx ou encore le service IFTTT (If this then that). La connexion au réseau local s’effectue via WiFi, le Bluetooth n’étant utilisé que pour l’initialisation.

Il est intéressant de noter que le capteur Hayo peut être déplacé sans incidence, du moment qu’il reste dans la même pièce et qu’il est tourné vers la même direction. «Nous avons développé un algorithme qui repositionne automatiquement les boutons virtuels qui ont été créés» explique Adrien Kaiser. S’ajoute bien sûr l’algorithme d’analyse d’image embarqué dans le capteur, et dont le traitement est assuré par un Raspberry Pi. «Mais nous prévoyons un processeur plus puissant pour gérer ces algorithmes » ajoute Adrien Kaiser. Le cloud est également mis à contribution. «Il n’enregistre aucune image, juste la configuration des boutons virtuels» précise Adrien Kaiser.

Les services sont appelés à évoluer. «Nous développons par exemple une option de franchissement de ligne, qui servira à déclencher une alarme» poursuit Adrien Kaiser. De quoi étoffer un produit qui pourrait séduire les technophiles à la recherche d’innovation. Hayo sera commercialisé cet été à un prix voisin de 300 dollars/euros.

Frédéric Monflier

Reach : accès aux données de 15000 substances

L’Agence européenne des produits chimiques (Echa) vient d’annoncer la publication sur son site internet de l’information sur les propriétés et leur impact sur la santé et l’environnement de quelque 15000 substances chimiques. Les données sont directement issues des fabricants ou importateurs des substances qui se sont enregistrés conformément au règlement européen Reach. A présent l’Agence est en train d’effectuer une sélection des données qui seront disponibles pour téléchargement dans la base IUCLID 6, l’interface d’enregistrement des dossiers de Reach.

Des dossiers toujours trop incomplets

Chaque année, l’Echa choisit un certain nombre de substances pour contrôler la conformité des dossiers d’enregistrement qui y sont liés. Pour établir son bilan d’activité d’évaluation 2016, l’Echa s’est concentrée sur les dossiers d’enregistrement présentant le plus gros potentiel de risques pour la santé ou l’environnement (production supérieure à 100t et un risque déjà suspecté). Il ressort que sur 184 vérifications, 168 dossiers présentaient des informations manquantes importantes. Soit un taux de 91%  de dossiers incomplets. Ce taux était de 85% en 2015.

Même si, l’échantillon testé n’est pas forcément représentatif de l’ensemble des dossiers soumis car le choix se porte souvent sur des dossiers qui présentent un risque de non-conformité fort, cet état de fait perdure depuis des années. En cas de non-conformité, l’Echa adresse une lettre de décision au déclarant. Cependant, on peut noter que dans la majorité des cas, le suivi de ces lettres montrent que les déclarants corrigent leur dossier (92%). Pour améliorer les mauvais résultats des tests de conformité, l’Echa a envoyé avant le test officiel, une lettre aux déclarants de 270 substances ayant un risque potentiel, soulignant les manquements dans leur dossier et leur signalant que cette substance allait faire l’objet d’une évaluation. Dans les 4 mois suivant la lettre, 40% des déclarants avaient corrigé leur dossier.

CoRAP : vingt-deux substances supplémentaires

Le Community Rolling Action Plan (CoRAP) établi par le comité des États membres et l’Echa est un liste de substances proposées par les différents États en vue d’une évaluation prioritaire de leur possible interdiction ou restrictions d’usage. Le CoRAP fixe les États responsables de leur évaluation et la date butoir pour celle-ci. Vingt-deux nouvelles substances viennent ainsi de rejoindre les 93 déjà listées dans le CoRAP actuel. L’Echa invite fortement les producteurs et utilisateurs concernés par les substances listées à coordonner leurs actions, à mettre à jour les données dont ils disposent et à contacter l’État membre en charge de l’évaluation pour avoir l’occasion d’émettre des commentaires avant la décision finale de l’Echa.

Sophie Hoguin

Et si les plantes servaient à stocker de l’énergie ?

Ce laboratoire avait déjà fait parlé de lui en 2015 en présentant une rose qui absorbait un polymère conducteur en solution et créait dans sa tige des fils conducteurs sous forme de gel dans le réseau de canaux du xylème. En ajoutant, deux électrodes cela formait un transistor. Un des chercheurs du groupe, Roger Grabielsson, a travaillé sur le polymère utilisé. Et cette fois, l’oligomère fourni à la plante polymérise sous la forme de fils conducteurs non seulement dans la tige mais aussi dans les feuilles et les pétales. Le réseau ainsi formé peut s’apparenter à la structure d’un supercondensateur.

Des centaines de charges sans perte

Les chercheurs ont donc mesuré cette capacité de stockage d’énergie entre deux canaux de xylèmes polymérisés qui font office d’électrodes, le tissu de la plante entre les canaux faisant office d’électrolyte séparateur. La rose a pu être chargée et déchargée des centaines de fois sans perte de performance. Et les auteurs insistent sur le fait que les performances sont plutôt bonnes, avec une conductivité jusqu’à 10S/cm et une capacité spécifique de l’ordre de 20F/g. Cette recherche a fait l’objet d’un article dans PNAS et laisse entrevoir de nombreuses applications pour des systèmes énergétiques autonomes, mais attention, les recherches n’en sont qu’au début. En parallèle, les chercheurs étudient aussi l’utilisation de matériel organique (extraction de cellules végétales ou de composés produits par les plantes) pour créer des piles à combustibles par exemple.

Sophie Hoguin

Après des mois, l’Arabie Saoudite reprend ses livraisons 
de pétrole à l’Egypte

Reprise du contrat

« Nous avons reçu vendredi et samedi les deux premières livraisons de pétrole après la reprise du contrat avec Aramco », a confirmé le 19 mars Hamdi Abdel Aziz à nos confrères de Jeune Afrique. « Nous recevrons deux livraisons supplémentaires les 26 et 27 mars », a-t-il ajouté. Les livraisons d’or noir étaient suspendues par la compagnie pétrolière saoudienne depuis octobre dernier. Or, cet accord est vital pour l’Egypte qui importe 40% de ses produits pétroliers en provenance d’Arabie Saoudite. Le contrat, signé en avril 2016, prévoit la livraison pour 5 ans de 700 000 tonnes de produits pétroliers par mois, pour une valeur de plus de 20 milliards de dollars. Pour faire face au risque de pénurie, le gouvernement avait organisé dès novembre des appels d’offres internationaux pour palier la défection saoudienne. L’Egypte n’avait guère besoin de ça, le pays vivant déjà une crise économique profonde en raison de nombreuses réformes structurelles imposées par le FMI. Pour y faire face, le gouvernement  s’est résolu à dévaluer de 47,7% sa monnaie et a annoncé le passage à un régime de change flottant pour tenter de juguler sa crise monétaire.

Enjeux géopolitiques

La suspension des livraisons de pétrole au régime du Caire n’est sans doute pas sans rapport avec les divergences géopolitiques entre l’Arabie Saoudite et l’Egypte, notamment sur le dossier syrien. Ryad voit le départ de Bachar-Al-Assad comme un prérequis indispensable vers la résolution du conflit, tandis que Le Caire a voté en faveur la résolution de la Russie, fervent protecteur du dirigeant syrien, à l’ONU en octobre 2016. Une provocation pour l’Arabie Saoudite qui a soutenu politiquement et financièrement le nouveau président égyptien Abdel Fattah al-Sissi lorsqu’il avait destitué de force l’islamiste Mohamed Morsi en 2013.

Le fait que les deux alliés traditionnels de la région n’aient pas la même analyse du conflit syrien ne présage en rien une résolution rapide de cette guerre civile qui entre maintenant de sa 7ème année… Pour y mettre fin, le Secrétaire général de l’ONU, António Guterres, a appelé une nouvelle fois « tous ceux qui ont de l’influence sur les parties à s’efforcer de surmonter leurs divergences et travailler ensemble pour mettre fin au conflit ».

Romain Chicheportiche

Impression 3D: un procédé simple réussit à utiliser la cellulose

Deux obstacles majeurs bloquaient jusqu’à maintenant l’utilisation de la cellulose en impression 3D: à la chaleur elle ne fond pas mais se détruit et en solution elle est trop visqueuse pour être extrudée. Et quand on y arrive, le résultat nécessite des process de séchage compliqués pour préserver la forme de l’objet fabriqué. Pour dépasser ces obstacles, des chercheurs du MIT ont eu l’idée d’utiliser de l’acétate de cellulose dissout dans de l’acétone. Comme l’acétone est très volatil, il s’évapore dès qu’il est déposé et l’acétate de cellulose se solidifie en place.

Pour compléter leur process, les chercheurs ont mis au point un traitement optionnel par hydroxyde de sodium qui consolide l’objet fabriqué.

Un process facilement industriable

Pour faire la démonstration de leur process, les chercheurs ont ajouté une dimension supplémentaire à leur innovation et ajoutant une teinture antimicrobienne à la solution d’acétate de cellulose.

Résultat : une pince chirurgicale avec des fonctionnalités antimicrobiennes :

MIT-3D-Cellulose-1_0

Par ailleurs, le procédé n’est pas basé, comme c’est le cas la plupart du temps en impression 3D, sur le chauffage préalable du matériau. Le process se déroule à température ambiante et l’évaporation naturelle de l’acétone suffit. Elle pourrait d’ailleurs être accélérée en soufflant de l’air chaud par exemple, précise Sebastian Pattinson, principal auteur de l’étude parue dans Advanced Materials Technologies. L’acétate de cellulose, largement disponible pourrait ainsi devenir une alternative renouvelable et biodégradable à d’autres matériaux de l’impression 3D. A condition tout de même que le système de production prévoit la récupération de l’acétone, toxique par contact et par inhalation.

Sophie Hoguin

 

Protéger les céréales du réchauffement climatique !

L’année 2016 a été une année noire pour les récoltes céréalières françaises à cause d’une météo déplorable au printemps. Selon Agreste, le service des statistiques du ministère de l’Agriculture, la baisse de la production est estimée à -31,6% par rapport à 2015. De plus, un article paru dans la revue Nature Climate Change atteste qu’une augmentation des températures de 1°C ferait baisser le rendement mondial du blé entre 4,1% et 6,4%.

Des recherches scientifiques pour optimiser les rendements

Le blé est la céréale la plus menacée par la hausse des températures. Selon certains scientifiques, la tendance a commencé il y a presque trente ans. « La stagnation des rendements du blé observée depuis le début des années 90 est étroitement liée au dérèglement climatique » observe Katia Beauchêne d’ARVALIS – Institut du végétal. Une tendance à prendre au sérieux quand on sait que la FAO annonce que « la production céréalière [mondiale] annuelle devra s’accroître de près d’un milliard de tonnes » d’ici 2050 pour pouvoir nourrir 10 milliards d’individus.

L’un des enjeux est donc de définir quelles sont les céréales les plus résistantes. L’institut du végétal mène des études via sa plate-forme PhénoField. Grâce à l’étude du génotype et du phénotype des plantes, le but est de « sélectionner les variétés de maïs et de blé les mieux adaptées aux conditions climatiques ». Des études sur le système racinaire des plantes sont aussi menées. L’objectif est d’évaluer la résistance des racines aux intempéries violentes qui risquent de se multiplier à l’avenir.

La technologie au renfort de l’agriculteur

Mieux connaître la nature des sols permettrait aux agriculteurs de gérer plus aisément leurs cultures. C’est le but recherché des fermes connectées. À l’aide de capteurs, l’envoi d’informations à distance est un atout majeur pour les exploitants agricoles. Les stations météorologiques connectées sont aussi précieuses. Ainsi, en cas de disparité d’irrigation des sols, le cultivateur peut identifier les besoins en eau de sa terre et cibler l’arrosage. Les agronomes souhaitent également parvenir à une meilleure gestion des stocks d’eau.

Des drones sont utilisés pour lutter contre les ravageurs. Le développement de ces derniers est un danger indéniable pour les cultures de maïs par exemple. Pour endiguer le phénomène, les sociétés Bioline Agrosciences et Agribird ont mis au point un drone capable de répandre sur les champs de maïs des œufs de trichogrammes. Ces minuscules guêpes sont chargées de lutter contre la pyrale, qui peut ravager une plantation. La lutte contre les espèces nuisibles est d’autant plus importante qu’elles se propagent rapidement avec le réchauffement climatique.

Par Matthieu Combe, journaliste scientifique

L’industrie énergétique face aux cyberattaques

Un secteur jusque-là peu concerné

Les infrastructures énergétiques sont des investissements très capitalistiques dont l’amortissement s’étale dans le temps. Le parc nucléaire français a ainsi été prévu techniquement et économiquement pour fonctionner 40 ans. C’est pourquoi de nombreuses installations sont anciennes et peu digitalisées à l’instar du parc français qui fonctionne encore beaucoup à l’analogique. Ce « retard technologique » a ironiquement permis à l’industrie énergétique d’être relativement épargnée par les cyberattaques jusqu’au début des années 2000. Le secteur de l’énergie est depuis l’un de ceux qui a massifié l’utilisation de capteurs qui relèvent et envoient en permanence des millions d’informations. Dans l’industrie pétrolière par exemple, une foule de données est traitée pour rendre compte de la pression, température, viscosité… afin de générer des gains d’efficacité tant dans la production que dans le transport par oléoducs ou gazoducs.

La libéralisation du marché de l’énergie, particulièrement en Europe avec la création d’une bourse commune de l’électricité, a également joué un rôle dans la digitalisation du secteur puisque tous les échanges sont assurés par les TIC. Enfin, les compteurs communicants en cours d’installation en France (Enedis en déploiera 35 millions d’ici 2021), qui représentent la première brique du futur réseau électrique intelligent, permettront au gestionnaire de réseau d’avoir un suivi bien plus précis et en temps réel de ses clients grâce à l’envoi des données de consommation. La protection de ces données sensibles, tant pour le consommateur que l’opérateur, fait l’objet d’une attention particulière d’Enedis. En effet, « lors de la conférence Black Hat Europe 2014, deux professionnels de la sécurité informatique ont démontré qu’il était possible de pirater certains compteurs espagnols dont les communications entrantes et sortantes étaient chiffrées », explique Gabrielle Desarnaud, chercheuse à l’Ifri et auteur du rapport « Cyberattaques et sécurité énergétiques ». 

Enjeu majeur

Le piratage des réseaux électriques par l’envoi de fausses données à l’opérateur représente un risque majeur car il pourrait causer des black-out électriques dont les conséquences sont imprédictibles. Il en va de même pour les exploitants de sites nucléaires considérés comme des opérateurs d’importance vitale (OIV), c’est-à-dire dont la défaillance aurait un impact décisif sur le mode de vie de la population. L’intérêt pour le risque nucléaire a été ravivé en 2010 après la découverte d’un virus extrêmement élaboré, Stuxnet, visant les installations d’enrichissement d’uranium de Natanz, en Iran. Il permettait de modifier la vitesse de rotation des centrifugeuses, ce qui empêchait de poursuivre l’enrichissement de la matière et endommageait les équipements. Pour ne pas être repéré, il envoyait en boucle à l’interface de contrôle les informations d’opérations normales. Près d’un millier de centrifugeuses auraient été détruites à cause de Stuxnet. Ce virus aurait été introduit, le conditionnel est ici de rigueur, par le biais d’une clé USB infectée. Le fait que le programme ne puisse s’activer que dans une certaine configuration (nombre et disposition exacts des centrifugeuses) laisse penser que l’opération a nécessité d’importants moyens. A l’époque, l’attaque a été attribuée au gouvernement israélien et/ou américain pour ralentir le programme nucléaire iranien, alors la pomme de discorde de la communauté internationale. Mais aucune preuve n’a été trouvée.

Les cyberattaques ne sont pas forcément le fait d’États ou de groupes à des fins géopolitiques. L’espionnage industriel ou l’extorsion de fonds sont également des motivations d’assaillants. En 2011, Areva a admis avoir été victime d’un piratage de grande ampleur qui a duré deux ans, mais qui n’aurait pas concerné de données sensibles. La même année, les virus Night Dragon et Duqu ont également espionné des entreprises du secteur, notamment pétrolier. Néanmoins, les hackers connaissent mal les systèmes de l’industrie de l’énergie et ont besoin de compétences précises dans l’informatique mais aussi dans l’automatique. Les logiciels de rançon « classiques », c’est-à-dire qui ne vise pas les installations critiques, sont tout aussi efficaces dans l’extorsion de fonds et nécessitent moins de travail.

Des réponses techniques et réglementaires

Pour faire face au risque de cyberattaque, le secteur énergétique privilégie « la défense en profondeur », qui consiste à superposer plusieurs strates de sécurité pour palier la défaillance de l’une ou plusieurs d’entre elles. L’organisation est primordiale pour assurer la sûreté des sites et en premier lieu séparer les réseaux de gestion et opérationnels. Le personnel doit quant à lui être formé pour éviter des erreurs humaines telles qu’introduire des objets connectés non-validés auparavant par l’entreprise. Le meilleur moyen de se prémunir d’une attaque extérieure est donc d’îloter son réseau. En janvier 2003, la centrale nucléaire de David-Besse en Ohio, Etats-Unis, a été infecté par un ver informatique : Slammer. Il s’agit d’un code très simple qui génère des adresses IP pour leur envoyer des répliques de soi-même. Heureusement, la centrale était déjà arrêtée. A noter que le virus n’était pas destiné spécialement à la centrale nucléaire, mais celle-ci a été infectée au travers d’une connexion non-sécurisée vers une entreprise tierce. Ce qui n’est pas le cas en France précise Gabrielle Desarnaud : « les seules informations sortant du réacteur d’une centrale nucléaire à destination d’un acteurs tiers concernent les données de tension et de puissance, échangées toutes les cinq secondes avec le réseau de transmission d’électricité, afin d’ajuster la production en fonction de la demande. Aucune autre communication extérieur n’est admise par le réseau de la centrale ».

Volet réglementation, la France a créé en 2009 l’Agence nationale de la sécurité des systèmes d’information (ANSSI) pour lutter contre le risque cyber. En 2016, la France est le premier pays à publier des arrêtés pour les opérateurs importance vitale du secteur énergétique comprenant une liste de mesure à mettre en place. Au niveau de l’Union européenne, la Commission indique avoir introduit la problématique cyber dans son paquet Energie annoncé en 2016.

Romain Chicheportiche

Photovoltaïque : vers l’atteinte des objectifs en 2018 ?

Sur l’année 2016, 576 mégawatts (MW) de photovoltaïque ont été raccordés, contre 895 MW en 2015. Soit une baisse de 36% des nouvelles installations raccordées. Le parc solaire photovoltaïque atteint ainsi 6,67 gigawatts (GW). L’objectif de la Programmation Pluriannuelle de l’Energie (PPE) est d’avoir un parc de 10,2 GW fin 2018. Il faudra donc installer 3,33 GW d’ici là. Pour atteindre ce niveau, la croissance annuelle devrait frôler les 1,8 GW, soit trois fois plus qu’en 2016. Mais ce niveau est proche du record de 2011 où près de 1,7 GW avaient été installés. Les dernières annonces de Ségolène Royal tendent à rattraper le retard.

3 GW de grandes installations au sol

Le 9 mars, Ségolène Royal a annoncé les 79 lauréats de la première période de l’appel d’offres pour les installations photovoltaïques au sol pour 0,5 GW. Soit les centrales photovoltaïques et les ombrières de parking. « Le prix moyen pour les grandes centrales photovoltaïques au sol est de 62,5 €/MWh, ce qui traduit la baisse rapide des prix du photovoltaïque, annonce le Ministère dans l’environnement dans un communiqué. Plus de 60% d’entre eux se sont engagés à l’investissement participatif et bénéficieront d’une prime majorée de 3 €/Mwh.» Ces installations devraient produire 0,7 TWh d’électricité par an pour un investissement total de 460 millions d’euros.

Cet appel d’offre s’inscrit dans un dispositif lancé en août 2016 visant l’installation de 3 GW de nouvelles centrales solaires au sol de grande puissance. Il reste 5 périodes de candidature de 0,5 GW chacune, réparties jusqu’en 2019,. La deuxième période est programmée pour mai 2017.

L’autoconsommation démarre !

Ségolène Royal a  aussi désigné les 62 lauréats de la deuxième période de l’appel d’offres pour les installations photovoltaïques en autoconsommation. Ils représentent une puissance installée de 20 MW et bénéficieront d’une prime à un prix pondéré de 19.35 €/MWh. Le taux d’autoconsommation des lauréats de l’appel d’offres s’élève en moyenne à 97,6 %. « Plus des deux tiers des modules photovoltaïques choisis sont fabriqués en France », précise le Ministère de l’environnement. La production espérée de ces installations s’élèvera à 25 GWH par an pour un investissement de 27 millions d’euros.

Pour pérenniser ce modèle d’autoconsommation, Ségolène Royal en a profité pour annoncer le lancement d’un appel d’offres pluriannuel pour les installations de production d’électricité à partir d’énergies renouvelables en autoconsommation. Le volume total s’élève à 450 MW, réparti en neuf tranches de candidatures de 50 MW. La première période de candidature se terminera au mois de septembre 2017. Cet appel d’offres est notamment ouvert aux consommateurs des secteurs industriels, tertiaires et agricoles, en particulier aux centres commerciaux.

Enfin, la ministre publie un nouvel appel d’offres de 210 MW pour soutenir des installations solaires innovantes, notamment la route solaire et l’agrivoltaïsme. Ces dernières installations permettent de coupler une production photovoltaïque secondaire à une production agricole principale. Cet appel d’offres est réparti en trois tranches de 70 MW. La première période de candidature se clôturera également en septembre prochain.

Le Syndicat des énergies renouvelables a tenu à saluer ces annonces ministérielles « en droite ligne avec la programmation pluriannuelle de l’énergie ».

Par Matthieu Combe, journaliste scientifique

Hackathons : tous gagnants ?

Pizzas, tenue geek, PC portables allumés en permanence, stress des pitchs… L’ambiance d’un hackathon (contraction de « hack » et « marathon ») ressemble à celle d’une colonie de vacances avec des matelas et des sacs de couchage à même le sol. A une différence près : les participants acceptent d’être enfermés durant tout un week-end ! Autre nuance avec les joyeuses colonies, ces événements s’appuient sur des méthodologies et une organisation très précises et efficaces.

Né aux États-Unis à la fin des années 1990, au sein de la communauté des développeurs adeptes des logiciels libres, un hackathon consiste à faire plancher des génies de l’informatique ou d’un autre domaine annexe (tout le monde peut y participer : étudiants, start-up, designers…) sur un projet d’application ou de service en ligne. Précurseur dans ce domaine, Facebook en a organisé plusieurs. À la clé, des innovations majeures pour le réseau social « comme le bouton «J’aime» ou la fonction de discussion instantanée » rappelle Le Monde.

De plus en plus d’entreprises françaises et de pépinières s’y sont mises : Axa, Pernod Ricard, la RATP, SNCF… Même la Mairie de Paris et des associations. Tous les secteurs s’y intéressent et pas seulement ceux liés à l’informatique. Les laboratoires pharmaceutiques, la grande distribution et le luxe planchent sur l’organisation de tels week-ends.

Près de 200 hackathons ont eu lieu en France en 2016, sur les 3450 organisés dans le monde. Pourquoi un tel engouement ? Pour les entreprises, cela permet de découvrir de nombreux projets testés en « live » tout un week-end et de n’en retenir qu’un ou deux le dimanche soir. Autre avantage : détecter des profils intéressants pour essayer ensuite de les embaucher.

Pour les équipes de développeurs, cela permet de se roder et d’apprendre à travailler ensemble sur un projet concret. C’est aussi un moyen de se faire remarquer et d’avoir des propositions d’emploi, de renforcer son réseau en rencontrant de nouveaux partenaires.

Chèque cadeau

Tout le monde ne partage pas cet enthousiasme. En finançant ces événements, les entreprises espèrent un retour sur investissement immédiat. « Un hackathon ne devrait pas se faire au bénéfice d’une société, mais dans l’intérêt commun », explique au quotidien Le Monde Mael Inizan, chargé de projet au sein de Silicon Xperience et de Silicon Sentier, une association qui promeut l’innovation en Île-de-France.

Autre bémol : des projets pourraient être exploités par des entreprises au détriment des développeurs. D’autres évoquent le travail non rémunéré (des dizaines d’heures passées tout un week-end). Avec pour récompenses, des voyages, des chèques-cadeaux ou parfois 1 000 à 2500 euros pour chaque participant du projet retenu.

Mais pour la plupart des personnes rencontrées lors de ces éventements, le plus important est de pouvoir ajouter quelques lignes sur un CV et d’être à l’origine d’une nouvelle application qui a séduit les entreprises, mais aussi les utilisateurs…

Dormir, ils le feront quand ils seront plus vieux !

Philippe Richard

La politique spatiale de Trump

S’il est à peu près sûr maintenant que le budget de la Nasa devrait rester stable, beaucoup d’incertitudes planent encore sur la future politique spatiale américaine. Tous les acteurs sont en attente car nombres de programmes touchent à leur fin, notamment les programmes de sondes et de robots d’exploration (Mars curiosity, Cassini, New Horizons…)  et il faut trancher sur les objectifs et missions à venir. Depuis janvier, le gouvernement Trump a placé une équipe de transition à des postes clés de l’agence spatiale américaine en précisant que certains resteraient. Ce qui est clair aujourd’hui ce sont les trois grands principes qui vont sous-tendre cette politique: un renforcement de l’ouverture commerciale à l’espace, la mise en place de missions pour structurer une future exploitation des ressources spatiales et le retour de l’homme américain dans l’espace. Une politique, chapeautée par la renaissance d’un Conseil national de l’Espace qui étudierait chaque orientation et proposition.

Cap sur la Lune

La Lune devient clairement un enjeu colonial pour de nombreuses puissances telle que la Chine et les Etats-Unis, qui jusque là visaient Mars, pourraient bien remettre le cap sur notre satellite en l’envisageant à la fois comme base de départ pour l’exploration du système solaire et de Mars et comme base pour une exploitation minière. Sont visés l’hélium-3 et les terres rares intéressantes pour l’industrie sur Terre et  l’eau et l’hydrogène liquide pour alimenter des installations sur place. Pour y aller, pas de doute, l’alliance avec le secteur privé sera privilégiée. Space X, Blue Origin sont déjà sur le départ et ont déjà rencontrés plusieurs fois l’administration Trump. Ce choix mariant les deux ingrédients de l’impérialisme américain si cher au nouveau Président:  le rêve (l’homme -américain- sur la Lune) et le profit (tout peut être capitalisé).

Adieu l’observation de la Terre ?

La plus grosse inquiétude vient des agences et des départements liés à l’observation de la Terre pour lesquels la proposition de budget présentée par Donald Trump avance des coupes claires : le budget du département satellites de la NOAA (National oceanic and atmospheric administration) pourrait être diminué de 20% et celui du département des sciences de la Terre de la Nasa de 5%. Et il est probable que l’orbite basse terrestre, y compris la station spatiale internationale soit laissée au secteur privé. Des choix qui restent encore à concrétiser quand l’administration Trump sera opérationnelle et qu’une cohérence sera trouvée entre des exigences présidentielles contradictoires allant d’un besoin de contrôle excessif à la dérégulation totale. Ce qui pour le moment créé surtout de l’incertitude.

Sophie Hoguin

Prix du solaire en France : trois décennies d’avance sur ce que prévoyaient les experts

« L’appel d’offres pour des installations solaires au sol de grande (moyenne NDLR) puissance, comprise entre 500 kilowatts crête et 17 megawatts crête, a été lancé en 2016, pour un volume total de 3 000 MW répartis en 3 ans. La ministre (Ségolène Royal NDLR) désigne aujourd’hui les 79 lauréats de la première période de l’appel d’offres, pour un volume total de 500 MW. » a déclaré le Ministère dans un communiqué du 9 mars 2017.

La plus grande centrale solaire PV du monde est en Chine (Longyangxia, 850 MW). La seconde est en Inde (Kamuthi, 648 MW). La troisième en Californie (Topaz, 550 MW). En France réaliser de grandes centrales au sol de plus de 100 MW, ce qui permettrait de baisser les coûts par effet d’échelle, est presque impossible.

La plus grande centrale d’Europe a été construite à Cestas, près de Bordeaux, et a une puissance de 300 MW. « Cela sera sans doute la dernière » a confié un spécialiste du solaire. « Tout n’a pas été si simple pour les équipes de neoen dans un pays qui a l’art de cultiver les chausse-trappes pour les développeurs de centrales au sol » explique le groupe Oxygn sur son site web officiel, citant Xavier Barbaro, le PDG de Neoen : « Comme cette loi inepte des 500 mètres de distance entre chaque centrale de 12 MW pour un même maître d’ouvrage. Nous aurions aimé être propriétaire du site à 100% mais cette contrainte nous en empêche. Que de temps perdu et de dépenses ! Tout est fait pour nous freiner dans notre atteinte de taille critique et d’optimisation du bilan financier. Nous avons été dans l’obligation de trouver huit co-actionnaires pour parachever l’ouvrage. Neoen qui a acheté les 260 hectares de foncier détient 40% de la centrale. Nous gérons ainsi 25 centrales de 12 MW ce qui engendre nécessairement des surcoûts. »

Dans son étude de prospective intitulée « Vers un mix électrique 100% renouvelable en 2050 », l’ADEME estimait en 2015 que le coût du grand solaire au sol sera de 60 €/MWh (6 c€/kWh) en 2050 (Figure 7 page 16). Estimation réalisée « uniquement pour les 4 régions françaises les plus au sud » précisait l’ADEME.

Dès 2017, c’est à dire un tiers de siècle plus tôt que ce qu’avaient prévu les experts de l’état français, le prix moyen de l’électricité des centrales au sol de moyenne puissance est déjà de 62€/MWh. Ces experts estimaient par ailleurs (Figure 5 page 14) que le potentiel du solaire PV au sol en France est 6,5 fois inférieur à celui du solaire en toiture (62,5 TWh/an contre 403,1 TWh/an)

Une prime de 3 €/MWh (0,3 c€/kWh) est offerte par l’état pour les projets qui incluent un financement participatif écocitoyen.

Olivier Daniélo

Des assistants virtuels dans toutes les entreprises ?

Évoquée aux débuts des années 50, l’Intelligence Artificielle est en plein essor. Et cette tendance va s’accentuer. Selon le cabinet Gartner, elle sera embarquée dans 50 % des applications analytiques d’ici trois à cinq ans.

La puissance de calcul des serveurs capables de traiter des volumes de plus en plus importants de données permet de gérer plus facilement des problématiques complexes ou de seconder des métiers. Pour relever ce défi, l’IA s’appuiera entre autres sur les facultés d’auto-apprentissage pour rendre les chatbots performants.

Apparu pour la première fois en 1994, ce terme de chatbot est maintenant dans toutes les réunions des grandes entreprises qui ont entamé leur programme de transformation numérique. Les chatbots pourraient en particulier améliorer le service client. En s’appuyant sur l’intelligence artificielle, ces programmes décrypteraient ce que demandent leurs interlocuteurs. Ces interfaces autonomes, ou assistants virtuels, n’auront plus besoin d’être secondées en permanence par un collaborateur pour exécuter une tâche. Si la réponse ne se trouve pas dans les volumes de données gérées par l’entreprise, elles poseront une question une seule fois et pourront ensuite agir seules.

Allô docteur ? Non c’est un bot !

Pour l’instant, ils ne peuvent pas prétendre remplacer un « vrai » conseiller, car leurs analyses reposent principalement sur la détection de mots-clés. Par ailleurs, pour alimenter « la mémoire » des chatbots, il est indispensable d’intégrer l’historique de ses échanges avec les utilisateurs. Cela demande une infrastructure de suivi, de validation des interactions, de mesure de succès dans les interactions, et d’active learning pour mettre à jour automatiquement les algorithmes d’intelligence artificielle. Bref, un investissement élevé.

Mais à plus long terme, ces programmes informatiques pourraient bouleverser de nombreux secteurs d’activité. Ils seraient capables d’endosser différents rôles : vendeur, docteur, conseiller, styliste, juriste, guide touristique, critique culinaire… Des tests sont par exemple menés au Royaume-Uni. Le National Health Service s’est associé à une start-up pour tester un chatbot médical pour gérer les patients demandant de l’aide pour des petits bobos. En Allemagne, le groupe Lufthansa utilise un chatbot pour guider les voyageurs dans leur recherche du meilleur tarif. En France, différentes entreprises mènent des tests ou ont déployé des premières versions de leur bot: SNCF, Direct Énergie, ACCOR, le PMU…

Ces bots pourraient aussi nous aider à être plus efficaces dans notre travail. C’est le cas notamment dans le tri quotidien des dizaines d’emails que nous recevons chaque jour. La start-up américaine Astro, qui vient de boucler un tour de table de 8,3 millions de dollars, a développé une application de messagerie intelligente et un bot pour optimiser les flux. Ce dernier propose à l’utilisateur des conseils et des idées basés sur son activité. Il est également en mesure d’échanger avec lui pour évoquer des tâches mentionnées dans d’anciens courriers qui sont restés sans réponse.

En France, la division énergies renouvelables d’Engie utilise un chatbot pour simplifier la vie de ses techniciens. Ce « robot » facilite l’accès à l’information de ses parcs éoliens, solaires et hydrauliques. Il affiche des graphiques pour donner un meilleur aperçu de l’évolution de la production et des prévisions du système. Il est par ailleurs capable de suggestions basiques, par exemple en proposant une liste des équipements existants d’un parc si celui demandé n’existe pas.

Philippe Richard

Techniques de l’Ingénieur participe au NORTH AFRICA PETROLEUM EXHIBITION & CONFERENCE – NAPEC

Il s’agit du plus grand salon professionnel international du secteur en Afrique. Napec est consacré aux activités de l’upstream, du midstream et du downstream. Il rassemble tous les fournisseurs de produits, services et technologies qui gravitent autour de l’activité pétrolière et gazière.

Avec 400 délégués et une vingtaine d’experts venant de 30 pays différents, les conférences vont permettre de partager les meilleures pratiques et techniques disponibles pour augmenter la production des champs en exploitation.

Techniques de l’Ingénieur, outils de référence des plus gros acteurs du secteur, se doit d’être présent sur cet événement au cours duquel les dernières tendances de la technologie de forage et plus généralement de l’industrie pétrolière et gazière sont présentées.

C’est également l’occasion pour Techniques de l’Ingénieur d’aller à la rencontre de ses nombreux utilisateurs du continent africain dont le nombre ne cesse de croître, aussi bien dans l’industrie que dans les centres de recherche, écoles ou universités.

Stand D87 – Obtenir une invitation

La consommation collaborative analysée par l’Ademe

Covoiturer, louer sa voiture, son appartement et ses objets à des particuliers pour arrondir ses fins de mois… Ou encore assurer le réemploi de ses objets… Voici quelques solutions collaboratives bien implantées dans le quotidien des Français. Une nouvelle étude de l’Ademe publiée le 9 mars cherche à comprendre à quel point ces pratiques peuvent réduire les impacts environnementaux. Et ce n’est pas si évident. « Consommer de manière collaborative ne signifie pas automatiquement consommer responsable, assure l’Ademe. Le gain environnemental dépend fortement de la pratique conventionnelle à laquelle la pratique collaborative se substitue. »

Le covoiturage, un potentiel important

Lorsque l’on parle de covoiturage, on pense en priorité au covoiturage longue distance. L’Ademe estime dans ce cas le taux d’occupation d’un véhicule covoituré à 3,5 passagers. Mais le covoiturage se substitue pour 63% des covoitureurs au train, un mode de transport largement moins émetteur de gaz à effet de serre. 12% des covoitureurs confient même qu’ils n’auraient pas voyagé sans cette offre de covoiturage. « La réduction d’impact n’est que de 12% quand on prend en compte cette réalité de substitution », calcule l’Ademe.

Le covoiturage courte distance est largement plus profitable à l’environnement. En l’absence d’une telle solution, seulement 20% des clients auraient pris un mode de transport en commun. Dans 80% des cas, les covoitureurs auraient pris leur voiture seul. La pratique demeurant encore confidentielle et vu son fort potentiel, l’Ademe appelle à la développer pour augmenter le taux de remplissage moyen (2,56 personnes). Dans ce cas, l’impact environnemental diminuerait de moitié pour 2 passagers et de 75% pour 4 passagers.

Louer son matériel, mais à ses voisins!

Mieux vaut louer ou prêter du matériel, plutôt que d’acheter des objets neufs. Pour une perceuse utilisée 24 fois par an en étant louée à 3 particuliers, par exemple, l’Ademe estime des réductions d’impact d’environ 60% pour chaque utilisation par rapport à une utilisation simple individuelle. Mais « la logistique peut générer des impacts négatifs évalués jusqu’à +60% par rapport à la pratique conventionnelle », avertit l’Ademe. Ainsi, avant de louer des objets, il faut faire attention à leur localisation et  ne pas les récupérer en voiture.

Lorsque l’on réemploi ou donne un objet, c’est la durée de la seconde détention du bien qui influe le plus le bilan environnemental. Par exemple, pour un lave-linge ayant une première vie de 10 ans, l’impact est réduit de 10% avec une prolongation moyenne de 3,6 ans dans son nouveau foyer. Les chiffres sont d’autant plus intéressants que l’on prolonge la vie de produits dont les impacts sont concentrés sur la phase de production. C’est notamment le cas des équipements électroniques ayant une faible consommation électrique. Pour une tablette, en prolongeant la durée d’usage de 2 à 4 ans, le bilan environnemental est ainsi amélioré de 50%.

Gare à l’effet rebond!

Pour la location de logements de courte durée entre particuliers, les conclusions sont moins évidentes. A surface équivalente, les impacts environnementaux du logement proposé par un particulier par rapport à une chambre d’hôtel dépendent notamment du mix électrique du pays d’accueil. Mais dès lors que la surface louée chez les particulier est supérieure de 25%, les impacts environnementaux sont plus élevés. Il y a aussi des effets rebonds importants. Une location moins chère peut augmenter la durée de séjour et faire voyager plus loin. En revanche, vivre en colocation longue durée permet de partager ses consommation. En vivant à quatre plutôt que seul, la réduction d’impact est d’environ 40%.

Au final, « il ressort que les pratiques de mobilité et le réemploi sont les pratiques à plus fort potentiel de réduction des impacts environnementaux », conclut l’Ademe.

Par Matthieu Combe, journaliste scientifique

En France, PME et ETI portent la R&D

En 2014, l’effort de recherche en France est resté stable et s’est a priori maintenu en 2015 aux alentours de 2,2% du PIB. En 2014, la dépense intérieure en R&D des entreprises (DIRDE) est évalué à 31,1Md€ dont les deux tiers (21,4Md€) sont le fait des petites et moyennes entreprises (PME) et des entreprises de taille intermédiaires (ETI). Les PME et les ETI emploient à elles seules les trois quarts des personnels de R&D en entreprise.

Sans surprise, 80% de la R&D relèvent du secteur de l’industrie et les trois branches les plus porteuses sont toujours l’automobile, l’aéronautique et le spatial et la pharmaceutique.

Les ETI ont fait un bel effort d’investissement

Entre 2013 et 2014, les PME ont continué d’investir intensément en R&D, leur taux d’effort (ratio investissement R&D/chiffre d’affaires) étant de l’ordre de 5% contre 2,5% pour les ETI. Mais alors que la dépense totale des PME est resté relativement stable à près de 7,5 Md€, celle des ETI a augmenté de plus de 11% atteignant les 14Md€.

Les entreprises qui exportent font plus de R&D

Les entreprises tournées vers l’international ou dans les filiales de groupes étrangers ont des dépenses plus élevées que les autres en R&D. Ainsi les ETI exportatrices dépensent 7 fois plus en R&D et emploient, en moyenne, six fois plus de personnels de R&D.  Quant aux PME exportatrices, elles présentent la particularité d’avoir un CA moyen trois fois supérieur à celui des PME qui restent sur le marché national, leur dépense en R&D est multipliée par 14 et elles emploient 11 fois plus que les autres PME en R&D. Leur effort en R&D s’élève ainsi à 17% de leur CA.

PME: les financements publics sont toujours essentiels

Pour l’ensemble des entreprises, la R&D est réalisée à 78% par autofinancement et à 22% sur des ressources externes (publiques ou en provenance d’autres entreprises). Au sein des ressources externes, le financement public compte pour 26% contre 30% pour des sources étrangères et 44% pour d’autres entreprises françaises. Cette répartition, stable dans le temps est cependant très hétérogène selon la taille des entreprises. Ainsi, pour les PME, le financement public s’élève à 40% des ressources externes. Le montant total d’aides publiques reçu par les PME en 2014 était stable à 655M€ (hors mesures fiscales d’exonérations de cotisations sociales ou crédit d’impôt recherche).

PME et ETI créent le tissu d’innovation français

En 2014, dans les 71 pôles de compétitivité présents en France, près de 9 entreprises sur 10 sont des PME. Et cette présence très forte des PME et ETI se traduit aussi dans les publications de brevets : plus des trois quarts des déposants personnes morales françaises en 2015 sont des PME/ETI. On peut noter que l’effort en R&D qui s’est accentué chez les ETI se traduit aussi dans les demandes de brevets qui sont désormais deux fois plus élevées que celles des PME. Cependant, sur les secteurs où les demandes de brevets sont les plus importantes (technologies médicales, manutention et BTP), les PME comptent pour au moins la moitié des déposants.

  • En 2014, l’effort de recherche en France est resté stable et s’est a priori maintenu en 2015 aux alentours de 2,2% du PIB. En 2014, la dépense intérieure en R&D des entreprises (DIRDE) est évalué à 31,1Md€ dont les deux tiers (21,4Md€) sont le fait des petites et moyennes entreprises (PME) et des entreprises de taille intermédiaires (ETI). Les PME et les ETI emploient à elles seules les trois quarts des personnels de R&D en entreprise. Sans surprise, 80% de la R&D relèvent du secteur de l’industrie et les trois branches les plus porteuses sont toujours l’automobile, l’aéronautique et le spatial et la pharmaceutique. Les ETI ont fait un bel effort d’investissement Entre 2013 et 2014, les PME ont continué d’investir intensément en R&D, leur taux d’effort (ratio investissement R&D/ chiffre d’affaires) étant de l’ordre de 5% contre 2,5% pour les ETI. Mais alors que la dépense totale des PME est resté relativement stable à près de 7,5 Md€, celle des ETI a augmenté de plus de 11% atteingnant les 14Md€. Les entreprises qui exportent font plus de R&D Les entreprises tournées vers l’international ou dans les filiales de groupes étrangers ont des dépenses plus élevées que les autres en R&D. Ainsi les ETI exportatrices dépensent 7 fois plus en R&D et emploient, en moyenne, six fois plus de personnels de R&D. Quant aux PME exportatrices, elles présentent la particularité d’avoir un CA moyen trois fois supérieur à celui des PME qui restent sur le marché national, leur dépense en R&D est multipliée par 14 et elles emploient 11 fois plus que les autres PME en R&D. Leur effort en R&D s’élève ainsi à 17% de leur CA. PME: les financements publics sont toujours essentiels Pour l’ensemble des entreprises, la R&D est réalisée à 78% par autofinancement et à 22% sur des ressources externes (publiques ou en provenance d’autres entreprises). Au sein des ressources externes, le fiancement public compte pour 26% contre 30% pour des sources étrangères et 44% pour d’autres entreprises françaises. Cette répartition, stable dans le temps est cependant très hétérogène selon la taille des entreprises. Ainsi, pour les PME, le financement public s’élève à 40% des ressources externes. Le montant total d’aides publiques reçu par les PME en 2014 était stable à 655M€ (hors mesures fiscales d’exonérations de cotisations sociales ou crédit d’impôt recherche). PME et ETI créent le tissu d’innovation français En 2014, dans les 71 pôles de compétitivité présents en France, près de 9 entreprises sur 10 sont des PME. Et cette présence très forte des PME et ETI se traduit aussi dans les publications de brevets: plus des trois quarts des déposants personnes morales françaises en 2015 sont des PME/ETI. On peut noter que l’effort en R&D qui s’est accuentué chez les ETI se traduit aussi dans les demandes de brevets qui sont désormais deux fois plus élevées que celles des PME. Cependant, sur les secteurs où les demandes de brevets sont les plus importantes (technologies médicales, manutention et BTP), les PME comptent pour au moins la moitié des déposants. Sophie Hoguin 3000 signes LIEN vers le rapport complet : Lien vers le rapport complet

Sophie Hoguin

Présidentielle 2017: l’urgence numérique…surtout dans les mots ?

« Nous pensons qu’il faut une logique d’état d’urgence numérique pour les 5 prochaines années […], en 2022 il sera trop tard », affirme Godefroy de Bentzamnn, président du Syntec Numérique (syndicat professionnel des entreprises de services du numérique, des éditeurs de logiciels et des sociétés de conseil en technologies).

Pour le Syntec, il est essentiel que la France ambitionne de devenir une grande nation du numérique pour ne pas rater les transformations du monde au XXIe siècle. Ainsi, le syndicat propose la nomination d’un haut commissaire à la transformation numérique, sous l’autorité du Premier ministre pour assurer une coordination tant nationale qu’européenne à tous les niveaux de la société: entreprise, Etat, citoyens. Car pour le Syntec, l’Europe est un échelon essentiel du développement du numérique et doit réussir la mise en place d’un marché unique numérique, avec la France comme locomotive.

Former et transformer

Pour parvenir à cette ambitieuse aspiration, le Syntec propose trois grands axes de travail :

  • un volet concernant un contrat de travail spécifique à la branche pour les salariés et un statut propre pour le travailleur indépendant numérique, basés sur une grande flexibilité, le retour à la notion de “mission” et en parallèle une sécurisation des parcours professionnels qui s’appuie beaucoup sur la formation.
  • La formation est pour le syndicat un pan essentiel et central de la transformation numérique de la France. Proposant un Grenelle de la formation, et la création d’un institut des Hautes Etudes de la Transformation numérique pour former les dirigeants économiques et politiques, le syndicat pense aussi qu’il faut faire monter en compétence l’ensemble des Français.
  • Parmi les secteurs dont le retard numérique lui semble particulièrement crucial, le Syntec souhaiterait que le futur Président mette l’accent sur la santé en proposant une loi de programmation sur 5 ans.

En parallèle, le Syntec Numérique avait publié début janvier, trois cahiers thématiques relatifs à l’industrie du futur, la santé et l’éducation/formation.

Des candidats plus ou moins investis

Le collectif France Numérique 2017 (créé pour faire entendre les acteurs du numérique pendant cette présidentielle – voir cet article – organisait plusieurs tables rondes le 9 mars en présence des représentants de trois des candidats. Très clairement, les propositions les plus abouties et la vision la plus globale est celle d’Emmanuel Macron dont le numérique irrigue l’ensemble du programme. Du côté de Benoît Hamon, la vision est encore parcellaire et très ancrée sur le numérique comme outil de démocratie et comme outil de transformation sociale auquel il faudra faire face et pour François Fillon, il s’agit essentiellement d’une préoccupation liée au financement de l’innovation et des start-up du secteur. Les trois candidats cependant sont à peu près d’accord sur la souveraineté qu’il faut réussir à protéger, sur la nécessité de couvrir l’ensemble du territoire en très haut débit et sur le fait que l’échelon européen est incontournable. Reste que les programmes peuvent encore évoluer, les équipes de François Fillon et Benoît Hamon sur le sujet venant juste d’être constituées.

Sophie Hoguin

Présidentielle 2017: Les besoins de la chimie pour le prochain quinquennat

Appelant de ses voeux un “véritable ministère de l’industrie et de l’énergie”, l’UIC souligne qu’actuellement “15 ministères interviennent sur les enjeux de l’industrie en France” et que cette “multiplication des interlocuteurs” est contre-productive et inefficace. Afin de bâtir une chimie française forte, les industriels de la chimie proposent de soutenir l’innovation, la simplification et la compétitivité.

Soutien à l’innovation

Cela passerait notamment par une sanctuarisation du crédit d’impôt-recherche (CIR), un soutien financier des projets innovants jusqu’à leur phase de pré-commercialisation et pas seulement lors de l’amorçage, la mise en oeuvre d’un plan “usine chimique du futur” pour accompagner le virage numérique des nombreuses PME ou encore par la développement d’une plateforme digitale de mise en relation entre les centres de ressources et les industriels.

Simplification de la réglementation

L’UIC souligne que l’industrie chimique est extrêmement réglementée (Reach, biocides, nanomatériaux, risques, etc) et qu’il serait nécessaire d’accentuer encore la simplification administrative et réglementaire, en étudiant l’impact des réglementations avant leur mise en place et en adaptant les contrôles en fonction de la maîtrise de l’industriel par exemple. Par ailleurs, les industriels proposent de créer des dynamiques de plateformes en encadrant la totalité de la zone industrielle plutôt qu’installation par installation: seuils réglementaires aux bornes des plateformes, statut “énergie intensif” à toute la plateforme, statut fiscal incitatif, démarches d’écologie industrielle et circulaire et développement des transports de fret durables.

Soutenir la compétitivité

Afin de soutenir la compétitivité des entreprises chimiques, il est proposé d’une part un volet social pour alléger les charges salariales et d’autre part un volet logistique avec des propositions pour la promotion d’une offre de fret global en France et en Europe, des garanties pour accéder à l’énergie de manière privilégiée sur le long terme. L’UIC propose notamment d’affecter une partie des recettes de la fiscalité carbone et de la vente des quotas de CO2 aux baisses de charges et aux actions d’amélioration de l’efficacité énergétique. Le thème du CO2 est particulièrement cher à l’industrie chimique qui suit de près l’évolution de la direction ETS (système d’échange européens de quotas d’émissions de CO2) et qui s’est récemment félicitée des corrections proposées par le Parlement européen pour réformer la directive ETS. Ces dernières doivent permettre d’éviter l’effondrement du prix du carbone par une meilleure régulation des quotas en circulation et de mieux protéger les industriels d’une perte de compétitivité liée à la mise en œuvre unilatérale d’un prix du carbone. Pour l’UIC, le soutien aux différentes branches de la chimie passe aussi par une réelle intégration au niveau international : tant sur le fonctionnement entre agences européennes et nationales (en évitant des initiatives franco-françaises) qu’en encourageant des accords commerciaux multilatéraux comme le CETA (accords de libre-échange entre le Canada et l’UE) dans lequel l’UIC voit “un facteur de croissance économique stimulant la production d’emploi dans les usines françaises”.

Sophie Hoguin

Les cartes bancaires VISA piratées en six secondes

Dans « Le cave se rebiffe », un film de Gilles Grangier et dialogué par Michel Audiard, sorti en 1961, il fallait investir dans de coûteuses machines et s’appuyer sur les compétences d’un graveur hors pair pour fabriquer de faux billets. Aujourd’hui, un banal ordinateur et une connexion internet suffisent pour pirater des cartes bancaires ! C’est ce qu’ont démontré des scientifiques de l’université de Newcastle, au Royaume-Uni.

Leur prouesse révèle les faiblesses de ce type de cartes. Premièrement, ils n’ont pas eu besoin de recourir à une méthode nécessitant des compétences hors pair. Ils se sont contentés de contourner le système de sécurité de paiement en ligne avec une attaque dite « par force brute ». Ils ont généré des variations de numéros de carte, de dates d’expiration et de cryptogrammes visuels sur différents sites jusqu’à obtenir un bon résultat. C’est l’une des méthodes utilisées pour trouver des mots de passe faibles (comprenant par exemple un prénom) en une poignée de secondes.

Ils ont d’autant plus facilement réussi cet exploit que les 6 premiers numéros des cartes correspondent à la banque et au type de carte. Il ne restait donc qu’à trouver les autres, y compris la date d’expiration et le cryptogramme. Par ailleurs, ces chercheurs savent, comme tout le monde, que les cartes bancaires expirent dans un délai de 60 mois maximum… Un détail d’importance, car il permet de limiter les requêtes sur une courte période.

Dernière lacune, le système de sécurité ne détecte pas toutes les tentatives frauduleuses. Il ne repère les échecs répétés sur une même carte que lorsque des opérations sont faites sur différents sites. Ce n’est pas le cas du réseau MasterCard qui est capable de détecter l’attaque en moins de 10 essais.

Pas de quoi rassurer les possesseurs d’une carte VISA. Ils pourraient être tentés de passer à la concurrence ou d’opter pour une carte bancaire prépayée pour sécuriser ses achats en ligne.

Ce n’est pas la première fois que des chercheurs démontrent le faible niveau de sécurité des cartes… VISA. Fin 2014, des Britanniques avaient prouvé qu’il était possible de détourner de l’argent à cause d’une faille dans le protocole de paiement sans contact (NFC). « Avec un simple téléphone mobile, nous avons créé un terminal de paiement qui pouvait lire une carte à travers un portefeuille. Toutes les vérifications sont effectuées sur la carte et non pas sur le terminal, donc au moment de la transaction, il n’y a rien qui puisse éveiller la suspicion » avaient-ils indiqué.

Philippe Richard

Coup de projecteur sur nos nouveautés 2017

Géomatique

Avec le développement de l’open data et des technologies du Web, la géomatique connaît un bouleversement rapide dans ses techniques de production et de diffusion mais aussi dans son économie générale. Elle est largement ouverte sur l’ensemble des secteurs économiques : aménagement du territoire, agriculture, gestion de ressources naturelles, transports, urbanisme, industrie spatiale, énergie, défense et sécurité civile, commerce et marketing… Destinée aux ingénieurs en systèmes d’information géographique, géomaticiens, ou spécialistes en aménagement du territoire, cette rubrique fait le point sur les différentes technologies de collecte et d’acquisition des données géographiques. Elle décrit également les outils informatiques pour le traitement et l’analyse des données.

>> A retrouver dans Technologies radars et applications

 

Réhabilitation et remise aux normes des bâtiments

En France, de très nombreux bâtiments ont été construits dans les années 1950 et 1960, après la guerre. Aujourd’hui, ces bâtiments connaissent l’usure du temps et des matériaux.  Il convient de décider parfois de leur démolition ou, plus souvent, de leur remise aux normes et de leur réhabilitation. En cas de litige entre les parties, une expertise peut être nécessaire. Destinée aux ingénieurs d’étude, aux ingénieurs du BTP ou encore aux architectes, cette rubrique passe en revue l’évaluation des bâtiments, l’expertise, la gestion d’un chantier de démolition et la réparation des ouvrages (acier, béton armé, mise aux normes sismiques, etc.).

>> A retrouver dans Vieillissement, pathologies et réhabilitation du bâtiment

 

Télécharger la lettre des éditeurs au format PDF

Le format ePub

Qu’est-ce que le format ePub ?

L’ePub (electronic publication) est un format standard libre et ouvert pour les livres numériques proposé par le consortium international IDPF (International Digital Publishing Forum). Un livre au format ePub est composé de plusieurs dossiers et fichiers réunis dans un conteneur qui porte l’extension .epub : il contient du texte (fichiers .XHTML), des images (fichiers .JPG, .PNG ou .SVG), des feuilles de style (fichiers .CSS) ainsi que des fichiers décrivant la structure du livre et ses métadonnées (auteur, titre, date de publication, ISBN…).

Quel est l’intérêt du format ePub ?

Le format ePub s’adapte visuellement et fonctionnellement à son support de lecture : taille de l’écran, capacités d’interaction, etc. Il peut contenir des documents multimédias (fichiers audio et vidéo), des équations mathématiques grâce au support du format MathML, des annotations, des fonctionnalités de navigation interne, des outils de recherche, des liens externes, etc.

Comment lire un ePub ?

Excepté l’Amazon Kindle, toutes les liseuses sont compatibles avec le format ePub. Diverses applications de lecture sont disponibles pour les ordinateurs personnels, les tablettes tactiles et les smartphones comme Adobe Digital Editions, Readium ou FBReader.

Consultez nos contenus accessibles au format ePub : 

La rubrique Innovations marquantes propose de découvrir à travers des articles synthétiques une sélection des innovations les plus marquantes dans le domaine de l’environnement et de l’énergie, des TIC et de l’électronique, des biotechnologies et de la santé.

L’Annuaire des nanotechnologies  recense l’ensemble des acteurs de la filière française des nanotechnologies (entreprises, organismes et associations) classés par secteur d’application, type de nanomatériaux, type de structure et localisation géographique.

 

>> Télécharger la lettre des éditeurs TI au format PDF

 

La datavisualisation arrive chez Techniques de l’Ingénieur

 

La datavisualisation, c’est quoi ? Et quel est l’objectif de cette cartographie ?

Depuis quelques années, la datavisualisation, ou dataviz, est devenue un véritable outil de communication utilisé pour mieux saisir les informations et prendre des décisions. Pour Techniques de l’Ingénieur, l’enjeu était d’expérimenter ces nouveaux outils de représentation graphique des connaissances sur nos publications : faire émerger de nouveaux concepts et permettre l’accès aux données de manière plus intuitive, interactive et transversale.

 

Comment avez-vous mis en place ce nouvel outil ?

Dans un premier temps, les éditeurs spécialistes ont étudié le corpus des ressources documentaires et ont identifié 8 grands groupes de mots-clés ou « concepts », organisés eux-mêmes en plusieurs sous-niveaux. Cette analyse sémantique a abouti à une liste hiérarchisée de près de 900 termes. Tous ces mots-clés ont ensuite été utilisés pour décrire, ou « taguer », l’ensemble des articles et des fiches publiés. En parallèle, nous avons développé une application web pour pouvoir visualiser et interagir sur ces données avec comme objectif de développer une interface la plus claire et efficace possible !

 

Comment utiliser la cartographie interactive ?

Aujourd’hui, la cartographie interactive permet de naviguer par concept, et même de croiser différents concepts, sur l’ensemble de nos articles et fiches pratiques, soit plus de 7 300 documents. Le champ de recherche permet d’accéder directement aux mots-clés utilisés ; il est possible de filtrer la liste des résultats par date ou ordre alphabétique. C’est un outil visuel d’exploration du contenu en complément des autres modes de navigation classique de notre site internet tels que le moteur de recherche ou l’accès par thématique.

 

Pour en savoir plus :

Tester la cartographie interactive

Ghislaine Chartron, une carrière au service de l’information

Quel regard portez-vous sur votre parcours ?

Mon parcours a commencé comme ingénieure au centre de documentation du CNRS, et j’ai aujourd’hui la responsabilité de la chaire d’Ingénierie documentaire au Cnam de Paris. Je pense avoir contribué à l’accompagnement et à la reconnaissance des compétences et des métiers attachés à la gestion et au management de l’information dans les organisations. Depuis le début des années 1980, le domaine n’a pas cessé d’évoluer, de se reformuler tant par les besoins exprimés, les technologies mobilisées, les services développés. L’innovation est adossée à l’ingénierie des documents, de l’information et de la gestion des connaissances depuis plusieurs décennies. La richesse des échanges et des coopérations entre entreprises et acteurs académiques est une caractéristique majeure qui a nourri mes projets tout au long de ce parcours.

Quelles sont les évolutions les plus marquantes de ces dernières années ?

Une évolution majeure concerne, de façon évidente, l’accélération des mutations technologiques qui ont affecté les modes de production, de diffusion, de circulation de l’information. Ces mutations ont induit des évolutions profondes dans les pratiques, les modes de travail. La fonction documentaire s’est de plus en plus fondue dans le système d’information général des organisations ; de nouvelles problématiques d’interopérabilité, d’échanges, d’intégration de sources hétérogènes sont devenues très importantes. Les nouvelles architectures (portails, cloud, API…) ont impacté les services et les usages. Différents paradigmes ont transformé la production, la diffusion et le partage : le web social, le web sémantique, le web des données. Concernant les acteurs, le W3C et les Gafa ont endossé un rôle déterminant en termes d’émergence de nouveaux standards, d’innovations de services. Une autre transformation concerne l’économie des contenus : la valeur s’est déplacée du côté des technologies, et la propension à payer des contenus est devenue de plus en plus faible. Ceci impacte bien entendu les acteurs dont le métier était de produire des contenus labellisés : les éditeurs, la presse, tous les acteurs des « industries culturelles ». De nouveaux modèles économiques doivent être trouvés ; l’équation n’est pas simple, et les tensions entre acteurs des contenus et acteurs des contenants ont marqué ces dernières années, dans des rapports de force assez déséquilibrés. Le comportement des usagers a, par ailleurs, évolué : continuité d’accès, expérience utilisateur, fluidité des services quel que soit le contexte d’usage. Enfin, la sacralisation du terme « données » englobant aujourd’hui tout type de contenu traduit les enjeux désormais prioritaires du traitement automatisé de ces contenus : data-mining, analytics, datavisualisation, apprentissage automatique sont à l’ordre du jour.

Quelles sont les compétences les plus recherchées chez les professionnels de l’information aujourd’hui ?

Les compétences se sont beaucoup diversifiées, l’information est devenue un enjeu transversal aux autres activités. Les fondamentaux restent cependant majeurs et fondent l’identité des professionnels de l’information : traitement intellectuel des documents (synthèse, indexation, analyse des besoins des usagers, recherche qualitative, conception des services), compétences doublées d’une solide culture technique qui doit être sans cesse actualisée. Les compétences liées à la GED-archivage numérique sont une priorité pour les entreprises. La valorisation en ligne de contenus locaux et du patrimoine numérique ouvre de nouvelles opportunités. Le secteur de la veille, de la surveillance des environnements, de l’intelligence stratégique s’ancre aussi profondément aux métiers de l’information. Le virage est important : le professionnel de l’information doit savoir gérer qualitativement et quantitativement des données, comprendre les statistiques et les algorithmes d’analyse, donner du sens à ces traitements automatisés pour les usagers, les métiers et les décisionnaires.

>> Accéder à la rubrique Documents Numériques

>> Télécharger la lettre des éditeurs au format PDF

 

DŽpartement "Culture, Information, Technique et SociŽtŽ" de l'Ecole "Management et SociŽtŽ": Portrait de Ghislaine Chartron, professeur, Chaire d'IngŽnierie documentaire
Ghislaine Chartron

Titulaire de la chaire d’ingénierie documentaire au Cnam, conseillère éditoriale de Documents Numériques

L’article de référence le plus téléchargé du mois

 

ADSORPTION – ASPECTS THEORIQUES  (Réf. J2730)

Résumé : L’adsorption est une technique de séparation de molécules d’un gaz ou d’un liquide par attraction sur un solide poreux. C’est un phénomène de surface qui fait intervenir des interactions physiques et chimiques. La rétention des molécules a lieu essentiellement sur la surface interne de l’adsorbant. Cette technique est utilisée pour la séparation et la purification de molécules dans des domaines très variés : la pétrochimie, l’agroalimentaire, le traitement des effluents … Cet article présente les bases théoriques de l’adsorption pour le Génie des Procédés : les matériaux utilisés, les équilibres en jeu, les mécanismes de transferts et les comportements dynamiques d’un lit fixe d’adsorbant.

Les auteurs : 

  • Lian-Ming SUN : Directeur technique Ligne de Produits Standard Plants Air liquide Global E&C Solutions France SA, Champigny-sur-Marne, France
  • Francis MEUNIER : Professeur émérite au Conservatoire national des arts et métiers – Directeur honoraire de l’IFFI (Institut Français du Froid Industriel), Paris, France
  • Nicolas BRODU : Maître de Conférences, Université de Rouen-Normandie/INSA-Rouen, Laboratoire de Sécurité des Procédés Chimiques (LSPC), Saint-Étienne-du-Rouvray, France
  • Marie-Hélène MANERO : Docteur-ingénieur – Professeur des Universités IUT A – Université Paul Sabatier Laboratoire de génie chimique, Université de Toulouse, CNRS, INPT, Toulouse, France

>> Découvrir l’article

>> Télécharger la lettre des éditeurs au format PDF

Le Kenya abrite le plus grand parc éolien d’Afrique

Google dans le coup

L’annonce de Vestas intervient en avance sur le planning et ce, alors que la compagnie a perdu 5 semaines en raison, cela ne s’invente pas, de vents trop forts. Dans la zone du Great Rift Valley, les courants d’air rapides venus de l’océan Indien s’engouffrent dans un corridor où la compagnie danoise a installé ses turbines de type 850kW V52. Le projet « Lac Turkana a été un grand défi en raison de tous les facteurs supplémentaires liés à un projet de cette taille et à cet emplacement, et je suis donc extrêmement fier que nous ayons installé les 365 turbines en moins d’un an », a déclare Pierre Pretorius, directeur de projet de Vestas, à nos confrère de Recharge. Le parc éolien devrait être connecté au réseau en juin grâce à une ligne haute tension de 400 kV qui courra sur 438 kilomètres.

La turbine V52 (rotor d’un diamètre de 52m, pour des vitesses comprises entre 3 et 25 m/s) appartient aux modèles de l’ancienne génération remis à jour par le constructeur grâce à l’ajout de nouvelles technologies telles que les pâles pivotantes à haute-efficacité (effort sur l’aérodynamisme et surtout les matériaux composites), les systèmes de ventilation, et un générateur qui s’adapte plus rapidement au rotor. Ce projet d’un coût de 700 millions de dollars a été financé presqu’intégralement grâce à la Banque africaine de développement. A noter que fin 2015, Google a pris une participation de 12,5% dans le projet pour 40 millions de dollars post-mise en route.

Le Kenya sur la bonne voie

Parler d’énergie en Afrique, c’est d’abord rappeler un fait : deux tiers des Africains n’ont pas accès à l’électricité. C’est un chiffre qui tend lentement à s’élever en raison dans le même temps de l’augmentation rapide de la population et qui impose à court terme d’autres priorités que le mix électrique. De fait, une part du projet Lac Turkana prévoit d’utiliser l’électricité générée pour alimenter hors-réseau les communautés alentours. L’électrification est un sujet majeur de l’Afrique et les énergies renouvelables, de par leur caractère décentralisé, est une des solutions pour fournir à des populations isolées ce bien de première nécessité. La Banque mondiale estimait en 2016 que le Kenya faisait partie des pays qui avaient adoptées des mesures favorables à l’électrification et aux énergies renouvelables. Mais comme souvent, les financements font défaut. L’initiative africaine pour les énergies vertes (AREI), dont Jean-Louis Borloo a participé à la création (il s’en est retiré depuis), estimait que les besoins de l’Afrique s’élevaient environ à 4 milliards d’euros par an pendant une quinzaine d’années, soit 60 Mds €.

Romain Chicheportiche