Après des mois, l’Arabie Saoudite reprend ses livraisons 
de pétrole à l’Egypte

Reprise du contrat

« Nous avons reçu vendredi et samedi les deux premières livraisons de pétrole après la reprise du contrat avec Aramco », a confirmé le 19 mars Hamdi Abdel Aziz à nos confrères de Jeune Afrique. « Nous recevrons deux livraisons supplémentaires les 26 et 27 mars », a-t-il ajouté. Les livraisons d’or noir étaient suspendues par la compagnie pétrolière saoudienne depuis octobre dernier. Or, cet accord est vital pour l’Egypte qui importe 40% de ses produits pétroliers en provenance d’Arabie Saoudite. Le contrat, signé en avril 2016, prévoit la livraison pour 5 ans de 700 000 tonnes de produits pétroliers par mois, pour une valeur de plus de 20 milliards de dollars. Pour faire face au risque de pénurie, le gouvernement avait organisé dès novembre des appels d’offres internationaux pour palier la défection saoudienne. L’Egypte n’avait guère besoin de ça, le pays vivant déjà une crise économique profonde en raison de nombreuses réformes structurelles imposées par le FMI. Pour y faire face, le gouvernement  s’est résolu à dévaluer de 47,7% sa monnaie et a annoncé le passage à un régime de change flottant pour tenter de juguler sa crise monétaire.

Enjeux géopolitiques

La suspension des livraisons de pétrole au régime du Caire n’est sans doute pas sans rapport avec les divergences géopolitiques entre l’Arabie Saoudite et l’Egypte, notamment sur le dossier syrien. Ryad voit le départ de Bachar-Al-Assad comme un prérequis indispensable vers la résolution du conflit, tandis que Le Caire a voté en faveur la résolution de la Russie, fervent protecteur du dirigeant syrien, à l’ONU en octobre 2016. Une provocation pour l’Arabie Saoudite qui a soutenu politiquement et financièrement le nouveau président égyptien Abdel Fattah al-Sissi lorsqu’il avait destitué de force l’islamiste Mohamed Morsi en 2013.

Le fait que les deux alliés traditionnels de la région n’aient pas la même analyse du conflit syrien ne présage en rien une résolution rapide de cette guerre civile qui entre maintenant de sa 7ème année… Pour y mettre fin, le Secrétaire général de l’ONU, António Guterres, a appelé une nouvelle fois « tous ceux qui ont de l’influence sur les parties à s’efforcer de surmonter leurs divergences et travailler ensemble pour mettre fin au conflit ».

Romain Chicheportiche

Impression 3D: un procédé simple réussit à utiliser la cellulose

Deux obstacles majeurs bloquaient jusqu’à maintenant l’utilisation de la cellulose en impression 3D: à la chaleur elle ne fond pas mais se détruit et en solution elle est trop visqueuse pour être extrudée. Et quand on y arrive, le résultat nécessite des process de séchage compliqués pour préserver la forme de l’objet fabriqué. Pour dépasser ces obstacles, des chercheurs du MIT ont eu l’idée d’utiliser de l’acétate de cellulose dissout dans de l’acétone. Comme l’acétone est très volatil, il s’évapore dès qu’il est déposé et l’acétate de cellulose se solidifie en place.

Pour compléter leur process, les chercheurs ont mis au point un traitement optionnel par hydroxyde de sodium qui consolide l’objet fabriqué.

Un process facilement industriable

Pour faire la démonstration de leur process, les chercheurs ont ajouté une dimension supplémentaire à leur innovation et ajoutant une teinture antimicrobienne à la solution d’acétate de cellulose.

Résultat : une pince chirurgicale avec des fonctionnalités antimicrobiennes :

MIT-3D-Cellulose-1_0

Par ailleurs, le procédé n’est pas basé, comme c’est le cas la plupart du temps en impression 3D, sur le chauffage préalable du matériau. Le process se déroule à température ambiante et l’évaporation naturelle de l’acétone suffit. Elle pourrait d’ailleurs être accélérée en soufflant de l’air chaud par exemple, précise Sebastian Pattinson, principal auteur de l’étude parue dans Advanced Materials Technologies. L’acétate de cellulose, largement disponible pourrait ainsi devenir une alternative renouvelable et biodégradable à d’autres matériaux de l’impression 3D. A condition tout de même que le système de production prévoit la récupération de l’acétone, toxique par contact et par inhalation.

Sophie Hoguin

 

Protéger les céréales du réchauffement climatique !

L’année 2016 a été une année noire pour les récoltes céréalières françaises à cause d’une météo déplorable au printemps. Selon Agreste, le service des statistiques du ministère de l’Agriculture, la baisse de la production est estimée à -31,6% par rapport à 2015. De plus, un article paru dans la revue Nature Climate Change atteste qu’une augmentation des températures de 1°C ferait baisser le rendement mondial du blé entre 4,1% et 6,4%.

Des recherches scientifiques pour optimiser les rendements

Le blé est la céréale la plus menacée par la hausse des températures. Selon certains scientifiques, la tendance a commencé il y a presque trente ans. « La stagnation des rendements du blé observée depuis le début des années 90 est étroitement liée au dérèglement climatique » observe Katia Beauchêne d’ARVALIS – Institut du végétal. Une tendance à prendre au sérieux quand on sait que la FAO annonce que « la production céréalière [mondiale] annuelle devra s’accroître de près d’un milliard de tonnes » d’ici 2050 pour pouvoir nourrir 10 milliards d’individus.

L’un des enjeux est donc de définir quelles sont les céréales les plus résistantes. L’institut du végétal mène des études via sa plate-forme PhénoField. Grâce à l’étude du génotype et du phénotype des plantes, le but est de « sélectionner les variétés de maïs et de blé les mieux adaptées aux conditions climatiques ». Des études sur le système racinaire des plantes sont aussi menées. L’objectif est d’évaluer la résistance des racines aux intempéries violentes qui risquent de se multiplier à l’avenir.

La technologie au renfort de l’agriculteur

Mieux connaître la nature des sols permettrait aux agriculteurs de gérer plus aisément leurs cultures. C’est le but recherché des fermes connectées. À l’aide de capteurs, l’envoi d’informations à distance est un atout majeur pour les exploitants agricoles. Les stations météorologiques connectées sont aussi précieuses. Ainsi, en cas de disparité d’irrigation des sols, le cultivateur peut identifier les besoins en eau de sa terre et cibler l’arrosage. Les agronomes souhaitent également parvenir à une meilleure gestion des stocks d’eau.

Des drones sont utilisés pour lutter contre les ravageurs. Le développement de ces derniers est un danger indéniable pour les cultures de maïs par exemple. Pour endiguer le phénomène, les sociétés Bioline Agrosciences et Agribird ont mis au point un drone capable de répandre sur les champs de maïs des œufs de trichogrammes. Ces minuscules guêpes sont chargées de lutter contre la pyrale, qui peut ravager une plantation. La lutte contre les espèces nuisibles est d’autant plus importante qu’elles se propagent rapidement avec le réchauffement climatique.

Par Matthieu Combe, journaliste scientifique

L’industrie énergétique face aux cyberattaques

Un secteur jusque-là peu concerné

Les infrastructures énergétiques sont des investissements très capitalistiques dont l’amortissement s’étale dans le temps. Le parc nucléaire français a ainsi été prévu techniquement et économiquement pour fonctionner 40 ans. C’est pourquoi de nombreuses installations sont anciennes et peu digitalisées à l’instar du parc français qui fonctionne encore beaucoup à l’analogique. Ce « retard technologique » a ironiquement permis à l’industrie énergétique d’être relativement épargnée par les cyberattaques jusqu’au début des années 2000. Le secteur de l’énergie est depuis l’un de ceux qui a massifié l’utilisation de capteurs qui relèvent et envoient en permanence des millions d’informations. Dans l’industrie pétrolière par exemple, une foule de données est traitée pour rendre compte de la pression, température, viscosité… afin de générer des gains d’efficacité tant dans la production que dans le transport par oléoducs ou gazoducs.

La libéralisation du marché de l’énergie, particulièrement en Europe avec la création d’une bourse commune de l’électricité, a également joué un rôle dans la digitalisation du secteur puisque tous les échanges sont assurés par les TIC. Enfin, les compteurs communicants en cours d’installation en France (Enedis en déploiera 35 millions d’ici 2021), qui représentent la première brique du futur réseau électrique intelligent, permettront au gestionnaire de réseau d’avoir un suivi bien plus précis et en temps réel de ses clients grâce à l’envoi des données de consommation. La protection de ces données sensibles, tant pour le consommateur que l’opérateur, fait l’objet d’une attention particulière d’Enedis. En effet, « lors de la conférence Black Hat Europe 2014, deux professionnels de la sécurité informatique ont démontré qu’il était possible de pirater certains compteurs espagnols dont les communications entrantes et sortantes étaient chiffrées », explique Gabrielle Desarnaud, chercheuse à l’Ifri et auteur du rapport « Cyberattaques et sécurité énergétiques ». 

Enjeu majeur

Le piratage des réseaux électriques par l’envoi de fausses données à l’opérateur représente un risque majeur car il pourrait causer des black-out électriques dont les conséquences sont imprédictibles. Il en va de même pour les exploitants de sites nucléaires considérés comme des opérateurs d’importance vitale (OIV), c’est-à-dire dont la défaillance aurait un impact décisif sur le mode de vie de la population. L’intérêt pour le risque nucléaire a été ravivé en 2010 après la découverte d’un virus extrêmement élaboré, Stuxnet, visant les installations d’enrichissement d’uranium de Natanz, en Iran. Il permettait de modifier la vitesse de rotation des centrifugeuses, ce qui empêchait de poursuivre l’enrichissement de la matière et endommageait les équipements. Pour ne pas être repéré, il envoyait en boucle à l’interface de contrôle les informations d’opérations normales. Près d’un millier de centrifugeuses auraient été détruites à cause de Stuxnet. Ce virus aurait été introduit, le conditionnel est ici de rigueur, par le biais d’une clé USB infectée. Le fait que le programme ne puisse s’activer que dans une certaine configuration (nombre et disposition exacts des centrifugeuses) laisse penser que l’opération a nécessité d’importants moyens. A l’époque, l’attaque a été attribuée au gouvernement israélien et/ou américain pour ralentir le programme nucléaire iranien, alors la pomme de discorde de la communauté internationale. Mais aucune preuve n’a été trouvée.

Les cyberattaques ne sont pas forcément le fait d’États ou de groupes à des fins géopolitiques. L’espionnage industriel ou l’extorsion de fonds sont également des motivations d’assaillants. En 2011, Areva a admis avoir été victime d’un piratage de grande ampleur qui a duré deux ans, mais qui n’aurait pas concerné de données sensibles. La même année, les virus Night Dragon et Duqu ont également espionné des entreprises du secteur, notamment pétrolier. Néanmoins, les hackers connaissent mal les systèmes de l’industrie de l’énergie et ont besoin de compétences précises dans l’informatique mais aussi dans l’automatique. Les logiciels de rançon « classiques », c’est-à-dire qui ne vise pas les installations critiques, sont tout aussi efficaces dans l’extorsion de fonds et nécessitent moins de travail.

Des réponses techniques et réglementaires

Pour faire face au risque de cyberattaque, le secteur énergétique privilégie « la défense en profondeur », qui consiste à superposer plusieurs strates de sécurité pour palier la défaillance de l’une ou plusieurs d’entre elles. L’organisation est primordiale pour assurer la sûreté des sites et en premier lieu séparer les réseaux de gestion et opérationnels. Le personnel doit quant à lui être formé pour éviter des erreurs humaines telles qu’introduire des objets connectés non-validés auparavant par l’entreprise. Le meilleur moyen de se prémunir d’une attaque extérieure est donc d’îloter son réseau. En janvier 2003, la centrale nucléaire de David-Besse en Ohio, Etats-Unis, a été infecté par un ver informatique : Slammer. Il s’agit d’un code très simple qui génère des adresses IP pour leur envoyer des répliques de soi-même. Heureusement, la centrale était déjà arrêtée. A noter que le virus n’était pas destiné spécialement à la centrale nucléaire, mais celle-ci a été infectée au travers d’une connexion non-sécurisée vers une entreprise tierce. Ce qui n’est pas le cas en France précise Gabrielle Desarnaud : « les seules informations sortant du réacteur d’une centrale nucléaire à destination d’un acteurs tiers concernent les données de tension et de puissance, échangées toutes les cinq secondes avec le réseau de transmission d’électricité, afin d’ajuster la production en fonction de la demande. Aucune autre communication extérieur n’est admise par le réseau de la centrale ».

Volet réglementation, la France a créé en 2009 l’Agence nationale de la sécurité des systèmes d’information (ANSSI) pour lutter contre le risque cyber. En 2016, la France est le premier pays à publier des arrêtés pour les opérateurs importance vitale du secteur énergétique comprenant une liste de mesure à mettre en place. Au niveau de l’Union européenne, la Commission indique avoir introduit la problématique cyber dans son paquet Energie annoncé en 2016.

Romain Chicheportiche

Photovoltaïque : vers l’atteinte des objectifs en 2018 ?

Sur l’année 2016, 576 mégawatts (MW) de photovoltaïque ont été raccordés, contre 895 MW en 2015. Soit une baisse de 36% des nouvelles installations raccordées. Le parc solaire photovoltaïque atteint ainsi 6,67 gigawatts (GW). L’objectif de la Programmation Pluriannuelle de l’Energie (PPE) est d’avoir un parc de 10,2 GW fin 2018. Il faudra donc installer 3,33 GW d’ici là. Pour atteindre ce niveau, la croissance annuelle devrait frôler les 1,8 GW, soit trois fois plus qu’en 2016. Mais ce niveau est proche du record de 2011 où près de 1,7 GW avaient été installés. Les dernières annonces de Ségolène Royal tendent à rattraper le retard.

3 GW de grandes installations au sol

Le 9 mars, Ségolène Royal a annoncé les 79 lauréats de la première période de l’appel d’offres pour les installations photovoltaïques au sol pour 0,5 GW. Soit les centrales photovoltaïques et les ombrières de parking. « Le prix moyen pour les grandes centrales photovoltaïques au sol est de 62,5 €/MWh, ce qui traduit la baisse rapide des prix du photovoltaïque, annonce le Ministère dans l’environnement dans un communiqué. Plus de 60% d’entre eux se sont engagés à l’investissement participatif et bénéficieront d’une prime majorée de 3 €/Mwh.» Ces installations devraient produire 0,7 TWh d’électricité par an pour un investissement total de 460 millions d’euros.

Cet appel d’offre s’inscrit dans un dispositif lancé en août 2016 visant l’installation de 3 GW de nouvelles centrales solaires au sol de grande puissance. Il reste 5 périodes de candidature de 0,5 GW chacune, réparties jusqu’en 2019,. La deuxième période est programmée pour mai 2017.

L’autoconsommation démarre !

Ségolène Royal a  aussi désigné les 62 lauréats de la deuxième période de l’appel d’offres pour les installations photovoltaïques en autoconsommation. Ils représentent une puissance installée de 20 MW et bénéficieront d’une prime à un prix pondéré de 19.35 €/MWh. Le taux d’autoconsommation des lauréats de l’appel d’offres s’élève en moyenne à 97,6 %. « Plus des deux tiers des modules photovoltaïques choisis sont fabriqués en France », précise le Ministère de l’environnement. La production espérée de ces installations s’élèvera à 25 GWH par an pour un investissement de 27 millions d’euros.

Pour pérenniser ce modèle d’autoconsommation, Ségolène Royal en a profité pour annoncer le lancement d’un appel d’offres pluriannuel pour les installations de production d’électricité à partir d’énergies renouvelables en autoconsommation. Le volume total s’élève à 450 MW, réparti en neuf tranches de candidatures de 50 MW. La première période de candidature se terminera au mois de septembre 2017. Cet appel d’offres est notamment ouvert aux consommateurs des secteurs industriels, tertiaires et agricoles, en particulier aux centres commerciaux.

Enfin, la ministre publie un nouvel appel d’offres de 210 MW pour soutenir des installations solaires innovantes, notamment la route solaire et l’agrivoltaïsme. Ces dernières installations permettent de coupler une production photovoltaïque secondaire à une production agricole principale. Cet appel d’offres est réparti en trois tranches de 70 MW. La première période de candidature se clôturera également en septembre prochain.

Le Syndicat des énergies renouvelables a tenu à saluer ces annonces ministérielles « en droite ligne avec la programmation pluriannuelle de l’énergie ».

Par Matthieu Combe, journaliste scientifique

Hackathons : tous gagnants ?

Pizzas, tenue geek, PC portables allumés en permanence, stress des pitchs… L’ambiance d’un hackathon (contraction de « hack » et « marathon ») ressemble à celle d’une colonie de vacances avec des matelas et des sacs de couchage à même le sol. A une différence près : les participants acceptent d’être enfermés durant tout un week-end ! Autre nuance avec les joyeuses colonies, ces événements s’appuient sur des méthodologies et une organisation très précises et efficaces.

Né aux États-Unis à la fin des années 1990, au sein de la communauté des développeurs adeptes des logiciels libres, un hackathon consiste à faire plancher des génies de l’informatique ou d’un autre domaine annexe (tout le monde peut y participer : étudiants, start-up, designers…) sur un projet d’application ou de service en ligne. Précurseur dans ce domaine, Facebook en a organisé plusieurs. À la clé, des innovations majeures pour le réseau social « comme le bouton «J’aime» ou la fonction de discussion instantanée » rappelle Le Monde.

De plus en plus d’entreprises françaises et de pépinières s’y sont mises : Axa, Pernod Ricard, la RATP, SNCF… Même la Mairie de Paris et des associations. Tous les secteurs s’y intéressent et pas seulement ceux liés à l’informatique. Les laboratoires pharmaceutiques, la grande distribution et le luxe planchent sur l’organisation de tels week-ends.

Près de 200 hackathons ont eu lieu en France en 2016, sur les 3450 organisés dans le monde. Pourquoi un tel engouement ? Pour les entreprises, cela permet de découvrir de nombreux projets testés en « live » tout un week-end et de n’en retenir qu’un ou deux le dimanche soir. Autre avantage : détecter des profils intéressants pour essayer ensuite de les embaucher.

Pour les équipes de développeurs, cela permet de se roder et d’apprendre à travailler ensemble sur un projet concret. C’est aussi un moyen de se faire remarquer et d’avoir des propositions d’emploi, de renforcer son réseau en rencontrant de nouveaux partenaires.

Chèque cadeau

Tout le monde ne partage pas cet enthousiasme. En finançant ces événements, les entreprises espèrent un retour sur investissement immédiat. « Un hackathon ne devrait pas se faire au bénéfice d’une société, mais dans l’intérêt commun », explique au quotidien Le Monde Mael Inizan, chargé de projet au sein de Silicon Xperience et de Silicon Sentier, une association qui promeut l’innovation en Île-de-France.

Autre bémol : des projets pourraient être exploités par des entreprises au détriment des développeurs. D’autres évoquent le travail non rémunéré (des dizaines d’heures passées tout un week-end). Avec pour récompenses, des voyages, des chèques-cadeaux ou parfois 1 000 à 2500 euros pour chaque participant du projet retenu.

Mais pour la plupart des personnes rencontrées lors de ces éventements, le plus important est de pouvoir ajouter quelques lignes sur un CV et d’être à l’origine d’une nouvelle application qui a séduit les entreprises, mais aussi les utilisateurs…

Dormir, ils le feront quand ils seront plus vieux !

Philippe Richard

La politique spatiale de Trump

S’il est à peu près sûr maintenant que le budget de la Nasa devrait rester stable, beaucoup d’incertitudes planent encore sur la future politique spatiale américaine. Tous les acteurs sont en attente car nombres de programmes touchent à leur fin, notamment les programmes de sondes et de robots d’exploration (Mars curiosity, Cassini, New Horizons…)  et il faut trancher sur les objectifs et missions à venir. Depuis janvier, le gouvernement Trump a placé une équipe de transition à des postes clés de l’agence spatiale américaine en précisant que certains resteraient. Ce qui est clair aujourd’hui ce sont les trois grands principes qui vont sous-tendre cette politique: un renforcement de l’ouverture commerciale à l’espace, la mise en place de missions pour structurer une future exploitation des ressources spatiales et le retour de l’homme américain dans l’espace. Une politique, chapeautée par la renaissance d’un Conseil national de l’Espace qui étudierait chaque orientation et proposition.

Cap sur la Lune

La Lune devient clairement un enjeu colonial pour de nombreuses puissances telle que la Chine et les Etats-Unis, qui jusque là visaient Mars, pourraient bien remettre le cap sur notre satellite en l’envisageant à la fois comme base de départ pour l’exploration du système solaire et de Mars et comme base pour une exploitation minière. Sont visés l’hélium-3 et les terres rares intéressantes pour l’industrie sur Terre et  l’eau et l’hydrogène liquide pour alimenter des installations sur place. Pour y aller, pas de doute, l’alliance avec le secteur privé sera privilégiée. Space X, Blue Origin sont déjà sur le départ et ont déjà rencontrés plusieurs fois l’administration Trump. Ce choix mariant les deux ingrédients de l’impérialisme américain si cher au nouveau Président:  le rêve (l’homme -américain- sur la Lune) et le profit (tout peut être capitalisé).

Adieu l’observation de la Terre ?

La plus grosse inquiétude vient des agences et des départements liés à l’observation de la Terre pour lesquels la proposition de budget présentée par Donald Trump avance des coupes claires : le budget du département satellites de la NOAA (National oceanic and atmospheric administration) pourrait être diminué de 20% et celui du département des sciences de la Terre de la Nasa de 5%. Et il est probable que l’orbite basse terrestre, y compris la station spatiale internationale soit laissée au secteur privé. Des choix qui restent encore à concrétiser quand l’administration Trump sera opérationnelle et qu’une cohérence sera trouvée entre des exigences présidentielles contradictoires allant d’un besoin de contrôle excessif à la dérégulation totale. Ce qui pour le moment créé surtout de l’incertitude.

Sophie Hoguin

Prix du solaire en France : trois décennies d’avance sur ce que prévoyaient les experts

« L’appel d’offres pour des installations solaires au sol de grande (moyenne NDLR) puissance, comprise entre 500 kilowatts crête et 17 megawatts crête, a été lancé en 2016, pour un volume total de 3 000 MW répartis en 3 ans. La ministre (Ségolène Royal NDLR) désigne aujourd’hui les 79 lauréats de la première période de l’appel d’offres, pour un volume total de 500 MW. » a déclaré le Ministère dans un communiqué du 9 mars 2017.

La plus grande centrale solaire PV du monde est en Chine (Longyangxia, 850 MW). La seconde est en Inde (Kamuthi, 648 MW). La troisième en Californie (Topaz, 550 MW). En France réaliser de grandes centrales au sol de plus de 100 MW, ce qui permettrait de baisser les coûts par effet d’échelle, est presque impossible.

La plus grande centrale d’Europe a été construite à Cestas, près de Bordeaux, et a une puissance de 300 MW. « Cela sera sans doute la dernière » a confié un spécialiste du solaire. « Tout n’a pas été si simple pour les équipes de neoen dans un pays qui a l’art de cultiver les chausse-trappes pour les développeurs de centrales au sol » explique le groupe Oxygn sur son site web officiel, citant Xavier Barbaro, le PDG de Neoen : « Comme cette loi inepte des 500 mètres de distance entre chaque centrale de 12 MW pour un même maître d’ouvrage. Nous aurions aimé être propriétaire du site à 100% mais cette contrainte nous en empêche. Que de temps perdu et de dépenses ! Tout est fait pour nous freiner dans notre atteinte de taille critique et d’optimisation du bilan financier. Nous avons été dans l’obligation de trouver huit co-actionnaires pour parachever l’ouvrage. Neoen qui a acheté les 260 hectares de foncier détient 40% de la centrale. Nous gérons ainsi 25 centrales de 12 MW ce qui engendre nécessairement des surcoûts. »

Dans son étude de prospective intitulée « Vers un mix électrique 100% renouvelable en 2050 », l’ADEME estimait en 2015 que le coût du grand solaire au sol sera de 60 €/MWh (6 c€/kWh) en 2050 (Figure 7 page 16). Estimation réalisée « uniquement pour les 4 régions françaises les plus au sud » précisait l’ADEME.

Dès 2017, c’est à dire un tiers de siècle plus tôt que ce qu’avaient prévu les experts de l’état français, le prix moyen de l’électricité des centrales au sol de moyenne puissance est déjà de 62€/MWh. Ces experts estimaient par ailleurs (Figure 5 page 14) que le potentiel du solaire PV au sol en France est 6,5 fois inférieur à celui du solaire en toiture (62,5 TWh/an contre 403,1 TWh/an)

Une prime de 3 €/MWh (0,3 c€/kWh) est offerte par l’état pour les projets qui incluent un financement participatif écocitoyen.

Olivier Daniélo

Des assistants virtuels dans toutes les entreprises ?

Évoquée aux débuts des années 50, l’Intelligence Artificielle est en plein essor. Et cette tendance va s’accentuer. Selon le cabinet Gartner, elle sera embarquée dans 50 % des applications analytiques d’ici trois à cinq ans.

La puissance de calcul des serveurs capables de traiter des volumes de plus en plus importants de données permet de gérer plus facilement des problématiques complexes ou de seconder des métiers. Pour relever ce défi, l’IA s’appuiera entre autres sur les facultés d’auto-apprentissage pour rendre les chatbots performants.

Apparu pour la première fois en 1994, ce terme de chatbot est maintenant dans toutes les réunions des grandes entreprises qui ont entamé leur programme de transformation numérique. Les chatbots pourraient en particulier améliorer le service client. En s’appuyant sur l’intelligence artificielle, ces programmes décrypteraient ce que demandent leurs interlocuteurs. Ces interfaces autonomes, ou assistants virtuels, n’auront plus besoin d’être secondées en permanence par un collaborateur pour exécuter une tâche. Si la réponse ne se trouve pas dans les volumes de données gérées par l’entreprise, elles poseront une question une seule fois et pourront ensuite agir seules.

Allô docteur ? Non c’est un bot !

Pour l’instant, ils ne peuvent pas prétendre remplacer un « vrai » conseiller, car leurs analyses reposent principalement sur la détection de mots-clés. Par ailleurs, pour alimenter « la mémoire » des chatbots, il est indispensable d’intégrer l’historique de ses échanges avec les utilisateurs. Cela demande une infrastructure de suivi, de validation des interactions, de mesure de succès dans les interactions, et d’active learning pour mettre à jour automatiquement les algorithmes d’intelligence artificielle. Bref, un investissement élevé.

Mais à plus long terme, ces programmes informatiques pourraient bouleverser de nombreux secteurs d’activité. Ils seraient capables d’endosser différents rôles : vendeur, docteur, conseiller, styliste, juriste, guide touristique, critique culinaire… Des tests sont par exemple menés au Royaume-Uni. Le National Health Service s’est associé à une start-up pour tester un chatbot médical pour gérer les patients demandant de l’aide pour des petits bobos. En Allemagne, le groupe Lufthansa utilise un chatbot pour guider les voyageurs dans leur recherche du meilleur tarif. En France, différentes entreprises mènent des tests ou ont déployé des premières versions de leur bot: SNCF, Direct Énergie, ACCOR, le PMU…

Ces bots pourraient aussi nous aider à être plus efficaces dans notre travail. C’est le cas notamment dans le tri quotidien des dizaines d’emails que nous recevons chaque jour. La start-up américaine Astro, qui vient de boucler un tour de table de 8,3 millions de dollars, a développé une application de messagerie intelligente et un bot pour optimiser les flux. Ce dernier propose à l’utilisateur des conseils et des idées basés sur son activité. Il est également en mesure d’échanger avec lui pour évoquer des tâches mentionnées dans d’anciens courriers qui sont restés sans réponse.

En France, la division énergies renouvelables d’Engie utilise un chatbot pour simplifier la vie de ses techniciens. Ce « robot » facilite l’accès à l’information de ses parcs éoliens, solaires et hydrauliques. Il affiche des graphiques pour donner un meilleur aperçu de l’évolution de la production et des prévisions du système. Il est par ailleurs capable de suggestions basiques, par exemple en proposant une liste des équipements existants d’un parc si celui demandé n’existe pas.

Philippe Richard

Techniques de l’Ingénieur participe au NORTH AFRICA PETROLEUM EXHIBITION & CONFERENCE – NAPEC

Il s’agit du plus grand salon professionnel international du secteur en Afrique. Napec est consacré aux activités de l’upstream, du midstream et du downstream. Il rassemble tous les fournisseurs de produits, services et technologies qui gravitent autour de l’activité pétrolière et gazière.

Avec 400 délégués et une vingtaine d’experts venant de 30 pays différents, les conférences vont permettre de partager les meilleures pratiques et techniques disponibles pour augmenter la production des champs en exploitation.

Techniques de l’Ingénieur, outils de référence des plus gros acteurs du secteur, se doit d’être présent sur cet événement au cours duquel les dernières tendances de la technologie de forage et plus généralement de l’industrie pétrolière et gazière sont présentées.

C’est également l’occasion pour Techniques de l’Ingénieur d’aller à la rencontre de ses nombreux utilisateurs du continent africain dont le nombre ne cesse de croître, aussi bien dans l’industrie que dans les centres de recherche, écoles ou universités.

Stand D87 – Obtenir une invitation

La consommation collaborative analysée par l’Ademe

Covoiturer, louer sa voiture, son appartement et ses objets à des particuliers pour arrondir ses fins de mois… Ou encore assurer le réemploi de ses objets… Voici quelques solutions collaboratives bien implantées dans le quotidien des Français. Une nouvelle étude de l’Ademe publiée le 9 mars cherche à comprendre à quel point ces pratiques peuvent réduire les impacts environnementaux. Et ce n’est pas si évident. « Consommer de manière collaborative ne signifie pas automatiquement consommer responsable, assure l’Ademe. Le gain environnemental dépend fortement de la pratique conventionnelle à laquelle la pratique collaborative se substitue. »

Le covoiturage, un potentiel important

Lorsque l’on parle de covoiturage, on pense en priorité au covoiturage longue distance. L’Ademe estime dans ce cas le taux d’occupation d’un véhicule covoituré à 3,5 passagers. Mais le covoiturage se substitue pour 63% des covoitureurs au train, un mode de transport largement moins émetteur de gaz à effet de serre. 12% des covoitureurs confient même qu’ils n’auraient pas voyagé sans cette offre de covoiturage. « La réduction d’impact n’est que de 12% quand on prend en compte cette réalité de substitution », calcule l’Ademe.

Le covoiturage courte distance est largement plus profitable à l’environnement. En l’absence d’une telle solution, seulement 20% des clients auraient pris un mode de transport en commun. Dans 80% des cas, les covoitureurs auraient pris leur voiture seul. La pratique demeurant encore confidentielle et vu son fort potentiel, l’Ademe appelle à la développer pour augmenter le taux de remplissage moyen (2,56 personnes). Dans ce cas, l’impact environnemental diminuerait de moitié pour 2 passagers et de 75% pour 4 passagers.

Louer son matériel, mais à ses voisins!

Mieux vaut louer ou prêter du matériel, plutôt que d’acheter des objets neufs. Pour une perceuse utilisée 24 fois par an en étant louée à 3 particuliers, par exemple, l’Ademe estime des réductions d’impact d’environ 60% pour chaque utilisation par rapport à une utilisation simple individuelle. Mais « la logistique peut générer des impacts négatifs évalués jusqu’à +60% par rapport à la pratique conventionnelle », avertit l’Ademe. Ainsi, avant de louer des objets, il faut faire attention à leur localisation et  ne pas les récupérer en voiture.

Lorsque l’on réemploi ou donne un objet, c’est la durée de la seconde détention du bien qui influe le plus le bilan environnemental. Par exemple, pour un lave-linge ayant une première vie de 10 ans, l’impact est réduit de 10% avec une prolongation moyenne de 3,6 ans dans son nouveau foyer. Les chiffres sont d’autant plus intéressants que l’on prolonge la vie de produits dont les impacts sont concentrés sur la phase de production. C’est notamment le cas des équipements électroniques ayant une faible consommation électrique. Pour une tablette, en prolongeant la durée d’usage de 2 à 4 ans, le bilan environnemental est ainsi amélioré de 50%.

Gare à l’effet rebond!

Pour la location de logements de courte durée entre particuliers, les conclusions sont moins évidentes. A surface équivalente, les impacts environnementaux du logement proposé par un particulier par rapport à une chambre d’hôtel dépendent notamment du mix électrique du pays d’accueil. Mais dès lors que la surface louée chez les particulier est supérieure de 25%, les impacts environnementaux sont plus élevés. Il y a aussi des effets rebonds importants. Une location moins chère peut augmenter la durée de séjour et faire voyager plus loin. En revanche, vivre en colocation longue durée permet de partager ses consommation. En vivant à quatre plutôt que seul, la réduction d’impact est d’environ 40%.

Au final, « il ressort que les pratiques de mobilité et le réemploi sont les pratiques à plus fort potentiel de réduction des impacts environnementaux », conclut l’Ademe.

Par Matthieu Combe, journaliste scientifique

En France, PME et ETI portent la R&D

En 2014, l’effort de recherche en France est resté stable et s’est a priori maintenu en 2015 aux alentours de 2,2% du PIB. En 2014, la dépense intérieure en R&D des entreprises (DIRDE) est évalué à 31,1Md€ dont les deux tiers (21,4Md€) sont le fait des petites et moyennes entreprises (PME) et des entreprises de taille intermédiaires (ETI). Les PME et les ETI emploient à elles seules les trois quarts des personnels de R&D en entreprise.

Sans surprise, 80% de la R&D relèvent du secteur de l’industrie et les trois branches les plus porteuses sont toujours l’automobile, l’aéronautique et le spatial et la pharmaceutique.

Les ETI ont fait un bel effort d’investissement

Entre 2013 et 2014, les PME ont continué d’investir intensément en R&D, leur taux d’effort (ratio investissement R&D/chiffre d’affaires) étant de l’ordre de 5% contre 2,5% pour les ETI. Mais alors que la dépense totale des PME est resté relativement stable à près de 7,5 Md€, celle des ETI a augmenté de plus de 11% atteignant les 14Md€.

Les entreprises qui exportent font plus de R&D

Les entreprises tournées vers l’international ou dans les filiales de groupes étrangers ont des dépenses plus élevées que les autres en R&D. Ainsi les ETI exportatrices dépensent 7 fois plus en R&D et emploient, en moyenne, six fois plus de personnels de R&D.  Quant aux PME exportatrices, elles présentent la particularité d’avoir un CA moyen trois fois supérieur à celui des PME qui restent sur le marché national, leur dépense en R&D est multipliée par 14 et elles emploient 11 fois plus que les autres PME en R&D. Leur effort en R&D s’élève ainsi à 17% de leur CA.

PME: les financements publics sont toujours essentiels

Pour l’ensemble des entreprises, la R&D est réalisée à 78% par autofinancement et à 22% sur des ressources externes (publiques ou en provenance d’autres entreprises). Au sein des ressources externes, le financement public compte pour 26% contre 30% pour des sources étrangères et 44% pour d’autres entreprises françaises. Cette répartition, stable dans le temps est cependant très hétérogène selon la taille des entreprises. Ainsi, pour les PME, le financement public s’élève à 40% des ressources externes. Le montant total d’aides publiques reçu par les PME en 2014 était stable à 655M€ (hors mesures fiscales d’exonérations de cotisations sociales ou crédit d’impôt recherche).

PME et ETI créent le tissu d’innovation français

En 2014, dans les 71 pôles de compétitivité présents en France, près de 9 entreprises sur 10 sont des PME. Et cette présence très forte des PME et ETI se traduit aussi dans les publications de brevets : plus des trois quarts des déposants personnes morales françaises en 2015 sont des PME/ETI. On peut noter que l’effort en R&D qui s’est accentué chez les ETI se traduit aussi dans les demandes de brevets qui sont désormais deux fois plus élevées que celles des PME. Cependant, sur les secteurs où les demandes de brevets sont les plus importantes (technologies médicales, manutention et BTP), les PME comptent pour au moins la moitié des déposants.

  • En 2014, l’effort de recherche en France est resté stable et s’est a priori maintenu en 2015 aux alentours de 2,2% du PIB. En 2014, la dépense intérieure en R&D des entreprises (DIRDE) est évalué à 31,1Md€ dont les deux tiers (21,4Md€) sont le fait des petites et moyennes entreprises (PME) et des entreprises de taille intermédiaires (ETI). Les PME et les ETI emploient à elles seules les trois quarts des personnels de R&D en entreprise. Sans surprise, 80% de la R&D relèvent du secteur de l’industrie et les trois branches les plus porteuses sont toujours l’automobile, l’aéronautique et le spatial et la pharmaceutique. Les ETI ont fait un bel effort d’investissement Entre 2013 et 2014, les PME ont continué d’investir intensément en R&D, leur taux d’effort (ratio investissement R&D/ chiffre d’affaires) étant de l’ordre de 5% contre 2,5% pour les ETI. Mais alors que la dépense totale des PME est resté relativement stable à près de 7,5 Md€, celle des ETI a augmenté de plus de 11% atteingnant les 14Md€. Les entreprises qui exportent font plus de R&D Les entreprises tournées vers l’international ou dans les filiales de groupes étrangers ont des dépenses plus élevées que les autres en R&D. Ainsi les ETI exportatrices dépensent 7 fois plus en R&D et emploient, en moyenne, six fois plus de personnels de R&D. Quant aux PME exportatrices, elles présentent la particularité d’avoir un CA moyen trois fois supérieur à celui des PME qui restent sur le marché national, leur dépense en R&D est multipliée par 14 et elles emploient 11 fois plus que les autres PME en R&D. Leur effort en R&D s’élève ainsi à 17% de leur CA. PME: les financements publics sont toujours essentiels Pour l’ensemble des entreprises, la R&D est réalisée à 78% par autofinancement et à 22% sur des ressources externes (publiques ou en provenance d’autres entreprises). Au sein des ressources externes, le fiancement public compte pour 26% contre 30% pour des sources étrangères et 44% pour d’autres entreprises françaises. Cette répartition, stable dans le temps est cependant très hétérogène selon la taille des entreprises. Ainsi, pour les PME, le financement public s’élève à 40% des ressources externes. Le montant total d’aides publiques reçu par les PME en 2014 était stable à 655M€ (hors mesures fiscales d’exonérations de cotisations sociales ou crédit d’impôt recherche). PME et ETI créent le tissu d’innovation français En 2014, dans les 71 pôles de compétitivité présents en France, près de 9 entreprises sur 10 sont des PME. Et cette présence très forte des PME et ETI se traduit aussi dans les publications de brevets: plus des trois quarts des déposants personnes morales françaises en 2015 sont des PME/ETI. On peut noter que l’effort en R&D qui s’est accuentué chez les ETI se traduit aussi dans les demandes de brevets qui sont désormais deux fois plus élevées que celles des PME. Cependant, sur les secteurs où les demandes de brevets sont les plus importantes (technologies médicales, manutention et BTP), les PME comptent pour au moins la moitié des déposants. Sophie Hoguin 3000 signes LIEN vers le rapport complet : Lien vers le rapport complet

Sophie Hoguin

Présidentielle 2017: l’urgence numérique…surtout dans les mots ?

« Nous pensons qu’il faut une logique d’état d’urgence numérique pour les 5 prochaines années […], en 2022 il sera trop tard », affirme Godefroy de Bentzamnn, président du Syntec Numérique (syndicat professionnel des entreprises de services du numérique, des éditeurs de logiciels et des sociétés de conseil en technologies).

Pour le Syntec, il est essentiel que la France ambitionne de devenir une grande nation du numérique pour ne pas rater les transformations du monde au XXIe siècle. Ainsi, le syndicat propose la nomination d’un haut commissaire à la transformation numérique, sous l’autorité du Premier ministre pour assurer une coordination tant nationale qu’européenne à tous les niveaux de la société: entreprise, Etat, citoyens. Car pour le Syntec, l’Europe est un échelon essentiel du développement du numérique et doit réussir la mise en place d’un marché unique numérique, avec la France comme locomotive.

Former et transformer

Pour parvenir à cette ambitieuse aspiration, le Syntec propose trois grands axes de travail :

  • un volet concernant un contrat de travail spécifique à la branche pour les salariés et un statut propre pour le travailleur indépendant numérique, basés sur une grande flexibilité, le retour à la notion de “mission” et en parallèle une sécurisation des parcours professionnels qui s’appuie beaucoup sur la formation.
  • La formation est pour le syndicat un pan essentiel et central de la transformation numérique de la France. Proposant un Grenelle de la formation, et la création d’un institut des Hautes Etudes de la Transformation numérique pour former les dirigeants économiques et politiques, le syndicat pense aussi qu’il faut faire monter en compétence l’ensemble des Français.
  • Parmi les secteurs dont le retard numérique lui semble particulièrement crucial, le Syntec souhaiterait que le futur Président mette l’accent sur la santé en proposant une loi de programmation sur 5 ans.

En parallèle, le Syntec Numérique avait publié début janvier, trois cahiers thématiques relatifs à l’industrie du futur, la santé et l’éducation/formation.

Des candidats plus ou moins investis

Le collectif France Numérique 2017 (créé pour faire entendre les acteurs du numérique pendant cette présidentielle – voir cet article – organisait plusieurs tables rondes le 9 mars en présence des représentants de trois des candidats. Très clairement, les propositions les plus abouties et la vision la plus globale est celle d’Emmanuel Macron dont le numérique irrigue l’ensemble du programme. Du côté de Benoît Hamon, la vision est encore parcellaire et très ancrée sur le numérique comme outil de démocratie et comme outil de transformation sociale auquel il faudra faire face et pour François Fillon, il s’agit essentiellement d’une préoccupation liée au financement de l’innovation et des start-up du secteur. Les trois candidats cependant sont à peu près d’accord sur la souveraineté qu’il faut réussir à protéger, sur la nécessité de couvrir l’ensemble du territoire en très haut débit et sur le fait que l’échelon européen est incontournable. Reste que les programmes peuvent encore évoluer, les équipes de François Fillon et Benoît Hamon sur le sujet venant juste d’être constituées.

Sophie Hoguin

Présidentielle 2017: Les besoins de la chimie pour le prochain quinquennat

Appelant de ses voeux un “véritable ministère de l’industrie et de l’énergie”, l’UIC souligne qu’actuellement “15 ministères interviennent sur les enjeux de l’industrie en France” et que cette “multiplication des interlocuteurs” est contre-productive et inefficace. Afin de bâtir une chimie française forte, les industriels de la chimie proposent de soutenir l’innovation, la simplification et la compétitivité.

Soutien à l’innovation

Cela passerait notamment par une sanctuarisation du crédit d’impôt-recherche (CIR), un soutien financier des projets innovants jusqu’à leur phase de pré-commercialisation et pas seulement lors de l’amorçage, la mise en oeuvre d’un plan “usine chimique du futur” pour accompagner le virage numérique des nombreuses PME ou encore par la développement d’une plateforme digitale de mise en relation entre les centres de ressources et les industriels.

Simplification de la réglementation

L’UIC souligne que l’industrie chimique est extrêmement réglementée (Reach, biocides, nanomatériaux, risques, etc) et qu’il serait nécessaire d’accentuer encore la simplification administrative et réglementaire, en étudiant l’impact des réglementations avant leur mise en place et en adaptant les contrôles en fonction de la maîtrise de l’industriel par exemple. Par ailleurs, les industriels proposent de créer des dynamiques de plateformes en encadrant la totalité de la zone industrielle plutôt qu’installation par installation: seuils réglementaires aux bornes des plateformes, statut “énergie intensif” à toute la plateforme, statut fiscal incitatif, démarches d’écologie industrielle et circulaire et développement des transports de fret durables.

Soutenir la compétitivité

Afin de soutenir la compétitivité des entreprises chimiques, il est proposé d’une part un volet social pour alléger les charges salariales et d’autre part un volet logistique avec des propositions pour la promotion d’une offre de fret global en France et en Europe, des garanties pour accéder à l’énergie de manière privilégiée sur le long terme. L’UIC propose notamment d’affecter une partie des recettes de la fiscalité carbone et de la vente des quotas de CO2 aux baisses de charges et aux actions d’amélioration de l’efficacité énergétique. Le thème du CO2 est particulièrement cher à l’industrie chimique qui suit de près l’évolution de la direction ETS (système d’échange européens de quotas d’émissions de CO2) et qui s’est récemment félicitée des corrections proposées par le Parlement européen pour réformer la directive ETS. Ces dernières doivent permettre d’éviter l’effondrement du prix du carbone par une meilleure régulation des quotas en circulation et de mieux protéger les industriels d’une perte de compétitivité liée à la mise en œuvre unilatérale d’un prix du carbone. Pour l’UIC, le soutien aux différentes branches de la chimie passe aussi par une réelle intégration au niveau international : tant sur le fonctionnement entre agences européennes et nationales (en évitant des initiatives franco-françaises) qu’en encourageant des accords commerciaux multilatéraux comme le CETA (accords de libre-échange entre le Canada et l’UE) dans lequel l’UIC voit “un facteur de croissance économique stimulant la production d’emploi dans les usines françaises”.

Sophie Hoguin

Les cartes bancaires VISA piratées en six secondes

Dans « Le cave se rebiffe », un film de Gilles Grangier et dialogué par Michel Audiard, sorti en 1961, il fallait investir dans de coûteuses machines et s’appuyer sur les compétences d’un graveur hors pair pour fabriquer de faux billets. Aujourd’hui, un banal ordinateur et une connexion internet suffisent pour pirater des cartes bancaires ! C’est ce qu’ont démontré des scientifiques de l’université de Newcastle, au Royaume-Uni.

Leur prouesse révèle les faiblesses de ce type de cartes. Premièrement, ils n’ont pas eu besoin de recourir à une méthode nécessitant des compétences hors pair. Ils se sont contentés de contourner le système de sécurité de paiement en ligne avec une attaque dite « par force brute ». Ils ont généré des variations de numéros de carte, de dates d’expiration et de cryptogrammes visuels sur différents sites jusqu’à obtenir un bon résultat. C’est l’une des méthodes utilisées pour trouver des mots de passe faibles (comprenant par exemple un prénom) en une poignée de secondes.

Ils ont d’autant plus facilement réussi cet exploit que les 6 premiers numéros des cartes correspondent à la banque et au type de carte. Il ne restait donc qu’à trouver les autres, y compris la date d’expiration et le cryptogramme. Par ailleurs, ces chercheurs savent, comme tout le monde, que les cartes bancaires expirent dans un délai de 60 mois maximum… Un détail d’importance, car il permet de limiter les requêtes sur une courte période.

Dernière lacune, le système de sécurité ne détecte pas toutes les tentatives frauduleuses. Il ne repère les échecs répétés sur une même carte que lorsque des opérations sont faites sur différents sites. Ce n’est pas le cas du réseau MasterCard qui est capable de détecter l’attaque en moins de 10 essais.

Pas de quoi rassurer les possesseurs d’une carte VISA. Ils pourraient être tentés de passer à la concurrence ou d’opter pour une carte bancaire prépayée pour sécuriser ses achats en ligne.

Ce n’est pas la première fois que des chercheurs démontrent le faible niveau de sécurité des cartes… VISA. Fin 2014, des Britanniques avaient prouvé qu’il était possible de détourner de l’argent à cause d’une faille dans le protocole de paiement sans contact (NFC). « Avec un simple téléphone mobile, nous avons créé un terminal de paiement qui pouvait lire une carte à travers un portefeuille. Toutes les vérifications sont effectuées sur la carte et non pas sur le terminal, donc au moment de la transaction, il n’y a rien qui puisse éveiller la suspicion » avaient-ils indiqué.

Philippe Richard

Coup de projecteur sur nos nouveautés 2017

Géomatique

Avec le développement de l’open data et des technologies du Web, la géomatique connaît un bouleversement rapide dans ses techniques de production et de diffusion mais aussi dans son économie générale. Elle est largement ouverte sur l’ensemble des secteurs économiques : aménagement du territoire, agriculture, gestion de ressources naturelles, transports, urbanisme, industrie spatiale, énergie, défense et sécurité civile, commerce et marketing… Destinée aux ingénieurs en systèmes d’information géographique, géomaticiens, ou spécialistes en aménagement du territoire, cette rubrique fait le point sur les différentes technologies de collecte et d’acquisition des données géographiques. Elle décrit également les outils informatiques pour le traitement et l’analyse des données.

>> A retrouver dans Technologies radars et applications

 

Réhabilitation et remise aux normes des bâtiments

En France, de très nombreux bâtiments ont été construits dans les années 1950 et 1960, après la guerre. Aujourd’hui, ces bâtiments connaissent l’usure du temps et des matériaux.  Il convient de décider parfois de leur démolition ou, plus souvent, de leur remise aux normes et de leur réhabilitation. En cas de litige entre les parties, une expertise peut être nécessaire. Destinée aux ingénieurs d’étude, aux ingénieurs du BTP ou encore aux architectes, cette rubrique passe en revue l’évaluation des bâtiments, l’expertise, la gestion d’un chantier de démolition et la réparation des ouvrages (acier, béton armé, mise aux normes sismiques, etc.).

>> A retrouver dans Vieillissement, pathologies et réhabilitation du bâtiment

 

Télécharger la lettre des éditeurs au format PDF

Le format ePub

Qu’est-ce que le format ePub ?

L’ePub (electronic publication) est un format standard libre et ouvert pour les livres numériques proposé par le consortium international IDPF (International Digital Publishing Forum). Un livre au format ePub est composé de plusieurs dossiers et fichiers réunis dans un conteneur qui porte l’extension .epub : il contient du texte (fichiers .XHTML), des images (fichiers .JPG, .PNG ou .SVG), des feuilles de style (fichiers .CSS) ainsi que des fichiers décrivant la structure du livre et ses métadonnées (auteur, titre, date de publication, ISBN…).

Quel est l’intérêt du format ePub ?

Le format ePub s’adapte visuellement et fonctionnellement à son support de lecture : taille de l’écran, capacités d’interaction, etc. Il peut contenir des documents multimédias (fichiers audio et vidéo), des équations mathématiques grâce au support du format MathML, des annotations, des fonctionnalités de navigation interne, des outils de recherche, des liens externes, etc.

Comment lire un ePub ?

Excepté l’Amazon Kindle, toutes les liseuses sont compatibles avec le format ePub. Diverses applications de lecture sont disponibles pour les ordinateurs personnels, les tablettes tactiles et les smartphones comme Adobe Digital Editions, Readium ou FBReader.

Consultez nos contenus accessibles au format ePub : 

La rubrique Innovations marquantes propose de découvrir à travers des articles synthétiques une sélection des innovations les plus marquantes dans le domaine de l’environnement et de l’énergie, des TIC et de l’électronique, des biotechnologies et de la santé.

L’Annuaire des nanotechnologies  recense l’ensemble des acteurs de la filière française des nanotechnologies (entreprises, organismes et associations) classés par secteur d’application, type de nanomatériaux, type de structure et localisation géographique.

 

>> Télécharger la lettre des éditeurs TI au format PDF

 

La datavisualisation arrive chez Techniques de l’Ingénieur

 

La datavisualisation, c’est quoi ? Et quel est l’objectif de cette cartographie ?

Depuis quelques années, la datavisualisation, ou dataviz, est devenue un véritable outil de communication utilisé pour mieux saisir les informations et prendre des décisions. Pour Techniques de l’Ingénieur, l’enjeu était d’expérimenter ces nouveaux outils de représentation graphique des connaissances sur nos publications : faire émerger de nouveaux concepts et permettre l’accès aux données de manière plus intuitive, interactive et transversale.

 

Comment avez-vous mis en place ce nouvel outil ?

Dans un premier temps, les éditeurs spécialistes ont étudié le corpus des ressources documentaires et ont identifié 8 grands groupes de mots-clés ou « concepts », organisés eux-mêmes en plusieurs sous-niveaux. Cette analyse sémantique a abouti à une liste hiérarchisée de près de 900 termes. Tous ces mots-clés ont ensuite été utilisés pour décrire, ou « taguer », l’ensemble des articles et des fiches publiés. En parallèle, nous avons développé une application web pour pouvoir visualiser et interagir sur ces données avec comme objectif de développer une interface la plus claire et efficace possible !

 

Comment utiliser la cartographie interactive ?

Aujourd’hui, la cartographie interactive permet de naviguer par concept, et même de croiser différents concepts, sur l’ensemble de nos articles et fiches pratiques, soit plus de 7 300 documents. Le champ de recherche permet d’accéder directement aux mots-clés utilisés ; il est possible de filtrer la liste des résultats par date ou ordre alphabétique. C’est un outil visuel d’exploration du contenu en complément des autres modes de navigation classique de notre site internet tels que le moteur de recherche ou l’accès par thématique.

 

Pour en savoir plus :

Tester la cartographie interactive

Ghislaine Chartron, une carrière au service de l’information

Quel regard portez-vous sur votre parcours ?

Mon parcours a commencé comme ingénieure au centre de documentation du CNRS, et j’ai aujourd’hui la responsabilité de la chaire d’Ingénierie documentaire au Cnam de Paris. Je pense avoir contribué à l’accompagnement et à la reconnaissance des compétences et des métiers attachés à la gestion et au management de l’information dans les organisations. Depuis le début des années 1980, le domaine n’a pas cessé d’évoluer, de se reformuler tant par les besoins exprimés, les technologies mobilisées, les services développés. L’innovation est adossée à l’ingénierie des documents, de l’information et de la gestion des connaissances depuis plusieurs décennies. La richesse des échanges et des coopérations entre entreprises et acteurs académiques est une caractéristique majeure qui a nourri mes projets tout au long de ce parcours.

Quelles sont les évolutions les plus marquantes de ces dernières années ?

Une évolution majeure concerne, de façon évidente, l’accélération des mutations technologiques qui ont affecté les modes de production, de diffusion, de circulation de l’information. Ces mutations ont induit des évolutions profondes dans les pratiques, les modes de travail. La fonction documentaire s’est de plus en plus fondue dans le système d’information général des organisations ; de nouvelles problématiques d’interopérabilité, d’échanges, d’intégration de sources hétérogènes sont devenues très importantes. Les nouvelles architectures (portails, cloud, API…) ont impacté les services et les usages. Différents paradigmes ont transformé la production, la diffusion et le partage : le web social, le web sémantique, le web des données. Concernant les acteurs, le W3C et les Gafa ont endossé un rôle déterminant en termes d’émergence de nouveaux standards, d’innovations de services. Une autre transformation concerne l’économie des contenus : la valeur s’est déplacée du côté des technologies, et la propension à payer des contenus est devenue de plus en plus faible. Ceci impacte bien entendu les acteurs dont le métier était de produire des contenus labellisés : les éditeurs, la presse, tous les acteurs des « industries culturelles ». De nouveaux modèles économiques doivent être trouvés ; l’équation n’est pas simple, et les tensions entre acteurs des contenus et acteurs des contenants ont marqué ces dernières années, dans des rapports de force assez déséquilibrés. Le comportement des usagers a, par ailleurs, évolué : continuité d’accès, expérience utilisateur, fluidité des services quel que soit le contexte d’usage. Enfin, la sacralisation du terme « données » englobant aujourd’hui tout type de contenu traduit les enjeux désormais prioritaires du traitement automatisé de ces contenus : data-mining, analytics, datavisualisation, apprentissage automatique sont à l’ordre du jour.

Quelles sont les compétences les plus recherchées chez les professionnels de l’information aujourd’hui ?

Les compétences se sont beaucoup diversifiées, l’information est devenue un enjeu transversal aux autres activités. Les fondamentaux restent cependant majeurs et fondent l’identité des professionnels de l’information : traitement intellectuel des documents (synthèse, indexation, analyse des besoins des usagers, recherche qualitative, conception des services), compétences doublées d’une solide culture technique qui doit être sans cesse actualisée. Les compétences liées à la GED-archivage numérique sont une priorité pour les entreprises. La valorisation en ligne de contenus locaux et du patrimoine numérique ouvre de nouvelles opportunités. Le secteur de la veille, de la surveillance des environnements, de l’intelligence stratégique s’ancre aussi profondément aux métiers de l’information. Le virage est important : le professionnel de l’information doit savoir gérer qualitativement et quantitativement des données, comprendre les statistiques et les algorithmes d’analyse, donner du sens à ces traitements automatisés pour les usagers, les métiers et les décisionnaires.

>> Accéder à la rubrique Documents Numériques

>> Télécharger la lettre des éditeurs au format PDF

 

DŽpartement "Culture, Information, Technique et SociŽtŽ" de l'Ecole "Management et SociŽtŽ": Portrait de Ghislaine Chartron, professeur, Chaire d'IngŽnierie documentaire
Ghislaine Chartron

Titulaire de la chaire d’ingénierie documentaire au Cnam, conseillère éditoriale de Documents Numériques

L’article de référence le plus téléchargé du mois

 

ADSORPTION – ASPECTS THEORIQUES  (Réf. J2730)

Résumé : L’adsorption est une technique de séparation de molécules d’un gaz ou d’un liquide par attraction sur un solide poreux. C’est un phénomène de surface qui fait intervenir des interactions physiques et chimiques. La rétention des molécules a lieu essentiellement sur la surface interne de l’adsorbant. Cette technique est utilisée pour la séparation et la purification de molécules dans des domaines très variés : la pétrochimie, l’agroalimentaire, le traitement des effluents … Cet article présente les bases théoriques de l’adsorption pour le Génie des Procédés : les matériaux utilisés, les équilibres en jeu, les mécanismes de transferts et les comportements dynamiques d’un lit fixe d’adsorbant.

Les auteurs : 

  • Lian-Ming SUN : Directeur technique Ligne de Produits Standard Plants Air liquide Global E&C Solutions France SA, Champigny-sur-Marne, France
  • Francis MEUNIER : Professeur émérite au Conservatoire national des arts et métiers – Directeur honoraire de l’IFFI (Institut Français du Froid Industriel), Paris, France
  • Nicolas BRODU : Maître de Conférences, Université de Rouen-Normandie/INSA-Rouen, Laboratoire de Sécurité des Procédés Chimiques (LSPC), Saint-Étienne-du-Rouvray, France
  • Marie-Hélène MANERO : Docteur-ingénieur – Professeur des Universités IUT A – Université Paul Sabatier Laboratoire de génie chimique, Université de Toulouse, CNRS, INPT, Toulouse, France

>> Découvrir l’article

>> Télécharger la lettre des éditeurs au format PDF

Le Kenya abrite le plus grand parc éolien d’Afrique

Google dans le coup

L’annonce de Vestas intervient en avance sur le planning et ce, alors que la compagnie a perdu 5 semaines en raison, cela ne s’invente pas, de vents trop forts. Dans la zone du Great Rift Valley, les courants d’air rapides venus de l’océan Indien s’engouffrent dans un corridor où la compagnie danoise a installé ses turbines de type 850kW V52. Le projet « Lac Turkana a été un grand défi en raison de tous les facteurs supplémentaires liés à un projet de cette taille et à cet emplacement, et je suis donc extrêmement fier que nous ayons installé les 365 turbines en moins d’un an », a déclare Pierre Pretorius, directeur de projet de Vestas, à nos confrère de Recharge. Le parc éolien devrait être connecté au réseau en juin grâce à une ligne haute tension de 400 kV qui courra sur 438 kilomètres.

La turbine V52 (rotor d’un diamètre de 52m, pour des vitesses comprises entre 3 et 25 m/s) appartient aux modèles de l’ancienne génération remis à jour par le constructeur grâce à l’ajout de nouvelles technologies telles que les pâles pivotantes à haute-efficacité (effort sur l’aérodynamisme et surtout les matériaux composites), les systèmes de ventilation, et un générateur qui s’adapte plus rapidement au rotor. Ce projet d’un coût de 700 millions de dollars a été financé presqu’intégralement grâce à la Banque africaine de développement. A noter que fin 2015, Google a pris une participation de 12,5% dans le projet pour 40 millions de dollars post-mise en route.

Le Kenya sur la bonne voie

Parler d’énergie en Afrique, c’est d’abord rappeler un fait : deux tiers des Africains n’ont pas accès à l’électricité. C’est un chiffre qui tend lentement à s’élever en raison dans le même temps de l’augmentation rapide de la population et qui impose à court terme d’autres priorités que le mix électrique. De fait, une part du projet Lac Turkana prévoit d’utiliser l’électricité générée pour alimenter hors-réseau les communautés alentours. L’électrification est un sujet majeur de l’Afrique et les énergies renouvelables, de par leur caractère décentralisé, est une des solutions pour fournir à des populations isolées ce bien de première nécessité. La Banque mondiale estimait en 2016 que le Kenya faisait partie des pays qui avaient adoptées des mesures favorables à l’électrification et aux énergies renouvelables. Mais comme souvent, les financements font défaut. L’initiative africaine pour les énergies vertes (AREI), dont Jean-Louis Borloo a participé à la création (il s’en est retiré depuis), estimait que les besoins de l’Afrique s’élevaient environ à 4 milliards d’euros par an pendant une quinzaine d’années, soit 60 Mds €.

Romain Chicheportiche

L’informatique quantique à portée de clics ?

Lundi 6 mars, IBM annonçait sa volonté de commercialiser un ordinateur quantique de 50qubits dans les prochaines années… En quelques heures l’annonce avait fait le tour du monde. En réalité, la firme américaine ne commercialiserait pas un ordinateur quantique, mais seulement les services de cet ordinateur, l’IBM Q, via une plateforme en ligne. L’offre n’en est pas moins intéressante. En attendant, IBM a déjà lancé l’année dernière sa plateforme « Quantum experience » dédiée aux développeurs et programmeurs qui peuvent tester des requêtes ou des algorithmes quantiques sur une base de 5qubit. Un beau succès puisque IBM évalue à 40 000 le nombre d’utilisateurs qui auraient soumis 275000 requêtes. Et l’Américain annonce pour cette année le passage à une nouvelle interface et un kit de simulation de 20qubits. Une offre que le Français ATOS a lui aussi annoncé pour 2017 avec notamment l’ouverture d’une plateforme de simulation de 40qubits. Le Français d’ailleurs espère lui aussi pouvoir commercialiser un ordinateur quantique dans les années qui viennent. Mais, attention, pour IBM, comme pour ATOS, il ne s’agit pas d’intervenir sur le marché de la cellule quantique (équivalent de la puce de nos ordinateurs), mais vers l’intégration, le développement de logiciels, de systèmes de réseaux etc. Pour ce qui est de la partie physique, il faut se tourner pour l’instant vers les acteurs de la recherche, encore très fondamentale, mais dont les publications viennent régulièrement alimenter le fantasme de l’avènement d’un réel ordinateur quantique universel…

Le premier ordinateur (hangar) quantique dans deux ans ?

Dans un article paru dans Science Advances de février, des chercheurs de Ion Quantum Technology de l’université du Sussex (Royaume-Uni) détaillent les plans de construction d’un ordinateur quantique universel à grande échelle. Ils espèrent avoir construit leur prototype d’ici deux ans (à condition de trouver les fonds, de l’ordre de 120 millions d’euros). Leur ordinateur ferait la modeste taille d’un bâtiment (100 fois 100 m2) mais serait capable de décrypter le chiffrement 1024 bits en une dizaine de jours et du 2048 bits en 110 jours abaissable à 10 jours si le taux d’erreur était encore diminué. Les technologies et les matériaux proposés pour construire cet ordinateur sont aujourd’hui disponibles. L’originalité du travail de cette équipe réside dans l’utilisation de l’électricité et d’un champ de micro-ondes constituant un “piège ionique” pour manipuler les ions en lieu et place des lasers couramment utilisés actuellement. Sachant qu’il faut autant de lasers que d’opérations à faire, le passage à une puce de quelques millimètres carrées activables par des tensions électriques est un grand pas en avant. Cette nouvelle technologie, mise au point par des chercheurs britanniques en collaboration avec des chercheurs israéliens avait été décrite en détail dans un article de Physical Rewiew Letters en novembre 2016, et disponible sur ArXiv.

Les avancées des calculateurs quantiques

Plusieurs solutions de calculs ont vu le jour ces dernières années, utilisant en partie des phénomènes quantiques. Le plus célèbre est l’ordinateur canadien D-Wawe dont la troisième version vient de sortir. Le D-Wawe 2000Q (pour 2000qubits), vendu pour 15 millions de dollars à Temporal Defense Systems, une entreprise de cybersécurité, est annoncé comme étant 1000 fois plus rapide que son prédécesseur le D-Wawe2X sorti en 2015. Mais les performances de ces ordinateurs sont sujettes à débat et surtout la technologie utilisée ne constitue pas un réel ordinateur quantique universel, c’est-à-dire capable de résoudre n’importe quel problème. Ce sont en fait des supercalculateurs dédiés à un type de tâche, généralement des algorithmes d’optimisation. Sur ce créneau, deux équipes, l’une japonaise et l’autre américaine avaient présenté dans le numéro de Science du 20 octobre 2016 des machines capables de résoudre des problèmes de physique statistique basés sur le modèle d’Ising. Leurs machines sont des hybrides alliant une partie quantique appliquée à des photons et une partie microprocesseurs classiques.

Par Sophie Hoguin

Le cyber-espionnage ciblé façon CIA

Les éditeurs de 1984, le célèbre roman de George Orwell publié en 1949, peuvent remercier Donald Trump et maintenant… WikiLeaks. Depuis l’élection du premier et les dernières publications du site de Julien Assange, les ventes de ce livre s’envolent ! Fin janvier, l’éditeur américain Penguin a dû réimprimer en urgence environ 75 000 copies du livre.

Pourquoi un tel intérêt pour cet ouvrage sur Big Brother ? Mis en ligne par WikiLeaks le 7 mars, le dossier « Vault 7 » confirme la puissance de la Central Intelligence Agency (CIA). Big Brother n’appartient plus à la science-fiction. Ce dossier, comprenant 8 761 documents datés de 2013 à 2016, détaille certains programmes d’espionnage électronique de l’agence. Ils permettent de pirater « des serveurs informatiques, des ordinateurs, des smartphones et même des téléviseurs, qui peuvent être transformés en micros dissimulés » avertit le quotidien USA Today.

Tout peut être piraté et donc espionné par l’armée des ombres de la CIA. Selon WikiLeaks, son service de piratage compterait environ 5 000 membres. Mais contrairement aux programmes secrets d’espionnage de masse de la National Security Agency (NSA), ceux de la CIA (avec la complicité du MI5, son équivalent britannique) semblent se concentrer sur l’espionnage ciblé.

Par exemple, les téléviseurs connectés de la marque Samsung peuvent être infiltrés par un code malveillant nommé « Weeping Angel ». Fonctionnant quand l’écran est, en apparence, éteint, il peut enregistrer le son environnant et le transmettre à un serveur.  L’agence a aussi développé des logiciels-espions destinés à l’iOS d’Apple et à Android de Google. Seul bémol, l’installation du programme malveillant nécessiterait d’avoir un accès physique au téléphone, et de pouvoir le connecter à un Mac. Pas vraiment un obstacle pour la CIA.

La lecture des documents indique que le contournement des antivirus et l’accès à un ordinateur non raccordé à un réseau informatique ne sont pas non plus des défis insurmontables. Différents chercheurs ont montré comment procéder et il y a quelques années, un concours de hackers en France avait démontré qu’il était possible de désactiver des antivirus très connus en quelques minutes !

Sans surprise, la CIA a publié un communiqué dans lequel elle décline tout commentaire sur les « prétendus documents ». Elle précise n’être pas en mesure, à ce stade, de certifier l’authenticité des documents ni de savoir « si les outils décrits ont été utilisés aux États-Unis – ou même utilisés tout court ». Microsoft et Google ont rapidement fait savoir qu’ils se pencheraient sur le rapport. De son côté, Apple a précisé que de « nombreuses » failles ont été corrigées et que ses appareils sont parfaitement sécurisés aujourd’hui…

Dans ce contexte, de nombreuses personnes pourraient se tourner vers Qubes, un système d’exploitation sécurisé…

Par Philippe Richard

Risques : la norme volontaire ISO 31000 entre en enquête publique

À l’heure où l’actualité bat son plein sur les responsabilités des organisations en termes de risques, l’ISO 31000 débarque sur le devant de la scène avec un projet de norme mis à jour, et qui entre aujourd’hui en enquête publique.

Les prémices d’une révision ont été évoquées dès 2013, mais c’est à Paris en mars 2015 que la décision d’actualiser le texte a été prise. Ce chantier a impliqué plus de soixante pays dont la France. Quels changements apporter en priorité ? Quels retours « utilisateurs » prendre en compte ? Pour répondre à ces questions, les experts internationaux ont étudié plus de 1330 observations exprimées par les organisations utilisatrices sur la dernière version du projet (CD3).

Plus courte et plus précise

Plus de détails et d’exemples précis, moins de jargon, des concepts simplifiés et facilement applicables… Voici quelques-unes des améliorations vers lesquelles devrait tendre une ISO 31000 réécrite, d’après les remarques collectées en amont de l’enquête publique.

« Près de deux ans de travail ont été nécessaires pour livrer un projet de norme révisé », souligne Rodolphe Civet, chef de projet chez AFNOR Normalisation. Terminologie, processus, principes et annexes, l’ensemble du contenu de la norme a été revu pour le rendre plus simple et plus concret ». Et cela, au regard notamment des normes de management et de gouvernance intégrant « l’approche risque » et soulignant la finalité du management des risques : l’aide à la décision et l’atteinte des objectifs (qualité, environnementaux, devoir de vigilance, etc…)

Au final, le projet de norme fait place à l’essentiel. Ainsi, le chapitre des termes et des définitions est réduit aux concepts fondamentaux, des exemples propres à certains utilisateurs comme les multinationales sont ajoutés et des détails ainsi que des recommandations sur la conduite des processus sont intégrés.

« Ce travail de révision a été complexe. Il fallait répondre à certains besoins parfois sectoriels des utilisateurs tout en ne perdant pas de vue que cette norme doit s’adresser à tous les types d’organisations », se félicite Rodolphe Civet.

Mais ces nouvelles orientations demandent à être confirmées. C’est ainsi que depuis le 22 février 2016, le projet de norme est à l’enquête publique. Tout un chacun est invité à découvrir ce projet et à le commenter, gratuitement et en ligne. Si vous êtes un fervent utilisateur de ce texte phare, c’est le moment ou jamais ! Gardons à l’esprit que les normes volontaires ne « tombent pas d’en haut », elles sont faites par et pour les acteurs économiques.

Une nouvelle ISO 31000 pour 2018

La commission de normalisation AFNOR « management des risques » se réunira en avril prochain pour étudier les commentaires recueillis. « Les membres de la commission prépareront également la prochaine réunion internationale qui se tiendra du 10 au 14 juillet2017 à San Francisco afin d’établir une version finale de la norme, dont la publication est attendue pour 2018 », conclut Rodolphe Civet.

Source : afnor

Tout savoir sur les brevets français en un clic

Issu d’un projet conjoint entre l’Institut national de la propriété intellectuelle (INPI) et le ministère de l’éducation nationale, de l’enseignement supérieur et de la recherche, cet atlas des brevets a pour objectif principal de « contribuer à la compréhension de l’activité de recherche et d’innovation en France au travers d’une analyse territoriale du nombre de brevets ». L’atlas répond aussi au besoin grandissant de demande d’information de différents décideurs politiques et économiques.

En parallèle de la mise en ligne de données brutes en open data, il présente l’avantage de mettre à disposition de l’utilisateur final des informations prêtes à l’emploi.

Interactif et tous supports

Prévu pour s’adapter à tous les supports internet (mobile, tablette, ordinateurs), cet atlas a été construit à partir de données retraitées, fiables et historisées sur la période 2003-2015 et comprend les demandes de brevets issus de la voie nationale ou européenne. Il inclut des nomenclatures-clés de la technologie et répond à des questions simples : Où ? Quoi ? Qui ? Combien ? Les graphiques et les cartes proposés sont interactifs (on peut en changer certains paramètres comme le choix du secteur privé ou public, l’origine française ou européenne etc. d’un clic). Une actualisation est prévue tous les ans et une version papier sous la forme d’une publication brochée doit être éditée plus tard dans l’année. Elle devrait intégrer quelques enrichissements.

Sophie Hoguin

Recréer des surfaces superhydrophobes et antibuée en s’inspirant de la nature

Une goutte d’eau posée sur une surface couverte de microrugosités hydrophobes devient extrêmement mobile. À l’image d’un fakir qui ne touche que les pointes de son tapis de clous, le liquide ne repose alors que sur les sommets des rugosités. L’eau est donc principalement sur coussin d’air, ce qui la rend ultra-mobile. De nombreuses espèces de plantes ont de telles propriétés superhydrophobes. Ces surfaces sont autonettoyantes puisque les gouttes qui les dévalent emportent avec elles poussières et salissures.

Les surfaces animales ne sont pas en reste : qu’il s’agisse de la faible réflectance des yeux des papillons de nuit, de la carapace oléophobe des collemboles ou encore des pattes ultra-adhésives des cafards, les nano-textures qui recouvrent les corps de certains insectes leur confèrent des propriétés étonnantes, essentielles à leur survie.

Ainsi, on a suggéré que les yeux des moustiques et les ailes des cigales pourraient avoir des propriétés anti-buée, ce à quoi Timothée Mouterde et ses collaborateurs se sont intéressés. Ces recherches ont nécessité l’utilisation de surfaces modèles, conçues pour imiter les surfaces existant dans la nature, afin 2/3 d’étudier l’importance que revêtent la taille et la forme des nano-structures dans les propriétés antibuée.

Il s’avère que la plupart des surfaces superhydrophobes de rugosités micromé- triques, exposées à la buée ou à une atmosphère humide, cessent de repousser l’eau. Les gouttes de buée apparaissent et se développent dans les anfractuosités de la structure, mettant à mal son caractère anti-eau. Des gouttes posées sur une surface ainsi infusée d’eau y adhèrent fortement : la surface adopte alors un comportement hydrophile. Les chercheurs ont ensuite réduit les structures à une taille dix fois inférieure au micromètre. Ils ont ainsi montré et quantifié le fait qu’en réduisant l’échelle des rugosités, l’adhésion des gouttes due à la buée diminuait aussi, à cause du compartimentage très fin de l’eau alors engendré.

Les ailes de cigale permettent d’aller plus loin encore. Elles sont couvertes de cônes nanométriques jointifs, et leur caractère antibuée est spectaculaire puisque deux gouttes de buée qui fusionnent parviennent alors à s’éjecter de la surface. En s’inspirant de cet exemple naturel, Timothée Mouterde et ses collaborateurs ont montré que la forme conique des structures est primordiale et permet d’obtenir l’éjection de la quasi-totalité des gouttes de buée et ce, même pour des gouttes de taille micrométrique : certes, de la buée se forme, mais elle s’auto-expulse en même temps qu’elle se forme.

Dans cette étude, les chercheurs se sont donc inspirés de la nature afin d’observer comment les propriétés antibuée apparaissent quand on réduit la taille des textures, et comment elles se trouvent considérablement amplifiées par un changement de forme. L’utilisation de nano-cônes jointifs permet de rediriger la buée vers le haut de la surface et de dé-piéger l’eau, même à très petite échelle. Ces recherches donnent lieu à un grand nombre d’applications : Thales qui co-porte le projet, y trouve ainsi un intérêt pour la réalisation de fenêtres optiques hydrophobes, antireflet et antibuée.

Diplômé de l’École polytechnique, Timothée Mouterde a rejoint
le Laboratoire d’hydrodynamique (École polytechnique / CNRS)
en 2013. Il y réalise depuis son doctorat, soutenu par la Direction
générale de l’armement et Thales. Ses recherches portent sur les nanotextures bifonctions antireflets superhydrophobes et l’influence de la réduction d’échelle sur les effets superhydrophobes, sous la direction de David Quéré et Christophe Clanet, directeurs de recherche du CNRS.

Source : cnrs

Présidentielle: des candidats timides sur l’agriculture

À l’instar des années précédentes, 2017 s’annonce sous de mauvais hospices pour les agriculteurs. Avec une retraite moyenne de 831€ et un salaire horaire à 12,31€, le secteur ne s’en sort plus. Après le 54ème Salon de l’Agriculture, les agriculteurs n’ont globalement pas été conquis par les candidats à la présidentielle. « Si demain nous voulons des campagnes vivantes, des paysages diversifiés, une alimentation de qualité, il n’y a pas d’autres solutions que de maintenir des agriculteurs nombreux sur les territoires » avertit Jérémy Decerle, président du syndicat Jeunes Agriculteurs.

« Pas un candidat n’est venu nous dire : « Voilà ma vision pour l’agriculture, la production, l’exportation, la fiscalité« . Les agriculteurs ont envie de vivre de leur métier et la question des revenus n’a pas été abordée » regrette le président du Salon, . Un mécontentement partagé par Ségolène Royal. La ministre de l’Environnement a souhaité rappeler aux candidats que « la question agricole doit être intégrée à la question globale de la société, parce que l’alimentation, c’est un sujet crucial ».

Des produits plus accessibles et plus bio

Les candidats à la présidentielle ont tout de même fait des propositions discrètes au monde agricole. Marine Le Pen, Emmanuel Macron, François Fillon et Benoît Hamon se rejoignent sur l’idée qu’il faudrait alléger les charges et redéfinir les prix. « Il faudrait renégocier les prix de vente avec la grande distribution » suggérait Hamon au Salon de l’Agriculture. « Les prix agricoles sont la clé de voûte de la rémunération du travail paysan, rappelle Jean-Luc Mélenchon, dans des marchés dérégulés, la majorité des paysans ne vivront jamais dignement de leur métier ». Pour y remédier, Marine Le Pen propose par exemple une TVA incitative à 0% sur les produits bio pour attirer les consommateurs.

Macron, Mélenchon et Hamon prévoient d’aider et de récompenser financièrement les exploitations qui se convertiraient au bio. Avec des programmes d’investissements de 5 milliards d’euros sur le quinquennat, Hamon et Macron comptent investir dans une agriculture plus propre. Le candidat PS compte poursuivre le travail de Stéphane Le Foll, actuel ministre de l’agriculture, sur « l’agro-écologie ». Ils projettent aussi d’aider les jeunes à s’installer notamment grâce à des prêts plus accessibles et des exonérations de charges. Benoît Hamon souhaite par ailleurs développer les circuits courts, tout comme François Fillon.

Les perturbateurs endocriniens se sont également invités dans le débat. Alors que l’Union européenne peine à définir clairement leur nature, Benoît Hamon et Jean-Luc Mélenchon veulent voir leur part diminuée. Ils souhaitent aussi limiter les pesticides et interdire les OGM. Marine Le Pen les rejoint sur ce dernier point. A l’inverse, François Fillon ne souhaite pas lutter contre les OGM et envisagerait de « supprimer le principe de précaution de la Constitution ».

L’agriculture chahutée entre Union européenne et patriotisme

Malgré les 9,1 milliards d’euros versés l’an dernier aux agriculteurs français, la PAC fait grincer des dents. Marine Le Pen souhaite passer de la Politique Agricole Commune à la Politique Agricole Française (PAF). « On a toujours mieux commercé quand il y n’avait pas l’Union européenne » pense-t-elle. Son idée est d’opter pour le « patriotisme économique et la francisation des aides ». Enfin, la candidate du Front National veut interdire toute importation de produits étrangers qui ne répondraient pas aux normes françaises, dans une logique protectionniste.

Le repli souhaité par Marine Le Pen fait réagir jusqu’à Bruxelles. Le commissaire européen à l’Agriculture, Phil Hogan, a dénoncé cette idée comme étant « mauvaise ».  Pour lui, la candidate frontiste « adopte la position britannique de faire peur aux agriculteurs et de leur faire croire que tout ira bien si on se débarrasse de l’Europe ». Il rappelle les difficultés auxquelles seront confrontés les agriculteurs britanniques après 2020. Suite au Brexit, ils ne toucheront plus d’aides de la PAC à cette date. Néanmoins, Hogan affirme que l’Europe doit réformer et simplifier la PAC.

En affirmant vouloir que « le budget de la PAC soit préservé, mais que son fonctionnement soit rénové », Emmanuel Macron se place sur la même ligne que Phil Hogan. François Fillon surenchérit en disant que « l’agriculture est une priorité nationale et européenne ». Pour Benoît Hamon, il n’est pas question d’abandonner la PAC, mais simplement de la rendre plus « verte ». Du côté des agriculteurs, se passer de l’Union européenne semble difficile. « Au niveau agricole, malheureusement, l’Europe on en a besoin », ont répondu deux producteurs à Marine Le Pen.

Par Matthieu Combe, journaliste scientifique

Les entreprises misent sur l’IA pour doper leurs ventes

Popularisée depuis quelques années par des applications grand public de reconnaissance vocale dans les smartphones, l’IA est en train de bouleverser les méthodes de travail et les services « métiers » des entreprises. La norme ISO 2382-28 définit l’intelligence artificielle comme la « capacité d’une unité fonctionnelle à exécuter des fonctions généralement associées à l’intelligence humaine, telles que le raisonnement et l’apprentissage ». Pour les professionnels, l’IA c’est un peu le Graal de l’analyse de données. Selon le cabinet Gartner, elle sera embarquée dans 50 % des applications analytiques d’ici trois à cinq ans.

Cette intégration massive de l’IA s’explique par le fait qu’elle génère déjà de nombreux bénéfices pour les entreprises. Dans la santé, Watson d’IBM est utilisé pour étudier à la loupe toutes les publications scientifiques ayant trait à un domaine particulier de recherche. Cette recherche très fine permet de repérer de nouvelles propriétés.

Plus étonnant, une société à Hong Kong, Deep knowledge venture (DKV), spécialisée dans le capital-risque, possède par exemple une intelligence artificielle à son conseil d’administration. Nommée Vital (Validating Investment Tool for Advancing Life sciences), elle fait des recommandations en matière d’investissement et dispose également un droit de vote !

Plus forts que les experts !

En matière de sécurité informatique, l’IA pourrait seconder les experts dans la détection des fraudes. Des développements sont en cours pour créer des algorithmes qui identifieront les menaces que les cerveaux humains et les mécanismes de protection traditionnels échouent à reconnaître. « Nous nous dirigeons vers des systèmes plus autonomes et plus réactifs qui sont capables de se protéger face aux attaques. Mais cela reste encore compliqué. L’intelligence artificielle (sur laquelle j’ai fait ma thèse) est l’une des pistes envisagées pour mieux traiter un certain nombre de menaces », explique Hervé Debar, Directeur du département RST à Télécom SudParis.

Autant d’usages reposant sur le « machine learning ».  Il s’agit d’un ensemble de méthodes permettant à une machine (au sens large) d’apprendre à réaliser des tâches sans avoir été programmée explicitement pour cela. La machine utilise des algorithmes génériques applicables à une multitude d’opérations. Elle agit de manière autonome, est capable de comprendre et d’appliquer des algorithmes pour automatiser des process. En mixant notamment des données « chaudes » (provenant des objets connectés) et d’autres dites « froides » (typiquement des référentiels enrichissant les informations), le « machine learning » peut réaliser les analyses avancées.

La responsabilité des « bots »

Cette capacité d’auto-apprentissage des machines, ou des chatbots (assistants virtuels), permet d’apporter des réponses plus efficaces, plus fiables et plus personnalisées. Les entreprises bénéficient par exemple d’une meilleure connaissance client. Elles peuvent aussi s’appuyer sur des moteurs de recommandation de produits pour personnaliser leurs offres sur des critères beaucoup plus élaborés que les historiques d’achats.

Cependant, les « bots » posent des questions éthiques, relatives notamment à leur statut juridique, à leur responsabilité, à la sécurité de leur fonctionnement ou à la pertinence des choix qu’ils effectuent.

Philippe Richard

Des matériaux autoréparables pour l’aéronautique prêts dans 5 ans ?

Le projet européen Hipocrates, qui s’est achevé fin 2016, a réalisé un pas supplémentaire vers l’utilisation de composites autoréparables à base d’époxy. Les chercheurs du consortium, porté par l’institut Tecnalia à St Sébastien en Espagne, ont choisi ce type de résine pour leurs tests car elles sont largement utilisées dans l’industrie aéronautique et permettraient donc une incorporation facile de matériaux autoréparables dans la production. L’enjeu pour ce secteur est important car il permettrait d’augmenter la durée de vie des composants et de diminuer très nettement les coûts de maintenance.

Les trois grandes voies de matériaux autoréparables

Pour mettre au point ses produits, le projet Hipocrates s’est appuyé sur les recherches déjà existantes en matière de matériaux autoréparables. Faisant l’objet d’une intense recherche depuis le début des années 2000, on dénombre trois grands types de polymères autoréparables: ceux qui s’appuient sur la structure moléculaire du matériau et sur la réversibilité des liaisons supramoléculaires (voir ce document pour en savoir plus), ceux qui utilisent des microcapsules contenant les substances nécessaires à la réparation et ceux, qui s’inspirent de la deuxième en intégrant dans le matériau des microcanaux stockant le matériel nécessaire à la réparation. Le contenu des microcapsules ou des microcanaux est libéré au moment du choc et c’est donc le choc lui-même qui initie la réparation, alors que pour le premier type, il est nécessaire d’initier la réaction par un stimulus supplémentaire (chaleur, rayonnement ou induction électrique).

Des résultats encourageants

Le projets Hipocrates a testé des matériaux utilisant la méthode des microcapsules et celle des liaisons supramoléculaires. Pour le premier type de matériau, les microcapsules intégraient à la fois les agents de réparation et le catalyseur ; pour le deuxième type, Hipocrates a synthétisé deux polymères différents compatibles avec des résines époxy. Les matériaux fabriqués ont été testés sur des démonstrateurs reproduisant les impacts à grande vitesse subis par les avions. Ils ont ensuite été soumis à des forces de compression pour voir s’ils montraient des signes de délaminage ou de rupture et ont été analysés par ultrasons pour étudier plus précisément les dégâts dans la structure du matériau. Il en est ressorti que le matériau intégrant des microcapsules présentait une meilleure protection contre l’impact initial, mais que tous les matériaux testés, après réparation, montraient une élévation de 5 à 10% de la résistance aux forces de compression. Les matériaux s’avèrent donc plus résistants aux impacts après réparation qu’avant. D’autres tests sont prévus, et l’équipe espère que ce type de matériaux pourra intégrer le secteur aéronautique dans les cinq ans.

Sophie Hoguin

Stockage de l’énergie: l’avènement des batteries à flux organique non toxiques

Les intenses recherches actuelles pour trouver des moyens rentables de stocker l’énergie des sources renouvelables intermittentes comme le solaire et l’éolien commencent à porter leurs fruits. Ce qui devrait permettre à court terme de rendre ces énergies compétitives, fiables et diffusables plus facilement dans le monde entier.

Se passer de solvant corrosif

Plusieurs obstacles subsistent pour stocker de manière rentable et efficace l’énergie sur des réseaux, c’est-à-dire là où il n’y a pas de contrainte d’espace comme c’est le cas sur une voiture ou un téléphone portable. Les solutions proposées aujourd’hui sont des grands réservoirs externes stockant des électrolytes, généralement métalliques ou organométalliques dans des solvants extrêmement acides. Ce qui pose des problèmes de coûts et de sécurité : les matériaux et composants sont très techniques et donc chers, leur durablité n’est pas toujours garantie car ils doivent résister à une extême acidité et ils présentent des dangers pour l’homme et l’environnement lors de la manipulation ou en cas de fuite. Les scientifiques cherchent donc des composés hydrosolubles pour pouvoir utiliser un solvant aqueux à pH neutre ou quasi-neutre. C’est ce qu’ont réussi la start-up rennaise Kemwatt et une équipe de l’université de Harvard.

Un prototype de 10kW

Kemwatt présentait son prototype industriel de batterie à flux organique en septembre 2016. Annonçant qu’il avait réussi à mettre au point un système basé sur une solvant aqueux à pH très légèrement alcalin et des électrolytes organiques tels que les quinones, donc biodégradables. Son prototype d’une capacité de stockage de 10kwh est en cours de tests avec différents partenaires. Kemwatt espère mettre au point le produit final dans les mois qui viennent pour pouvoir initier les ventes le plus tôt possible.

L’utilisation de molécules organiques comme les quinones avait été révélé en 2014 par une équipe de Harvard dont le laboratoire vient de présenter une autre solution dans un article publié dans l’ACS Energy Letters début février.

Rendre soluble le ferrocène

Avec, eux aussi, plusieurs demandes de brevets à la clé, les scientifiques de l’université de Harvard ont réussi à modifier les structures de deux électrolytes courants pour les rendre efficaces et solubles dans l’eau. D’une part, ils ont amélioré la durabilité du violagène, composé organique hydrosoluble mais qui se dégrade rapidement et d’autre part ils ont réussi à rendre le ferrocène hydrosoluble alors qu’il était jusqu’ici utilisé avec des solvants inflammables.

Au final, ils annoncent que leur batterie est non toxique mais aussi de très longue durée: elle perdrait 1% de sa capacité de stockage tous les 1000 cycles de charge/décharge. Ce qui, en utilisation classique sur un réseau électrique, pourrait la faire durer 10 ans. Les chercheurs travaillent désormais avec plusieurs entreprises pour mettre au point des prototypes industriels.

Sophie Hoguin