Les ENR couvrent 22,7% de la consommation française

La PPE prévoyait un parc renouvelable d’une puissance globale de 51,7 gigawatts (GW) fin 2018. Selon le Panorama de l’électricité renouvelable en 2018 élaboré, entre autres, par RTE et le Syndicat des énergies renouvelables (SER), le parc atteint 51,17 GW au 31 décembre. Au cours de l’année, 2 494 mégawatts  (MW) d’énergies renouvelables ont été raccordés au réseau électrique.

En 2018, la production d’électricité d’origine renouvelable atteint 108,7 térawattheures (TWh). Soit une augmentation de 21,9% par rapport à 2017. Au bout du compte, les énergies renouvelables ont couvert 22,7 % de la consommation électrique de l’année, contre 18,5 % en 2017. Dans le détail, l’hydraulique couvre 13,1 % de cette consommation, l’éolien 5,8 %, le solaire 2,1 % et les bioénergies 1,6 %. L’année est bonne dans toutes les filières : la production éolienne est en hausse de 15,3 %, celle du solaire de 11,3 % et celle de l’hydraulique de 30 %. En particulier, « les conditions hydrologiques favorables de l’année 2018 ont permis une plus forte production hydraulique, qui renoue avec le niveau observé au cours de l’année 2014 », note le rapport.

Un parc renouvelable de plus en plus puissant

Fin 2018, le parc hydroélectrique atteint 25,5 GW, l’éolien 15,1 GW, le solaire 8,5 GW et les bioénergies 2 GW. Les nouveaux raccordements ont été importants. Si le parc hydroélectrique est resté stable, l’éolien a gagné 1 559 MW. C’est la deuxième meilleure année pour la filière, après le record historique de 2017 à 1 788 MW. L’objectif de la PPE 2018 pour l’éolien est ainsi dépassé de 108 MW.

Côté solaire le taux de raccordement reste stable, avec 873 MW de raccordés, contre 881 MW en 2017. La hausse n’est cependant pas assez importante pour atteindre l’objectif de la PPE. Celui-ci est atteint à seulement 84 % : il était fixé à 10,2 GW. Il faudra renouer avec des niveaux de développements plus importants pour espérer atteindre les objectifs de la PPE 2023 : un parc solaire compris entre 18 et 21 GW.

Quelques filières restent à la traîne. Une seule éolienne flottante de 2 MW est installée en mer, alors que l’objectif de la PPE était d’atteindre 500 MW fin 2018. Trois gigawatts sont toutefois bien en projet, en vue d’atteindre l’objectif bas de la PPE 2023. La méthanisation électrique peine également à se développer, ainsi que la production d’électricité à partir de biogaz issu de décharge ou de station d’épuration. Les opérateurs valorisent plutôt le biogaz et le biométhane sous forme de chaleur ou dans les transports.

Les MOFs se mettent aussi au froid

L’adsorption et la libération d’eau par des solides nanoporeux constitue un moyen de choix pour les procédés de récupération de chaleur liée à l’énergie solaire, aux pompes à chaleur ou encore à la réfrigération. Mais aujourd’hui leur efficacité et leurs performances sont encore assez faibles.

Des chercheurs de l’Institut des matériaux poreux de Paris, l’Institut Charles Gerhardt Montpellier et leurs partenaires, ont synthétisé, en conditions « vertes » un nouveau matériau hybride nanoporeux, qui permet de dépasser les performances des meilleurs adsorbants d’eau actuels avec une capacité de stockage élevée ainsi qu’une température de régénération plus basse (moins de 63°C). Leurs travaux ont été publiés dans Nature Energy d’octobre 2018 .

Idéal pour la réfrigération

Le nouveau solide nanoporeux mis au point est un MOF à base d’oxoclusters de zirconium (Zr-MOF baptisé MIP-200). C’est un solide hybride nanoporeux hydrophile à grands pores dont la structure 3D à l’échelle atomique a pu être déterminée par diffraction X au synchrotron Soleil.

 

Gauche : Vue de la structure du Zr-MOF (atomes/polyèdres de Zr en jaune ; atomes d’oxygène et d’hydrogène en rouge et blanc).
Droite : Évolution du coefficient de performances du MOF-Zr en comparaison avec des matériaux poreux de référence
©Christian Serre (Institut des matériaux poreux de Paris)

Cette structure montre que le MIP-200 possède deux types de nanopores particulièrement hydrophiles et très stables en présence d’eau, après des utilisations répétées. Cela lui confère à la fois la capacité d’adsorber de grands volumes d’eau, de permettre des échanges de chaleur importants et d’effectuer une désorption à plus basse température lors de l’étape de régénération (inférieure à 65°C, de l’ordre de la température maximale que l’on trouve sur les réseaux d’eau domestiques). Les zéolithes ou autres solides poreux inorganiques utilisés aujourd’hui présentent des températures de régénération supérieures à 75°C et un volume poreux limité que ce nouveau matériau surpasse largement. Des calculs, réalisés par des chercheurs du Korea Research Institute of Chemical Technology (KRICT), ont confirmé que ce solide est plus efficace que les matériaux poreux évalués à ce jour pour des applications de réfrigération au sein des habitations par exemple. En outre, sa synthèse n’utilise que des produits chimiques verts, simples et peu coûteux, permettant d’envisager le développement de futurs procédés de réfrigération plus efficaces.

Chasseurs de bugs : 850 000 € de primes de l’Europe

Tous les jours, nous faisons appel à des logiciels open source sans le savoir. C’est le cas d’un serveur web Apache. Cas typique : un « client » (par exemple un navigateur web) se connecte à un serveur (par exemple un serveur HTTP Apache) avec un protocole spécifique, et effectue une requête pour une ressource en spécifiant son chemin.

Internet est l’infrastructure sur laquelle repose notre vie de tous les jours. Or, elle n’est pas à l’abri d’un bug niché dans une brique open source.

Prime en fonction de la sévérité d’une faille

Conscient de notre dépendance vis-à-vis de ces programmes, la Commission européenne a lancé en 2014 le projet d’audit des logiciels libres et open source (FOSSA – Free and Open Source Software Audit).

L’eurodéputée Julia Reda, à l’origine de projet FOSSA, explique que la « Commission européenne et les administrations publiques en général ont la responsabilité d’assurer la stabilité, la fiabilité et la sécurité d’internet – en y investissant. »

Supervisé par la Direction générale de l’informatique de la CE (DIGIT), FOSSA est un bug bounty. Qu’il soit organisé par la CE ou une entreprise privée, le principe reste le même : une prime est versée à un groupe ou à une personne découvrant une vulnérabilité dans un système ou un logiciel. Le montant de la prime dépend de la sévérité de la faille découverte et de l’importance relative du logiciel.  Ensuite, cette découverte est signalée aux développeurs en question.

Renforcer la sécurité

Deux projets (serveur web Apache et gestionnaire de mots de passe KeePass) ont fait l’objet d’un audit de sécurité. En décembre 2018, le projet FOSSA est entré dans sa phase 2. Une liste de 15 projets qui recevront une prime aux bogues a été présentée.

Pour Paul Farrington, un expert travaillant chez Veracode, une entreprise spécialisée dans la sécurité logicielle, FOSSA est une initiative intéressante. « Dans notre rapport 2018 sur l’état de la sécurité des logiciels, nous avons constaté que 87,5 % des applications Java contiennent au moins une bibliothèque open source avec des vulnérabilités. Certains des programmes en cours d’expérimentation dans l’UE s’appuient aujourd’hui sur des projets open source dont on sait qu’ils présentent des vulnérabilités. Il y a beaucoup à faire pour améliorer l’hygiène générale du développement logiciel en utilisant l’automatisation moderne de la numérisation. »

La gestion des déchets dans l’ère de l’économie circulaire

La loi de transition énergétique pour la croissance verte et la feuille de route pour l’économie circulaire portent de nombreux objectifs pour réduire et mieux valoriser les déchets. En particulier, il faudra réduire de moitié les déchets non inertes mis en décharge chaque année d’ici 2025. Pour « engager une profonde mutation vers le recyclage » et détourner annuellement 8 millions de tonnes des décharges françaises, les entreprises de gestion des déchets estiment qu’il faudra investir 4,5 milliards d’euros d’ici 2025 autour de six axes prioritaires.

Mieux recycler et valoriser les déchets

Le contrat de filière « Transformation et valorisation des déchets » 2019-2022 entend développer l’incorporation de matières recyclées dans les produits neufs. Les engagements volontaires énoncés sur les plastiques sont insuffisants et doivent être étendus aux autres matériaux. La filière compte « adapter au plus juste la qualité des matières de recyclage aux attentes réelles des utilisateurs et à améliorer durablement la compétitivité économique des matières premières de recyclage par rapport aux matières vierges via l’expérimentation d’un mécanisme économique incitatif ».

Afin de valoriser des matériaux non recyclables tels que les mousses et certains plastiques, la filière mise sur le développement de la valorisation énergétique. En particulier, les professionnels parient sur les combustibles solides de récupération (CSR). La filière peine encore à émerger en France, en raison de coûts élevés.

Mieux penser les produits

Réduire les déchets mis en décharge passe par l’amélioration de l’éco-conception des produits. Pour y parvenir, fabricants, recycleurs et équipes de marketing devront davantage travailler ensemble afin d’anticiper la fin de vie des produits. Objectif : « réduire drastiquement les quantités de produits manufacturés non recyclables mis sur le marché » pour ne pas reproduire les erreurs du PET opaque.

La « modernisation des centres de tri » rime avec « robotisation ». Les professionnels espèrent créer une filière reconnue de robots de tri intelligents. Ils souhaitent aussi accroître leur présence sur les marchés internationaux. Dans cette perspective, une promotion de PME va être accompagnée via l’accélérateur de la BPI, ainsi que via Stratexio pour créer un vrai leadership de la filière « transformation et valorisation des déchets ». Enfin, la filière compte accompagner les travailleurs dans la mutation profonde des métiers et des besoins en compétences accrues, notamment dans le numérique. Le comité stratégique de filière créé par la signature du contrat est présidé par Jean-Louis Chaussade, directeur général de Suez.

3 bonnes raisons de participer au Challenge Industrie du Futur

A l’initiative des leaders mondiaux ArianeGroup, SKF et Atos, et en partenariat avec Techniques de l’Ingénieur, le Challenge Industrie du Futur encourage et récompense les startups qui innovent dans le monde de l’industrie.

« Participer à ce Challenge, c’est avoir une chance de transformer vos idées innovantes en projets concrets, avec l’aide de trois entreprises internationales et industrielles », explique Steve Péguet, directeur innovation chez Atos.

Les 12 startups finalistes sélectionnées bénéficieront de 3 mois de mentoring avec des spécialistes issus des entreprises partenaires, et présenteront leur projet face à des industriels lors de la finale du 6 juin, au Campus de l’Espace.

Le Challenge est une occasion unique d’améliorer la visibilité des startups et de lier des contacts avec des entreprises reconnues, tout en développant leur projet avec des experts du secteur.

Cinq prix seront décernés selon des thématiques précises -matériaux et procédés du futur ; cybersécurité et data sciences ; usine connectée, humain au centre de l’usine et écologie dans l’industrie- avec des récompenses allant de 3 000 à 6 000€ pour le Grand Prix 4.0.

Vous êtes une startup intéressée par le monde de l’industrie ? Déposez vite votre candidature au Challenge Industrie du futur jusqu’au 15 février.

Bangkok rêve de chasser la pollution grâce à des pluies artificielles

À Bangkok, la pollution atmosphérique atteint des records, et la pluie ne tombe pas. Alors plutôt que de l’invoquer indéfiniment, les autorités de la capitale thaïlandaise ont décidé de la faire venir de force. Pour ce faire, Bangkok a eu recours à la technique de l’ensemencement des nuages, qui consiste à injecter des produits chimiques dans les nuages. Ces substances larguées par avion favorisent et accélèrent la création de la glace dans les nuages, ce qui devrait avoir pour conséquence d’accroître le volume des précipitations. Laver l’air comme on laverait ses vitres, la solution semble simple et alléchante en théorie. Mais en pratique, les faits sont tout autres.

Bangkok suffoque sous les particules fines

Il devenait urgent pour les autorités d’intervenir pour endiguer une pollution aux particules fines qui atteint des niveaux records. La concentration de particules PM2,5 dans l’air atteint par endroits 120 microgrammes par mètre cube, soit quatre fois plus que les recommandations de l’Organisation mondiale de la santé (OMS). Pour se protéger bon gré mal gré de ces particules PM2,5 particulièrement nocives car assez fines pour aller se fixer dans les poumons, les habitants de Bangkok portent des masques anti-pollution dont l’efficacité n’est pas toujours avérée. Face à cette situation critique, le département Thailand Agricultural Aviation a décidé d’envoyer des avions répandre des sels hygroscopiques à base d’iodure d’argent dans les nuages.

Les précipitations ainsi provoquées agissent comme une lessive sur l’atmosphère, en le débarrassant de ses particules fines. « Une fois les particules récupérées par les gouttes tombées, elles restent théoriquement collées au sol, qui est humide. Cela permet donc de dégager l’air », explique François Bouttier, expert en modélisation au Centre national de recherches météorologiques, à La Croix. Mais cette mesure n’emporte pas l’adhésion de tous, en laissant certains perplexes, comme le chercheur Olivier Boucher, spécialiste des questions climatiques à l’Institut Pierre-Simon-Laplace. Ce dernier affirme que « les pluies artificielles peuvent être utiles, si elles fonctionnent », avec un brin de perplexité.

Les pluies artificielles partiellement inefficaces

Ce manque d’enthousiasme vient du fait que la pluie artificielle n’est qu’une solution à court terme et extrêmement localisée. La pluie ne tombe que là où les produits ont été vaporisés, créant ainsi des disparités de traitement entre les différents quartiers touchés par la pollution. De plus, rien n’indique assurément que les précipitations ainsi provoquées soient réellement efficaces.  « On sait qu’il est possible de déclencher la pluie en laboratoire, dans des conditions très contrôlées. Toutefois, personne n’est encore sûr que cela marche vraiment dans la nature, notamment parce qu’on ne connaît pas exactement toutes les caractéristiques des nuages », indique François Bouttier.

Autre point qui permet de remettre en question l’efficacité de ces pluies artificielles : elles ne traitent pas le problème à sa source. En effet, le problème de la pollution à Bangkok n’est pas directement lié au manque de précipitations. L’explosion du nombre de véhicules motorisés dans la ville est beaucoup plus à mettre en cause. Bangkok est l’une des métropoles du monde où la circulation est la plus dense. Elle compte 9,8 millions de voitures, dont 2,5 millions à moteur diesel, pour 12 millions d’habitants. Le réseau de transports en commun y est également peu accessible car aussi cher que les taxis. Il se peut donc que les mesures les plus urgentes à mettre en place dans la capitale thaïlandaise ne se trouvent pas dans les airs, mais bien sur terre.

BTP : un instrument qui affiche les cotes dans les trois dimensions

Répandu sur tous les chantiers de construction, le traditionnel mètre à ruban semble voué à péricliter. Aperçu à plusieurs reprises sur divers salons l’an dernier et désormais disponible à la vente (4 000 € HT), l’instrument BLK3D du suisse Leica Geosystems utilise la photogrammétrie pour indiquer les cotes des arêtes repérées dans une image et délimitant un objet (encadrement de porte ou de fenêtre…) ou marquant la séparation de cloisons. Cette technique de mesure emploie des algorithmes qui détectent les contrastes dans une image numérique puis déterminent les intersections, les droites et les plans.

Si le principe n’est pas neuf, il tend à se démocratiser au sein d’appareils portables qui se présentent aujourd’hui comme des gros smartphones, ce dont témoigne le BLK3D avec son poids de 480 grammes et son épaisseur de 27 millimètres. Et l’analogie ne s’arrête pas là puisque cet imageur 3D, ainsi qu’il est défini par son fabricant, embarque aussi un système d’exploitation Android, le Bluetooth, le Wifi et le GPS. « Notre philosophie est de concevoir des appareils simples et miniaturisés, qui soient accessibles à tout le monde » explique Alexis Picot, responsable du produit chez Leica Geosystems.

Deux appareils photo pour une vision 3D

Cette approche, visant à proposer des outils à l’usage familier et au contact des technologies du numérique, se développe un peu partout en vérité. Par exemple, Stanley a lancé il y a quelques années un télémètre laser se fixant au dos d’un smartphone et permettant aussi de mesurer des dimensions – hauteurs et largeurs – au sein d’une image numérique. Le BLK3D, autonome quant à lui, se différencie toutefois par sa capacité à mesurer les profondeurs, d’où le suffixe 3D.

Ses deux capteurs photo, possédant 10 millions de pixels chacun, réalisent en effet une prise de vue stéréoscopique, que des algorithmes traitent ensuite pour distinguer les arêtes dans toutes les directions et établir des mesures à la demande. La portée s’élève à 20 mètres et la précision serait de +/- 3 mm, pour les dimensions dans les plans de face, et de +/- 6 mm, pour les dimensions dans la profondeur. Le BLK3D est également équipé d’un télémètre laser, afin de mesurer les distances. Les images 3D peuvent être converties au format PDF ou Jpeg puis transmises via Bluetooth, Wifi ou USB. L’application optionnelle Sketch&Document ajoute la création de plans de sol, avec insertion des images 3D, et l’export au format DXF/DWG, reconnus par les logiciels de CAO/DAO et BIM.

Leica Geosystems cible de nombreux métiers du bâtiment – architectes, peintres, poseurs de fenêtres, etc. – qui recherchent un moyen pratique d’accélérer les tâches du quotidien (relevés pour devis…) ou de vérifier l’avancement et la conformité des travaux sur un ouvrage. Les paysagistes et la police scientifique pourraient aussi être intéressés.

Une nouvelle campagne de contrôle de REACH

Le Forum d’échange d’informations sur les substances (FEIS) a pour but de faciliter l’échange d’informations sur les substances enregistrées. Dès juin 2017, il a donc programmé cette nouvelle campagne de contrôle (au joli nom de REF-7, REACH-EN-FORCE-7) pour début 2019. Les inspecteurs, en coopération avec les autorités douanières vont donc opérer des contrôles tout au long de l’année pour vérifier le respect des obligations d’enregistrement des produits chimiques par les importateurs et les fabricants.

L’ultime campagne d’enregistrement de REACH s’est achevée fin mai 2018. Contrairement aux campagnes d’enregistrement de 2010 et de 2013 qui concernaient des tonnages plus importants – et donc essentiellement des industriels importants du secteur de la chimie – plusieurs petites entreprises étaient concernées, bien qu’elles n’en soient pas toujours conscientes. Les contrôles à venir pourraient donc mener à de mauvaises surprises. En août 2018, l’Institut fédéral allemand d’évaluation des risques (Bfr) estimait que seuls 31 % des produits chimiques fabriqués ou importés en Europe étaient conformes à REACH. 32 % n’étaient pas conformes et 37 % nécessitaient des investigations plus approfondies.

Au cours de cette campagne de contrôle, l’accent sera mis sur le contrôle des substances importées et fabriquées en quantité de 1 à 100 tonnes par an. Les inspections comprendront également une vérification de certaines parties du dossier d’enregistrement et d’autres obligations liées à l’enregistrement. Par exemple, les inspecteurs vérifieront si les sociétés se conforment à l’obligation de mettre à jour leur dossier d’enregistrement. Un bilan de ces vérifications minutieuses sera publié fin 2020. Il devrait apporter des éléments concrets pour juger de la crédibilité et de l’efficacité du règlement REACH.

L’ONU dotera les projets verts de 100 milliards de dollars d’ici 2025

Bonne nouvelle venue d’outre-Atlantique pour les projets liés au développement durable en ce mois de janvier ! L’ONU Environnement, programme des Nations Unies, a annoncé que le budget qui sera accordé d’ici 2025 aux initiatives vertes serait multiplié par dix. Selon le sous-secrétaire général et chef du bureau de l’ONU Environnement, Satya Tripathi, l’organisation sera capable de mobiliser 100 milliards de dollars pour les projets de développement durable, alors qu’elle annonçait pouvoir n’en mobiliser que dix en 2017.

Les 10 milliards de dollars initialement annoncés se seraient en effet très vite avérés insuffisants. « Il y a un an, nous tablions sur 10 milliards de dollars d’ici à 2025. Mais en un an, nous avons déjà eu un projet de 350 millions de dollars en Indonésie, un projet de 2,3 milliards de dollars en Inde… Nous sommes quasiment à trois milliards » indique Satya Tripathi selon France Info. Cette allégation est encourageante pour la question de la préservation de l’environnement car force est de constater que les pays émergents s’engagent sur la voie du développement durable.

L’essentiel renfort des fonds privés

L’annonce de Satya Tripathi ne manque pas de rappeler que rien ne se fera sans le renfort de fonds privés. La bonne poursuite des projets verts dans les pays émergents ne pourra se faire dans les prochaines années que si les financiers répondent présents. « Si les bons partenariats sont mis en place, si les bons acteurs sont trouvés et aidés, je pense que nous pourrons arriver à 100 milliards de financements privés pour le bien de tous » explique le chef du bureau ONU Environnement. C’est une façon, en filigrane, de rappeler le rôle essentiel que devront jouer les fonds privés dans le défi du développement durable dans les pays émergents durant les prochaines années.

Ainsi, l’ONU Environnement invite les financiers à investir dans des projets d’intérêt public, voire mondial. « Le plus souvent, on voit des financements privés pour des profits privés, continue Satya Tripathi. Nous construisons un modèle où les financements privés génèrent, bien sûr, des profits, mais aussi un bénéfice pour la communauté et pour la planète ». Le chef de l’ONU Environnement rappelle ainsi que les fonds publics venus des États ne pourront jamais suffire pour le développement de ces projets car « le PIB mondial est généré à 30% par le secteur public et à 70% par le secteur privé ».

La voie a notamment été ouverte par BNP Paribas qui, lors du One Planet Summit, avait annoncé apporter des capitaux privés pour assurer le développement de projets en faveur de l’environnement dans les pays émergents. Par le biais de ce partenariat, la banque française ambitionne d’aider des petits exploitants notamment à se convertir à l’agriculture responsable. Les fonds permettront également de développer l’accès à l’agrosylviculture, à l’eau et aux énergies renouvelables.

Énergie éolienne : identifier les contraintes et influences pour optimiser le rendement

Identifier les contraintes de fonctionnement de l’éolienne

Contraintes météorologiques :

Le fonctionnement de l’éolienne doit être le moins possible perturbé par des phénomènes météorologiques tels que la neige, le givre, la tempête de sable, les orages, la grêle, etc.

Contraintes aérologiques :

Pour que le projet soit économiquement rentable, une éolienne nécessite un vent fort et régulier. La vitesse du vent doit être comprise en général entre 4 et 25 m/s.

Contraintes physiques :

La composition de l’atmosphère, influencée par la pollution, la brume, le brouillard et, d’une façon générale, tout ce qui peut faire varier la densité de l’air, affecte le rendement de l’éolienne.

Contraintes liées à la corrosion due à la concentration de sel ou de sable :

Les problèmes de corrosion sont bien connus de tous ceux qui vivent à proximité de la mer ou dans les zones sableuses. Sans maintenance, les performances de l’installation sont rapidement réduites.

Traditionnellement, le contenu du sel a été surveillé en utilisant des échantillonneurs à volume élevé suivis d’une analyse chimique des échantillons recueillis. Cependant, cette méthode n’est pas très utile pour une éolienne. Le ballon captif peut, cependant, être utilisé pour estimer le contenu du sable ou du sel à la hauteur de la nacelle dans les sites potentiels.

Les profils verticaux de concentration de teneur en sels ou particules de sable peuvent être mesurés de manière simple à l’aide d’une pompe et d’un sac d’échantillonnage comme indiqué sur la figure 1, le déclenchement de la minuterie étant réglé pour que l’échantillonnage s’effectue après le temps de vol jusqu’au niveau d’échantillonnage. À la fin du vol, les sacs sont récupérés et fermés hermétiquement aussi rapidement que possible ; l’analyse est ensuite effectuée au laboratoire. Pour convertir la concentration d’air des composés souhaités, il faut noter la durée et le débit de pompage et connaître le nombre de mètres cubes d’air que la pompe a prélevé.

Les influences locales sur le vent

Le terrain :

Pour optimiser le rendement d’une installation éolienne, le concepteur doit faire un choix de sites adéquats en fonction de l’influence locale sur le vent.

La topographie :

Au passage des obstacles topographiques, l’écoulement de l’air subit des modifications qui peuvent engendrer des augmentations de la vitesse du vent au sommet des collines.

Changement de rugosité :

À des altitudes élevées, à environ un kilomètre au-dessus du sol, l’influence de la surface de la terre sur l’écoulement du vent est pratiquement nulle. Par contre, dans les couches d’air plus basses, la friction contre la surface de terrain influe beaucoup sur la vitesse du vent. Dans le cas du gisement éolien, il faut distinguer l’effet de la rugosité du terrain et l’influence exercée par les obstacles avoisinants et les contours du paysage.

Obstacles : Lorsqu’un obstacle ou bâtiment isolé se dresse sur un site dégagé, l’écoulement du vent est très fortement perturbé dans le sens de l’écoulement et autour du bâtiment ou obstacle. Si h est la hauteur du bâtiment et d la dimension de la façade latérale perpendiculaire à la direction du vent, l’écoulement engendre une zone de sillage dont l’extension dans le sens de l’écoulement est de l’ordre de 20 heures, et latéralement d’environ 4 à 5 d.

Evaluation de site retenu

Pour optimiser son implantation sur un terrain, le choix des emplacements (micrositing) doit donc être effectué en fonction de caractéristiques locales du vent, et tenir compte des particularités suivantes :

  • Le rapport maximal entre la hauteur d’une irrégularité et sa longueur ne doit pas dépasser 1/50 dans un rayon de 4 km en aval de l’éolienne, ce qui favorise les collines à faible pente.
  • Le point le plus bas du rotor doit être au moins trois fois plus haut que la plus haute irrégularité sur le terrain dans un rayon de 4 km en aval de l’éolienne.
  • Dans le cas d’un obstaclenaturel, comme une rangée d’arbres, ou d’obstacles érigés par l’homme, comme des immeubles, l’écoulement est perturbé sur une distance en aval correspondant à une vingtaine de fois la hauteur de l’obstacle. Dans cette zone, le vent est fortement fluctuant, tant en amplitude qu’en direction. Dans tous les cas, il faut placer l’éolienne à l’extérieur de la zone d’influence des obstacles.
  • Comme l’éolienne doit être orientée vers les vents dominants, la direction du vent doit être prise en compte et pas seulement sa vitesse.

Certains édifices sableux peuvent aussi servir d’indicateur de vent. En effet, les formations dunaires sont classées selon le régime du vent et la couverture sableuse :

  • sous un régime de vent bidimensionnel se forment des dunes linéaires, longitudinales ou transverses aux vents si le sol est bien recouvert de sable ;
  • sous un régime de vent multidimensionnel se forment des dunes en étoiles ;
  • sous un régime de vent unidimensionnel se forment des dunes en forme de croissant : les barkhanes

Conclusion

Pour favoriser le bon rendement d’une éolienne le choix du site d’implantation est primordial. Ce site doit avoir, de préférence, une vue aussi dégagée que possible dans la direction des vents dominants. Il faut qu’il y ait aussi peu d’obstacles et une rugosité aussi faible que possible dans cette direction. Avec une colline en pente douce, il est même possible d’obtenir un effet accélérateur.

Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 28 février !

Énergie éolienne terrestre, un article de Nacer MESSEN et Nachida KASBADJI MERZOUK

Mobilité électrique : une décennie décisive

1,2 million de voitures particulières électriques circuleront en France en 2023, puis 4,8 millions en 2028. C’est en tout cas ce qui est prévu par la PPE.

Pour soutenir cette ambition, le gouvernement prévoit notamment une prime à la conversion qui toucherait 1 million de bénéficiaires. Enfin, le développement du réseau de bornes de recharge est prévu.

En effet, en mai 2018, l’Etat et la filière automobile ont signé un contrat stratégique de filière, qui court jusqu’en 2022 et s’engage sur l’installation de 100 000 bornes de recharge sur le territoire (contre 23 000 aujourd’hui), ainsi que sur la multiplication par 5 des ventes de véhicules électriques, également d’ici 2022.

Prévoir la fin des véhicules thermiques

La PPE, en actant la fin de la vente de véhicules thermiques neufs pour 2040, suit les prévisions faites par différents cabinets d’études, s’accordant sur un parc automobile électrique d’environ 50% en 2030 au niveau mondial.

L’enjeu est bien évidemment de savoir si la France va se placer dans la compétition industrielle internationale qui fait déjà rage au niveau mondial, principalement autour des batteries.

Certains analystes voient déjà notre pays exclu de la course aux batteries. L’Asie a pris de l’avance, les Etats-Unis aussi. En Europe, l’Allemagne investit beaucoup dans deux grands projets d’usines de fabrication de batteries, ainsi que la Suède, notamment grâce au plan Junker.

Côté français, la société Saft, rachetée par Total en 2016, est engagée avec des partenaires européens dans un projet de construction d’une usine de production de batteries (1GWh, à comparer avec les projets allemands – 34 GWh – et suédois – 32 GWh).

La Giga factory de Tesla affiche la volonté de franchir les 50 GWh en 2020.

La Giga bataille des batteries

L’innovation technologique en termes de batterie électrique pour l’automobile ne fait que commencer. Aujourd’hui, le prix de ces batteries et le fait qu’elles contiennent des matériaux de plus en plus rares et/ou chers (cobalt, lithium entre autres) pénalisent encore trop lourdement le prix d’achat des véhicules équipés sur le marché. Ceci oblige à innover, maintenant.

La aussi, la France peut avoir un rôle à jouer. Prenons l’exemple de la startup Tiamat. Pour se passer du cobalt dont le prix d’achat est très élevé, Tiamat développe une technologie Na-ion, au sodium, qui s’affranchit du lithium et du cobalt. Cette technologie pourrait trouver des débouchés pour la mobilité électrique, mais aussi pour le stockage stationnaire.

A côté de la mobilité électrique, la mobilité hydrogène tente de se faire une place. Si la PPE ne la mentionne pas spécifiquement, les éléments du plan Hulot sont repris, avec l’ambition de faire circuler une flotte de 5 000 véhicules à hydrogène disposant pour se recharger d’une centaine de stations, le tout en 2023. Des investissements à hauteur de 100 millions d’euros serviront ces ambitions dès 2019.

Aujourd’hui le véhicule à hydrogène, s’il est compétitif en termes d’autonomie et de temps de charge, ne l’est pas du tout au niveau du prix d’achat. Ceci est dû – entre autres – à l’usage de platine, un matériau extrêmement cher, pour fabriquer la pile à combustible, élément de base de la voiture à hydrogène. Là aussi, l’innovation fera baisser les prix dans les 10 ans qui viennent. A quelle rythme ? On ne sait pas. Mais l’hydrogène permet une multitude d’usages et c’est sans aucun doute son meilleur atout.

On saura dans les prochaines années si la PPE a mis la France sur une trajectoire suffisamment ambitieuse, pour que la croissance de la mobilité électrique en France draine un tissu industriel compétitif dans son sillage.

Sortir du charbon : le pari de 2022

Le charbon fait partie du secteur du thermique à flammes, avec le fioul et le gaz. Ce secteur participe (chiffres de 2017) pour 10,3% de la consommation électrique française. Le charbon, pris seul, participe à hauteur de 2%.

La PPE a acté la fermeture des 4 dernières centrales françaises à charbon en 2022. Le sujet est important : ces centrales ne sont qu’un approvisionnement d’appoint dans le mix électrique, mais jouent un rôle de complément indispensable notamment lors des pics de demande. Il est à l’heure actuelle strictement impossible de s’en passer.

Leur statut d’énergie fossile et les rejets importants de gaz à effet de serre liés à leur combustion exigent cependant un scénario de remplacement, une des clés de voûte de la baisse des émissions de GES.

RTE propose un scénario de sortie

Selon le gestionnaire du réseau (RTE), les conditions pour la fermeture des dernières centrales à charbon pourraient être réunies dès 2020.

Quelles sont ces conditions ? D’abord,  il faut intégrer à l’équation la fermeture des réacteurs de Fessenheim, en plus de celle des centrales à charbon. Partant de là, il faut impérativement, selon RTE :

  • développer fortement les énergies renouvelables ;
  • mettre en service l’EPR de Flamanville ;
  • mettre en service la centrale au gaz de Landivisiau ;
  • mettre en service trois interconnexions (une avec l’Italie, deux avec la Grande-Bretagne).

A ces conditions – et seulement à ces conditions – on pourrait imaginer une fermeture progressive des 4 centrales à charbon restantes, en prenant garde à ne fermer « aucun autre mode de production », précise RTE.

En effet, les 4 centrales concernées présentent chacune des problématiques propres. RTE souligne que dans les secteurs Sud et Bretagne, il n’existe pas de « risques spécifiques » liés à la fermeture des centrales qui y sont implantées. Pour les autres, la mise en place de lignes à haute tension et d’interconnexions est la prochaine étape.

Ce n’est donc pas simple. François de Rugy l’a bien compris, en annonçant devant des syndicats début janvier que la date de 2022 pour la fermeture de la centrale à charbon de Cordemais « pourrait être ajustable en fonction des besoins du réseau ».

La bonne nouvelle pourrait venir – toujours selon RTE – d’une marge de sécurité plus grande sur le réseau électrique à partir de 2020, le temps d’encaisser la fermeture déjà actée d’unités au fioul. Après l’hiver 2020, cette marge de sécurité pourrait faciliter la fermeture des dernières centrales à charbon.

Si la France réussit, d’une façon ou d’une autre, à sortir du charbon en 2022, elle mettra fin à un mariage forcé qui aura duré quatre décennies.

Le nucléaire restera le pilier du mix électrique français

L’avenir du nucléaire français, à travers la lecture de la PPE, permet de dessiner une trajectoire claire : la part du nucléaire dans le mix électrique français va baisser pour atteindre 50 % en 2035, selon les objectifs annoncés par la PPE. 14 réacteurs vont fermer,  à commencer par ceux de Fessenheim, puis deux autres en 2027/2028.

Mais la fermeture de réacteurs ne s’accompagnera pas de celle des centrales à proprement parler. François De Rugy l’a confirmé, ceci « pour ne pas déstabiliser les territoires et permettre la construction de nouveaux réacteurs lorsqu’ils seraient décidés ».

A côté de ça, la décision concernant la construction de ces nouveaux EPR est reportée à 2020 ou 2021, « pour en faire un enjeu électoral », indique François De Rugy.

La décennie qui s’annonce pour la filière nucléaire relève d’un double enjeu : poursuivre les objectifs de réduction de la consommation d’énergies fossiles via le nucléaire notamment, tout en maintenant l’outil de production et en n’excluant pas la construction de nouveaux réacteurs si nécessaire.

L’augmentation de la consommation électrique, clé de voute de la stratégie française

Un choix stratégique également dicté par la prévision d’une consommation électrique en légère augmentation sur la période 2018/2028, scénario qui remet le nucléaire au centre du mix français.

Le choix retenu dans la PPE de miser sur une légère augmentation de la consommation d’électricité suit les recommandations émises par EDF. RTE, lui, a défendu le choix d’une prévision à baisse de la consommation électrique, sans succès.

Après, chacun est dans son rôle : les promoteurs des énergies renouvelables regrettent ce choix, arguant que le développement massif du solaire/éolien et de technologies de stockage permettraient de réduire la consommation d’électricité globale en la pilotant plus intelligemment, tout en intégrant de plus en plus ces énergies renouvelables dans le réseau.

Les promoteurs du nucléaire, de leur côté, trouvent que les choix de la PPE sont cohérents et permettront d’appréhender au mieux une augmentation des besoins électriques. Besoins que seule l’énergie nucléaire – pour le moment – permet de gérer dans le temps avec l’infrastructure existante.

La France est le seul pays au monde à miser sur l’énergie nucléaire sur du moyen/long terme

Deux visions, et une réalité : Depuis 10 ans, la consommation électrique par habitant baisse légèrement en France. Mais ce chiffre n’est qu’une donnée dans une équation beaucoup plus large. Et il doit être analysé au filtre de la crise économique de la fin des années 2000.

Au sortir de la PPE, la France acte la réduction de sa dépendance au nucléaire, tout en réaffirmant cette filière comme le pilier du mix électrique français, jusqu’en 2028.

François de Rugy, en évoquant la volonté de « bâtir un nouveau modèle énergétique français », en mettant en avant deux grands mantras – la lutte contre les changements climatiques, en baissant la consommation d’énergie fossile, et la réduction de la « dépendance au nucléaire, pour que la France ne passe pas à côté des renouvelables » – estime avoir trouvé le bon équilibre.

 Il n’est pas certain aujourd’hui que son avis soit partagé du côté de la filière nucléaire comme du côté des filières renouvelables.

Dans la décennie à venir l’industrie nucléaire va devoir jongler habilement entre des problématiques de compétitivité, de sûreté, de coût, en France et à l’international. Mais la filière va en plus s’atteler concrètement au démantèlement des premiers réacteurs appelés fermer. Beaucoup de challenges très compliqués.

Il est enfin intéressant de noter que la stratégie française plaçant le nucléaire au centre de son mix électrique n’a aucun équivalent dans le monde à l’heure actuelle. Un risque ou une opportunité ?

Energies renouvelables : Et en même temps…

Certains verront le verre d’eau à moitié plein, d’autres à moitié vide.

En maintenant l’objectif de réduire de 71,6% à 50% la part du nucléaire dans la production d’électricité en France entre 2017 et 2035, la PPE a acté une montée en puissance du développement des énergies renouvelables pour les dix prochaines années.

« Nous faisons le choix de développer des technologies fiables, éprouvées et compétitives, comme l’éolien terrestre et posé en mer, et le solaire photovoltaïque, qui ont des coûts de plus en plus proches des prix de marché », a confirmé François de Rugy.

Les objectifs affichés sont :

  • des investissements en augmentation (passage de 5 milliards d’euros cette année à 8 milliards dès 2019) ;
  • des simplifications réglementaires dans l’éolien ;
  • une hausse de l’éolien terrestre, de 11GW en 2017 à 24,6GW en 2023 puis 35GW en 2028 ;
  • le solaire – 7GW aujourd’hui – en augmentation à plus de 20GW en 2023 pour dépasser les 40GW en 2028 ;
  • l’éolien offshore – absent pour le moment en France – programmé à 2,4GW en 2023 et à 5GW en 2028.

L’objectif global affiché est de passer de 17% d’électricité renouvelable en 2017 (48,6GW installés) à 40% en 2030 (105GW installés).

Miser sur les atouts existants

Comme annoncé, on assiste à un resserrage des efforts autour des technologies renouvelables matures pour atteindre ces objectifs. Le secteur de l’hydrolien fait partie des grands perdants de cette décision : la France possède pourtant les potentiels géographique et industriel qui pourraient en faire un acteur compétitif sur ce marché spécifique.

 Le hic est que du côté des « gagnants » – les filières solaire et éolienne – le verre d’eau n’est pas si plein. Si les objectifs de la PPE sur ces énergies constituent une feuille de route solide et qu’on pourrait qualifier de relativement ambitieuse, on est loin de se diriger vers l’exploitation de la capacité totale française, estimée à 54% de renouvelables dans le mix total en 2030. Comme dit plus haut, la PPE ambitionne 40%. Certains voient ainsi la PPE comme un plafond de verre. C’est le verre à moitié vide.

 Mais il y a plus inquiétant. La plus mauvaise nouvelle pour le secteur renouvelable dans ce PPE se trouve peut-être du côté… de l’atome. En effet, le choix de ne fermer aucun site nucléaire afin de «  ne pas déstabiliser les territoires et permettre la construction de nouveaux réacteurs lorsqu’ils seraient décidés », dixit François de Rugy, n’augure rien de bon pour le secteur des renouvelables à moyen terme.

Le plafond de verre ?

En effet, une montée en puissance massive des énergies renouvelables dans le mix électrique doit s’accompagner de l’intégration dans le réseau électrique d’outils de flexibilité, de stockage, de smart grids… Le PPE ne prévoit pas d’investissements massifs à ce niveau, plafonnant de fait les ambitions potentielles de tout le secteur.

C’est le paradoxe français. Beaucoup de pays européens s’inscrivent aujourd’hui dans une trajectoire 100% renouvelable sur le moyen/long terme. C’est cette ambition qui guide leur transition énergétique.

En France, la situation est différente, parce que l’énergie nucléaire constitue l’ « ingrédient » de base de notre mix électrique : c’est lui qui a permis à la France d’être quasi autonome dans sa production électrique et d’être compétitif sur le prix de vente de son électricité depuis plusieurs décennies.

C’est toujours vrai aujourd’hui, mais moins qu’hier. Et sûrement beaucoup moins que demain.

Ce qui est vrai également, c’est que l’industrie nucléaire est un fleuron français, qui croit en sa capacité à innover pour retrouver de la compétitivité, en France et dans le monde, au-delà d’une image impossible à rénover.

Impossible pour la France de miser en même temps sur le nucléaire et les renouvelables et de gagner des deux côtés, la compétition est trop dure.

Si on sait aujourd’hui que la France ne gagnera pas la bataille des renouvelables d’ici 2028, il sera très important de ne pas trop la perdre. C’est aussi le sens de la PPE pour les 10 ans à venir.

Un MOF piège deux gaz polluants simultanément

« Matériaux cages », « nanofilets », « éponges chimiques », autant d’appellations imagées qui désignent les matériaux micro et nanoporeux découverts ces dernières années. Leurs propriétés en font des matériaux convoités pour des processus de séparations sélectives ou d’absorption spécifiques particulièrement utiles dans les secteurs de l’énergie, de l’environnement ou de la santé. Si les chercheurs ont beaucoup travaillé sur les zéolithes, les oxydes de type alumino-silicates, les nanotubes de carbone et les polymères poreux, voici venu le temps des MOFs, abréviation anglophone pour « metal organic framework ». Comme les autres, ils présentent des cavités de taille nanométrique correspondant à des molécules courantes de bases comme l’eau, le dioxygène, le méthane, le dioxyde de carbone etc. Et la nouvelle famille créée par les scientifiques de l’université KAUST d’Arabie saoudite et de l’Institut Charles Gerhardt de Montpellier (CNRS/Université de Montpellier/ENSCM) permet d’envisager des économies notables dans le traitement et la récupération du méthane.

Tout faire en une seule étape

La purification du méthane lors de la captation du gaz naturel, du biogaz ou des gaz résiduels de raffinage nécessite des procédés complexes et coûteux. Il s’agit notamment d’en retirer des contaminants comme le sulfure d’hydrogène (H2S) et le dioxyde de carbone (CO²). Grâce à l’identification d’un nouveau MOF (AlFFIVE-1-Ni), cette équipe de scientifiques propose d’absorber, en une seule étape, simultanément, le H2S et le CO² dans un milieu riche en méthane. Leurs travaux ont été publiés dans Nature Energy fin octobre 2018. Les résultats montrent qu’il est possible d’extraire ces deux composés simultanément pour une grande gamme de concentrations différentes et pour des compositions de gaz très diverses. Ce qui est novateur dans cette recherche, c’est d’avoir réussi à concevoir un matériau qui adsorbe les deux molécules, en même temps et sans préférence pour l’une ou l’autre. En effet, généralement, les matériaux présentent des affinités chimiques distinctes pour H2S et CO², et H2S est plus favorablement adsorbé.

Les chercheurs ont aussi essayé de comprendre les mécanismes gouvernant cette double adsorption : ils pensent que l’une des explications réside dans le fait que les pores de ce matériau sont suffisamment petits pour assurer un confinement important des molécules adsorbées.

Cette découverte ouvre la voie à d’autres recherches pour simplifier les procédés d’extraction des gaz acides.

Trophées de l’innovation Big Data Paris : le compte à rebours est commencé !

Remis dans le cadre de l’événement « Bigdata » (11 et 12 mars 2019 à Paris), ces trophées de l’innovation mettent à l’honneur les projets Big Data innovants sur les aspects technologiques, comme sur les modèles économiques.

Les critères de sélection comprennent également la nature Big Data du projet, la valorisation de la donnée, les nouveaux usages métiers.

Deux grandes catégories sont proposées : startup et PME – grande entreprise. Deux finalistes issus de ces deux groupes, donc 2 concurrents pour chaque trophée, s’affronteront lors de « battles » devent le public qui, par vote électronique, choisira les lauréats.

Pour en savoir plus et candidater : https://www.bigdataparis.com/2019/les-trophees/

Challenge Industrie du futur : à quoi sert le mentoring proposé aux finalistes ?

Lancée fin 2018, la deuxième édition du Challenge Industrie du futur invite les startups qui innovent dans le monde de l’usine et de l’industrie à déposer leur candidature. Les douze entreprises sélectionnées seront accompagnées pendant trois mois par un mentor afin d’affiner leur projet et de l’adapter aux attentes des entreprises partenaires. François Niarfeix, Product development Manager à SKF, était lui-même mentor lors de la première édition. Il évoque son travail avec les startups ainsi que les bénéfices que peuvent en tirer les jeunes entreprises, tant lors de la course pour la finale que pour leur avenir.

A quoi sert le mentor ?

De manière générale, les fondateurs de jeunes entreprises sont brillants et réfléchis. Le rôle du mentor demeure donc aussi discret qu’indispensable. Il réalise le grand écart entre les startups et les grandes entreprises, c’est-à-dire qu’il fait le lien entre ce que proposent les jeunes entreprises et la réalité industrielle. Les startups ont souvent une vision théorique et parcellaire du monde de l’industrie, surtout si elles sont jeunes.  Avec son expérience et son réseau, le mentor les aide à trouver des solutions qui peuvent intéresser les grands groupes, tout en palliant les différences de vocabulaire et de réactivité qui existent entre les deux secteurs. Sa deuxième mission consiste à préparer les startups au pitch sur lequel elles seront jugées lors de la finale.

Comment sont sélectionnés les mentors ?

L’année dernière, nous avions choisi au sein de nos équipes des conseillers en fonction de leurs connaissances techniques, leur expérience et leur bienveillance. Les startups liées à l’informatique étaient encadrées par Atos, tandis que les membres de SKF prenaient en charge celles en lien avec l’industrie.

Pour cette édition, nous avons constitué à l’avance une liste des mentors potentiels et nous avons communiqué sur le mentorship. L’année passée, les personnes que nous aurions voulues comme mentor n’ont pas forcément accepté donc certains conseillers se sont retrouvés avec plusieurs startups à accompagner. Je devais moi-même m’occuper d’Energiency, une entreprise qui propose un logiciel d’analyse de la performance énergétique, puis deux autres startups se sont greffées faute de volontaire. L’idéal serait bien sûr que chaque mentor se concentre sur un seul projet.

Le mentorship des entreprises internationales est-il possible ?

Si les membres de la startup ne peuvent pas se déplacer en France, l’accompagnement se fera par Skype ou téléphone. C’est un petit désavantage car certains critères importants lors d’un pitch ne seront pas perceptibles comme le regard, le langage corporel ou la tenue vestimentaire. Néanmoins, le mentorship demeure réalisable.

Comment s’est déroulé l’accompagnement d’Energiency lors de la première édition ?

J’ai divisé l’accompagnement en deux étapes. D’abord, j’ai rencontré les membres d’Energiency avec des personnes de mon réseau susceptibles d’être intéressées par ce qu’ils proposaient. Nous avons réfléchi ensemble aux solutions que la jeune entreprise pouvait proposer à SKF. C’est la partie la plus compliquée car il faut trouver un angle d’attaque pour démontrer comment la startup se révélerait utile aux grandes entreprises. Lors de la deuxième phase, nous avons essentiellement préparé la finale et travaillé le pitch avec Arnaud Legrand, le fondateur et directeur d’Energiency, à travers des entretiens téléphoniques. Notre travail a été récompensé car l’entreprise a reçu le prix Industrie 4.0.

Quels sont les critères pour un bon pitch ?

Un bon pitch doit permettre à l’auditoire de se projeter avec la startup. Ce n’est pas une simple présentation de l’entreprise, mais le début d’une réunion de travail que les receveurs potentiels auront envie de poursuivre. Le moment du pitch ressemble à une pièce de théâtre, il doit être marquant et donner envie de continuer l’histoire racontée. Ce genre d’exercice se révèle assez injuste car la forme compte autant que le fond. Une bonne présentation est donc indispensable. Par sa connaissance du milieu, le mentor aide alors les startups à orienter leur discours et surtout à l’adapter en fonction du public.

Que deviennent les startups après le Challenge ?

La particularité du Challenge Industrie du futur consiste à prolonger l’expérience après la finale. Energiency continue de travailler avec SKF et met en place un monitoring énergétique dans le cadre d’un contrat d’un an. Ils profitent également de notre réseau pour se faire connaître et trouver de nouveaux partenariats. En tant que mentors, on ne les abandonne pas une fois la finale passée et beaucoup sont restés en contact

Un conseil aux startups qui déposent leur candidature ?

Soyez significatifs et complets. Avant de penser au mentorship, votre candidature doit être acceptée. L’année dernière, de nombreux dossiers étaient déséquilibrés, avec des rubriques très détaillées tandis que d’autres étaient complètement vides. Ne le négligez pas.

 

Vous êtes une startup intéressée par le monde de l’industrie ? Déposez votre candidature au Challenge Industrie du futur jusqu’au 15 février.

 

La cartographie des réseaux de chaleur et de froid débarque !

Carto.viaseva.org est le nouvel outil lancé par Via Sèva, l’association de promotion des réseaux de chaleur et de froid, avec le soutien de l’ADEME. Objectif : fournir les informations disponibles sur les 534 réseaux de chaleur et de froid nationaux. Particuliers, mais aussi professionnels ont accès aux caractéristiques énergétiques et environnementales des réseaux. Plans détaillés, taux d’énergies renouvelables et de récupération, mix énergétique, émissions de CO², longueur du réseau, nombre de logements desservis… le réseau de chaleur de votre quartier n’aura plus de secret pour vous.

Selon un sondage commandé par Via Sèva à Ipsos Observer, 45 % de Français se disent prêts à changer de mode de chauffage pour un réseau de chaleur. Avec ce nouvel outil, l’association compte ainsi les aider à passer à l’action. La fiche de chaque réseau de chaleur comprend les contacts pour se raccorder, ainsi que les aides disponibles pour les particuliers, les collectivités et les professionnels.

Promouvoir les réseaux de chaleur dans la transition énergétique

Un réseau de chaleur est un chauffage central à l’échelle d’une ville ou d’un quartier. Un ensemble d’installations produisent et distribuent la chaleur à plusieurs bâtiments pour le chauffage et l’eau chaude sanitaire. Un réseau de canalisations enterrées sous voiries distribue la chaleur vers les utilisateurs. Ce réseau transporte la chaleur qui alimente des postes de livraison installés dans les immeubles raccordés. Dans le bâtiment, l’usager règle ensuite son radiateur comme il l’aurait fait s’il bénéficiait d’un chauffage central collectif. Un autre réseau de canalisations permet le retour du fluide vers les centrales de production. Le tout fonctionne en circuit fermé.

Six millions de Français sont chauffés quotidiennement via un réseau de chaleur, chez eux, au travail ou dans les bâtiments publics. « Les réseaux de chaleur sont aujourd’hui le mode de chauffage le plus écologique grâce à un mix énergétique couvert à 56 % par des énergies renouvelables et de récupération », affirme Via Sèva.

La recharge solaire intelligente en construction

Prenez d’un côté Enerplan, représentant de l’ensemble de l’offre solaire industrielle et commerciale en France – industriels, ensembliers, bureaux d’études, installateurs, architectes, énergéticiens. Et de l’autre, l’Avere, association rassemblant les acteurs de la mobilité électrique, dans les domaines industriels, commercial, institutionnel et associatif. Faites-leur signer un partenariat pour engager un travail commun avec leurs membres, afin de favoriser le déploiement en France de la recharge solaire intelligente des véhicules électriques. Au bout du compte, vous obtenez une nouvelle alliance ayant « pour principal but d’accélérer la convergence entre énergie solaire et électromobilité », notent les deux organismes dans un communiqué conjoint.

Le syndicat et l’association vont pouvoir rassembler leurs expertises pour étudier et favoriser le déploiement de la recharge solaire intelligente, la maîtrise des contraintes ainsi que les investissements dans les infrastructures de distribution du solaire et du stockage stationnaire. Les deux organismes espèrent ainsi voir l’émergence d’une filière française sur la recharge solaire intelligente des voitures électriques.

« Le partenariat entre l’Avere-France et Enerplan va permettre de concrétiser sur le terrain l’exploitation des synergies entre déploiement des énergies renouvelables, la recharge des véhicules électriques et les contraintes réseaux, conditions sine qua non pour atteindre les objectifs de la transition énergétique et écologique », prévient Cécile Goubet, secrétaire générale de l’Avere-France. « Ce partenariat doit permettre de révéler vis-à-vis du réseau électrique des externalités positives de la production solaire locale au service de la mobilité électrique, avec une convergence à favoriser pour l’intérêt général », analyse pour sa part Richard Loyen, délégué général d’Enerplan.

La France compte pour l’instant l’entreprise Driveco qui propose Parasol, l’unique station de recharge 100% solaire au monde, conçue pour recharger huit véhicules. Installée notamment à Bastia et Ajaccio depuis 2016, l’électricité produite par les panneaux photovoltaïques sur sa toiture est stockée dans ses batteries et distribuée à l’ensemble des points de charge du smart grid Driveco. Le Solar Camp déploie pour sa part un smart grid autonome sur le site de Thecamp, à Aix-en-Provence. Il teste le modèle économique du véhicule-to-grid, grâce à l’utilisation des batteries des voitures électriques pour alimenter le réseau électrique.

Comment rendre photoconducteur un oxyde de titane nanoporeux

Si l’oxyde de titane est couramment utilisé dans le secteur de l’énergie pour des procédés de catalyse ou sur des cellules solaires, on cherche toujours a en améliorer les performances. Les pistes de recherches se sont naturellement tournées vers l’augmentation de sa surface réactive en le rendant nanoporeux. Mais jusqu’ici les matériaux hybrides nanoporeux à base d’oxyde de titane n’ont pas fait leur preuve, se révélant peu photoconducteurs ou peu stables. Les chercheurs de l’Institut des matériaux nanoporeux de Paris et leurs partenaires ont réussi à trouver une nouvelle famille de MOF qui répond à ces deux limitations. Leurs travaux ont été publiés dans Nature Communication. Le composé de base a été breveté et les applications qui pourront en découler seront commercialisées par la société Framergy qui exploite déjà le MIL-125, un autre hybride nanoporeux de type MOF à base de titane, précédemment mis au point par le laboratoire et utile par exemple dans la capture de COV et dans le traitement de l’eau.

La chaleur était la clé

Cette famille de nouveaux matériaux, baptisée MIP-177 (ou MIL-177) est constituée d’oxoclusters de titane et de ligands carboxylates. Leur synthèse se fait par un procédé vert potentiellement industrialisable. Le premier composé, le MIP-177-LT pour Low temperature s’est avéré très stable chimiquement mais non photoconducteur. Cependant, quand il est chauffé, il subit une transformation de phase inhabituelle et irréversible qui génère un matériau poreux hautement cristallin. Baptisé MIP-177-HT (pour high temperature), il a révélé des propriétés photoconductrices proches de celles du dioxyde de titane dense grâce à la présence de nanofils d’oxyde de titane. On peut en outre en moduler les propriétés électriques en intégrant d’autres éléments comme des atomes de fer et, comme le précisait Christian Serre, directeur de l’Institut des matériaux poreux de Paris dans la lettre de l’innovation du CNRS de novembre 2018 « si l’on introduit un polymère conducteur (polythiophène) dans les pores du MIP-177-HT, la durée de vie des états excités engendrés par irradiation augmente de manière remarquable, ouvrant la voie à de nouvelles applications, notamment en optoélectronique ». Cette nouvelle famille constitue donc une base prometteuse pour de multiples applications et montre que les chercheurs maîtrisent de mieux en mieux la création de MOF à la carte.

Les industriels du plastique contre-attaquent

BASF, Dow, Total, Shell, ExxonMobil, LyondellBasell, Suez et Veolia comptent parmi les 30 membres fondateurs de cette nouvelle alliance internationale « pour l’élimination des déchets plastiques ». On y retrouve donc de grands producteurs de matières plastiques, des entreprises d’emballages et des acteurs de la gestion des déchets. En somme, des entreprises qui fabriquent, utilisent, vendent ou recyclent des plastiques. L’alliance sera dotée d’un milliard de dollars, avec pour objectif d’atteindre 1,5 milliard de dollars d’ici cinq ans.

« Les plastiques sont des matériaux efficaces qui peuvent économiser des ressources, favoriser la santé et la sécurité et faciliter la vie de nos concitoyens, estime Martin Brudermüller, président du Board et directeur des technologies chez BASF SE. Ces bénéfices pourraient être réduits à néant si les plastiques et leurs déchets ne sont ni utilisés, ni éliminés, ni recyclés de façon responsable. »

Priorité aux infrastructures de gestion des déchets

La pollution plastique est avant tout une problématique de gestion des déchets et des eaux usées. L’alliance mettra donc sa priorité sur le développement d’infrastructures pour collecter les déchets et les orienter vers leur recyclage prioritaire dans les grandes zones urbaines. Elle mise également sur l’innovation pour améliorer la valorisation des plastiques en fin de vie.

L’alliance compte par ailleurs sur l’éducation et l’engagement des gouvernements, des entreprises et des communautés pour les inciter à l’action. Enfin, elle participera au nettoyage des zones les plus polluées, en particulier les dix fleuves considérés comme les plus pollués par l’ONG Ocean Conservancy.

Cette nouvelle alliance vient compléter les fonds déjà alloués par l’initiative Clean Oceans dotée de deux milliards d’euros et lancée en octobre dernier par la Banque européenne d’investissement (BEI), l’agence française de développement (AFD) et le groupe KfW. Parmi beaucoup d’autres, elle s’ajoute également à l’Engagement Mondial de la Nouvelle Économie des Plastiques.

CES2019 : un clavier entièrement reconfigurable

Inventé par Nemeio, une start-up financée par le groupe LDLC, ce clavier possède 81 touches personnalisables, grâce à l’usage d’encre électronique, technologie répandue dans les liseuses. De nombreuses configurations prédéfinies- qwerty, azerty, alphabet cyrillique ou japonais, raccourcis propres à des logiciels-métiers… – sont disponibles dans la bibliothèque fournie. Des pictogrammes et symboles spécifiques peuvent être importés si besoin. Un concept novateur qui a été récompensé au dernier salon CES à Las Vegas.

C’est la souplesse du smartphone qui a inspiré les équipes de Nemeio. «La configuration ou la langue d’un clavier de smartphone peut être rapidement modifiée, au contraire de celle d’un clavier PC, qui demeure figée, indique Jasmine Marchetti, responsable de projet au sein du département R&D du groupe LDLC. Certains professionnels, comme les traducteurs, sont donc contraints d’utiliser plusieurs claviers. Les webdesigners ou les graphistes, quant à eux, collent des gommettes sur leur clavier et utilisent au quotidien de 30 à 40 raccourcis, ce qui intensifie la charge mentale.»

Une commercialisation après l’été 2019

Le clavier de Nemeio est conçu pour leur faciliter la tâche : une configuration peut être asservie à un logiciel et s’active automatiquement à l’ouverture dudit logiciel. En pratique, ce clavier, compatible Windows/MacOS/Linux, est à vocation fixe – il se branche via un câble USB-C – ou nomade, via Bluetooth. Il contient par conséquent une batterie et une mémoire capable de stocker une trentaine de configurations, sélectionnables via deux boutons. «L’écran e-paper, situé sous les touches transparentes, ne consomme de l’énergie qu’au moment du changement d’image, explique Jasmine Marchetti.  Le bandeau LED qui lui est associé sert à modifier l’intensité de l’éclairage.»

La parallaxe est un autre paramètre réglable : chaque utilisateur adoptant une posture variable devant son clavier, les caractères et symboles affichés doivent rester visibles. En matière d’ingénierie, le principal challenge a été de reproduire le système, mécanique ou à membrane, équipant les claviers classiques et mis en œuvre lorsque les touches sont pressées puis relâchées. Habituellement, un tel système se déploie sur toute la surface occupée par les touches. Il était inadapté dans le cas présent, du fait de la transparence des touches. « Afin de préserver le chemin de l’affichage produit par l’écran e-paper, nous avons dû déporter ce système, sans nuire à son efficacité et aux sensations haptiques, proches de celles d’un clavier de PC portable» poursuit Jasmine Marchetti. Les explications s’arrêtent là, secret de fabrication oblige. La campagne de financement participatif, elle, se prépare, sur Kickstarter ou Indiegogo. La commercialisation est prévue après l’été 2019, à un prix situé entre 300 et 500 €. Une coquette somme, mais ce clavier s’adresse avant tout aux pros, bien que des particuliers puissent aussi être intéressés.

FIC 2019 : des menaces de plus en plus complexes

En 2018, les exposants et les experts présents au FIC évoquaient principalement les risques concernant les téléphones mobiles et les objets connectés. Le patron de l’Agence nationale de la sécurité des systèmes d’information (ANSSI) avouait aussi sa grande crainte : le sabotage.

Dans une interview accordée à Industrie & Technologies au moment de l’édition 2018, Guillaume Poupard déclarait : « quand on s’attaque au monde du transport, on peut vite avoir des effets absolument dramatiques y compris sur les vies humaines ».

Des attaques astucieuses

Un an plus tard, les problématiques restent les mêmes. Elles s’accentuent même étant donné que les connexions entre appareils et entreprises ne cessent de se multiplier. Pour le cabinet spécialisé dans les risques numériques Wavestone,  « si en 2018, les cyberattaques se sont caractérisées par un maintien du nombre de ransomware et par des incidents de plus faible visibilité, impactant majoritairement les données clients des entreprises (Marriott, Facebook, T-Mobile…), la tendance pour 2019 va vers une multiplication d’attaques de plus en plus astucieuses, pernicieuses et complexes. »

Ce constat est partagé par de nombreux experts et décideurs. « De nouvelles faiblesses matérielles ont été révélées et des recherches ont mis en évidence les utilisations potentielles de l’intelligence artificielle pour créer des cyberattaques plus puissantes », peut-on lire dans la 14e édition du « Global Risks Report » du Forum économique mondial (WEF).

RGPD oblige, le FIC 2019 a surtout parlé du « Security by design », la sécurité prise en compte dès la conception des produits. C’est en effet l’un des nouveaux principes du règlement général sur la protection des données à caractère personnel.

Des attaquants de très haut niveau

« Les données personnelles doivent être sécurisées dès la conception des produits. Pour cela, nous devons faire en sorte que la transformation numérique soit aussi une transformation culturelle », a précisé Richard Lizurey, Directeur Général de la Gendarmerie Nationale.

« Le nombre de cibles augmente également rapidement, car le numérique est partout aujourd’hui. Il est donc très difficile d’être optimiste et de se dire que tout ça ne va pas se terminer par une catastrophe avec de vrais impacts, non seulement sur nos données, mais aussi sur la sécurité de nos concitoyens », reconnait Guillaume Poupard.

Cette prise de conscience est d’autant plus nécessaire qu’on « observe des attaquants de très haut niveau, probablement des États », signale le patron de l’ANSSI. Comme l’an passé, il a rappelé ces doutes : « une infrastructure critique qui soit gravement attaquée, sabotée, détruite par une attaque informatique. Bien malin celui qui peut se convaincre que cela n’arrivera pas ».

Une dalle LCD peut en cacher une autre

Le salon CES, qui s’est achevé il y a quelques jours à Las Vegas, a donné à voir un florilège des technologies en vogue ou à venir sur le marché des téléviseurs à écran plat : OLED, 8K, microLED… A cette liste s’ajoute désormais le sigle Dual Cell, du fait de l’industriel chinois Hisense, quatrième producteur mondial de TV. Un écran Dual Cell est équipé de deux dalles LCD superposées, technique qui procurerait de bien meilleurs contrastes que ce dont est capable usuellement un affichage à cristaux liquides. Et ce n’est pas un prototype. «Il sera vendu en Chine dès cette année, sous la dénomination commerciale ULED XD, confirme Damien Neymarc, responsable marketing de Hisense en France. La commercialisation en Europe est prévue en 2020.»

Vu de l’extérieur, cet écran de 65 pouces ressemble à beaucoup d’autres : il arbore une dalle LCD en ultra haute définition (3840×2160 pixels), désormais assez classique. Il emploie également des «boîtes quantiques» qui enrichissent la reproduction des couleurs et se répandent dans les téléviseurs haut de gamme. La différence vient de l’incorporation d’un second panneau à cristaux liquides, situé entre le rétroéclairage (constitué de plusieurs centaines de LEDs tapissant le dos de l’écran) et la dalle en ultra haute définition qui affiche l’image finale.

Cette dalle invisible, de définition Full HD (1920×1080 pixels), agit comme un masque dynamique dont les 2 millions de zones indépendantes bloquent ou laissent passer la lumière du rétroéclairage, selon l’intensité lumineuse souhaitée dans l’image.

Un contraste de 200 000:1

Cette astuce corrigerait la principale lacune des écrans LED/LCD, comparés aux écrans OLED dont les pixels sont auto-émissifs : à cause de la lumière du rétroéclairage qui filtre même quand les pixels sont éteints, les noirs ne sont jamais pleinement noirs, ce qui nuit in fine au contraste. Grâce à la dalle LCD supplémentaire à l’oeuvre dans Dual Cell, «la luminosité d’un pixel noir (donc éteint) n’est que de 0,0018 candéla par mètre-carré (cd/m²)», selon Damien Neymarc. Certes, une dalle OLED produit un niveau de noir si infime qu’il n’est pas mesurable. Mais le téléviseur ULED XD profite quant à lui d’une forte luminosité annoncée à 2900 cd/m², ce qui reste hors d’atteinte de l’OLED, et par conséquent d’un contraste de 200 000:1 (rapport entre le niveau de blanc maximal et le niveau de noir maximal), a priori excellent.

Ce procédé de fabrication engendre naturellement un surcoût, sur lequel Hisense ne livre pas d’information. Au moins connaît-on la surconsommation électrique, «de l’ordre de 15%», estime Damien Neymarc. En ce qui concerne son prix, le téléviseur ULED XD se positionnera sur un segment haut de gamme. La technologie Dual Cell trouvera-elle sa place entre le LCD, démocratisé, et l’OLED, aujourd’hui «premium» mais de plus en plus abordable ? Ou n’a-t-elle aucun avenir ? Réponse dans quelques années dans nos salons.

Une intelligence artificielle bon marché ?

Selon l’étude « Sizing the prize » de PWC, le PIB mondial pourrait croître de 14 % d’ici 2030 grâce à l’IA. Les gains de productivité engendrés par les technologies d’intelligence artificielle devraient représenter la moitié des bénéfices économiques attendus. Tous les secteurs et toutes les entreprises seront d’une manière ou d’une autre impactés par l’IA.

Lors du dernier Consumer Electronics Show (CES), Intel a annoncé qu’il s’associait avec Facebook pour développer une nouvelle puce d’IA. Dénommée NNP-I (Nervana Neural Processor for Inference), elle permettrait de déployer le machine learning de manière plus efficace et à moindre coût. Le fondeur a déclaré que la puce serait compatible avec les principaux logiciels d’IA. Mais l’accord avec le réseau social confirme que ce projet ne peut se faire sans l’expertise d’ingénieurs spécialisés dans les programmes d’IA.

Des cartes graphiques pour l’IA

Sa puce est destinée à accélérer l’inférence, c’est-à-dire la capacité d’un réseau neuronal de catégoriser automatiquement les données en fonction des données apprises.

Pour Intel, cette annonce confirme son intention de ne plus être distancé par la concurrence : la start-up britannique Graphcore (qui a récemment levé 200 millions de dollars d’investissements), des entreprises chinoises (Cambricon, Horizon Robotics et Bitmain), Google et Amazon. Mais surtout Nvidia.

Lorsque Nvidia a inventé l’architecture de traitement parallèle CUDA (Compute Unified Device Architecture) il y a près de dix ans, personne n’était sûr de leur intérêt. Utiliser une carte graphique pour exécuter des tâches spécifiques semblait improbable.

Aujourd’hui, les GPU dominent dans de nombreux domaines, depuis les applications traditionnelles comme la 3D et le rendu vidéo, jusqu’à l’intelligence artificielle…

Caméra pilotée par l’IA

Les calculs nécessaires au deep learning ne sont en effet pas optimisés avec des processeurs classiques. Les résultats sont meilleurs avec des puces qui divisent les calculs, ce qui inclut les cartes graphiques (GPU) dont c’est la spécialité de… Nvidia. Résultat, cette entreprise vend énormément de GPU haut de gamme pour l’intelligence artificielle.

La sortie de la puce d’Intel est prévue pour le second semestre 2019. Cela coïncidera avec les projets de Facebook. Pour le réseau social, cet accord confirme son intérêt de développer des casques de réalité virtuelle et des enceintes intelligentes. C’est le cas de Portal qui devrait être mis en vente en novembre aux États-Unis. Cet appareil, en forme de tablette, intègre une caméra optimisée par l’IA pour faire un panoramique, zoomer et recadrer l’image.

Lasers et univers primitif

Peu après le Big Bang, notre univers était dans un état très chaud, dense et désordonné. Il s’est depuis refroidi et étendu jusqu’à atteindre un état plus ordonné. Dans les années 70, le physicien anglais Tom Kibble a suggéré que, lors de son refroidissement, l’univers s’est organisé en patchs indépendants. Chaque patch d’univers a évolué indépendamment de ses voisins et a développé des structures uniques. Chacun de ces patchs a ensuite grandi puis touché ses voisins ce qui a créé des frontières structurelles visibles dans l’univers d’aujourd’hui. Ces domaines, nommés « défauts topologiques », sont souvent présents sous deux formes : vortex et anti-vortex. La théorie de Tom Kibble prédit et explique la formation de ces défauts durant le processus de refroidissement et plus particulièrement comment leur formation dépend de la vitesse à laquelle l’univers s’est refroidi.

Cependant, il nous est impossible de vérifier la théorie de Tom Kibble sur notre univers car cela nécessiterait des temps d’observation bien au-delà du millénaire. Dans les années 80, un autre physicien, Wojciech Zurek a prédit l’observation de la théorie de Kibble comme étant possible en laboratoire, en étudiant le comportement de refroidissement de superfluides par exemple.

En utilisant les lasers couplés comme support d’études, un groupe de l’Institut Weizmann a démontré qu’il était possible d’observer et d’étudier le mécanisme de Kibble-Zurek. Ceux-ci ont utilisé un ensemble d’une dizaine de lasers indépendants qu’ils ont ensuite couplés, de sorte que, pour assurer la survie du groupe de lasers, ceux-ci soient forcés de se coordonner. On dit alors que les lasers sont « en phase ». Tout comme notre univers après le Big Bang, les lasers partent donc d’un état désordonné et évoluent vers un état ordonné. Cependant, durant le processus de synchronisation, des domaines appelés défauts topologiques dissipatifs, présents sous forme de vortex ou d’anti-vortex, se forment et demeurent stables dans le temps, comme prédit par la théorie de Tom Kibble. Ici, les vortex et anti-vortex sont des défauts de synchronisation de la phase des lasers. Des lasers parfaitement synchronisés auraient tous la même phase, c’est-à-dire que les creux et les bosses du champ électromagnétique de chaque laser arrivent en même temps en un point donné de l’espace. Si des défauts topologiques apparaissent, ces creux et bosses ne sont plus synchronisés.

En plus de son apport certain au domaine de la physique expérimentale, ce travail permet notamment de lier deux domaines de la recherche qui interagissent peu, la physique des lasers et la cosmologie.

Rédacteur : Arnaud Courvoisier, doctorant à l’Institut Weizmann

Source : www.diplomatie.gouv.fr

Le vol d’informations personnelles à partir de vos mouvements de doigts sur un écran tactile est une réalité

Les grands noms de l’industrie font souvent appel à des sous-traitants qui fournissent un service, tel que le service après-vente. Concernant les écrans tactiles, les pièces de remplacement peuvent provenir de ce type de sous-traitants. Cependant, il a été démontré que des logiciels malveillants peuvent se cacher dans le code de ces pièces de rechange.

L’objectif du Dr. Yossi Oren a été d’utiliser ce qu’on appelle une méthode de machine learning, qui consiste en un programme d’intelligence artificielle capable d’apprendre automatiquement à partir des informations qu’il analyse. Cela concerne la conception, l’analyse, le développement et l’implémentation de méthodes permettant à une machine (au sens large) de remplir des tâches complexes à l’aide de moyens algorithmiques plus classiques.
Le Dr. Oren a présenté ses résultats lors du deuxième symposium international sur la cybersécurité, la cryptographie et le machine learning (CSCML), qui s’est déroulé les 21-22 juin 2018 à Beer-Sheva en Israël. Les résultats ont été publiés dans la revue scientifique Springer. L’équipe de chercheurs comprend les étudiants de premier cycle de BGU, Moran Azran, Niv Ben-Shabat et Tal Shkonik.
Cette analyse a été réalisée afin d’évaluer la quantité d’information que les hackers pourraient soutirer à partir de l’observation et de la prédiction des interactions que nous avons avec nos écrans. Dans ce contexte, un hacker pourrait mettre au point des attaques plus spécifiques et efficaces. Par exemple, l’attaquant peut savoir quand il doit voler des informations à l’utilisateur ou « insérer » des touches malveillantes.

Pour quantifier les informations qui peuvent être obtenues en interagissant avec un écran tactile, le Dr. Yossi Oren et son équipe ont analysé les interactions d’un utilisateur classique : ils en ont ainsi enregistré plus de 160, exécutant différentes tâches dans des applications spécifiquement créées pour l’étude.
Plus précisément, les chercheurs ont conduit leur expérimentation sur un groupe de quarante étudiants de troisième année de BGU. Les sujets étaient tenus de remplir un questionnaire personnel comprenant des questions telles que l’âge, le sexe et la main tenant habituellement le téléphone portable, ainsi que la manière dont le sujet tient le téléphone portable (ex : à deux mains), la dernière fois qu’il a joué sur son téléphone portable ou encore la dernière fois qu’il a pris un café. De plus, on a demandé aux sujets s’ils connaissaient certains jeux.

Dans la deuxième étape de l’expérience, chaque sujet a été invité à enregistrer quatre sessions d’interactions tactiles différentes sur le téléphone de test. Tout d’abord, les sujets ont été invités à jouer au jeu « Color Infinity ». L’objectif de ce jeu est de passer une balle à travers divers obstacles. Le jeu entraîne des touches rapides et courtes sur l’écran. Ensuite, les sujets devaient jouer à un jeu appelé « Briques ». L’objectif de ce jeu est de déplacer les briques d’une certaine couleur au moment où la couleur de la brique change. Ce jeu induit des touches continues sur l’écran. Lorsque les sujets ont fini de jouer, ils ont été invités à lancer le navigateur web du téléphone et à effectuer une recherche sur internet en tapant le mot « Facebook » dans la barre de recherche du navigateur. Enfin, les sujets ont été invités à rentrer dans une application e-mail sur le téléphone portable et à envoyer un e-mail comprenant un objet et une ligne de texte.
Les chercheurs ont ensuite utilisé une méthode machine learning pour déterminer la vélocité, la durée et les intervalles de touche sur des téléphones LG Nexus Android spécialement modifiés.
Selon les chercheurs, l’apprentissage de la machine a été capable de déterminer le contexte d’activité de l’utilisateur à partir des données tactiles fournies, avec un taux de prédiction de plus de 92% parmi les 4 contextes d’activité évalués.

En utilisant cette analyse de façon défensive, les ingénieurs ou spécialistes de la cyber-sécurité pourraient être en mesure d’arrêter des attaques, en identifiant les anomalies dans l’utilisation typique d’un téléphone par un utilisateur et en prévenant l’utilisation non autorisée ou malveillante d’un téléphone.

Rédacteur : Henri-Baptiste Marjault, doctorant à l’Université hébraïque de Jérusalem

Source : www.diplomatie.gouv.fr

Mesurer le monde quantique

Afin de développer les technologies quantiques qui promettent de révolutionner le monde de demain, il est nécessaire d’acquérir de profondes connaissances sur les lois de la mécanique quantique, ainsi que de développer des instruments capables de mesurer de tels phénomènes. C’est dans ce but qu’une équipe de chercheurs de l’Université Bar-Ilan, dirigée par Prof. Aviad Frydman et Prof. Beena Kalisky, ont développé un instrument capable de mesurer les effets associés aux transitions de phases quantiques, phénomène physique qui sera au cœur de ces technologies du futur.

Les transitions de phases dites classiques sont observables chaque jour par le commun des mortels. Faites bouillir de l’eau ou bien faites fondre un glaçon et vous observerez une transition de phase. En d’autres termes, il s’agit d’un changement de l’état (liquide, solide, gazeux) ou bien des propriétés d’un matériau. Si les transitions de phase qui nous sont familières se produisent lorsque l’on change la température d’un matériau, il est notamment possible d’observer de telles transitions en changeant la pression exercée sur celui-ci ou bien le champ magnétique qui l’entoure. Si les transitions de phases qui ont lieu dans l’eau de vos pâtes ou dans votre verre de pastis sont bien comprises car décrites très justement par la physique classique, les transitions de phases qui se produisent dans le monde microscopique nécessitent l’emploi des lois de la mécanique quantique pour être décrites précisément.

Dans ce monde microscopique, les familières bulles de vapeur deviennent par exemple des fluctuations quantiques dans le champ magnétique émis par les matériaux qui changent de phase. La compréhension du comportement de ces « bulles quantiques » est au cœur d’un vaste sujet de recherche. À l’aide d’un microscope capable de détecter des champs magnétiques extrêmement faibles, l’équipe de l’Université Bar-Ilan est parvenue à imager ces fluctuations quantiques pour la première fois, nous en apprenant plus sur ces phénomènes physiques fondamentaux, ouvrant ainsi la voie à l’analyse de systèmes quantiques complexes.

Rédacteur : Arnaud Courvoisier, doctorant à l’Institut Weizmann

Source : www.diplomatie.gouv.fr

Ocean Cleanup : un rêve brisé en deux

Fin d’année difficile pour Ocean Cleanup et son jeune créateur, le Boyan Slat, qui promettait « le plus grand nettoyage de l’histoire ». Le 29 décembre, une fracture a été localisée à une extrémité de cette barrière flottante (baptisée Système 001) en forme de U de 600 mètres. Une partie d’un flotteur et des cadres stabilisateurs se sont détachés. Une section de 18 mètres de long à la fin du U s’était rompue. Pas à cause d’une forte tempête, mais à cause de l’usure des matériaux.

Cette barrière comporte une « jupe » de trois mètres de long pour recueillir les déchets dans l’eau (principalement des macro plastiques, c’est-à-dire les déchets suffisamment gros pour être perçu à l’œil nu). Une fois le U rempli, un navire de soutien venait ramasser les déchets et les ramenait à terre.

Grand comme trois fois la France !

Selon la start-up, leur tube n’aurait pas résisté aux assauts répétés de l’océan. Fort heureusement, les déchets qui avaient été récupérés ne sont pas retournés à l’eau. Le tube est actuellement remorqué jusqu’à Hawaii pour y être réparé et modernisé.

Fin d’un rêve qui avait séduit des donateurs et des entreprises ? 40 millions de dollars avaient été récoltés en novembre pour tenter de récupérer une partie de l’énorme volume de déchets (73 000 tonnes selon des estimations) se trouvant au large des côtes de l’Amérique du Nord. C’est ce qu’on appelle le « septième continent », grand comme trois fois la France !

Autre mauvaise nouvelle : la start-up a signalé que le filet qu’elle utilisait ne capturait finalement pas grand-chose. Pour de nombreux océanologues, ce n’est pas surprenant. Des chercheurs avaient indiqué que l’océan démolirait facilement un tube de plastique de 600 mètres de long. Par ailleurs, cette solution ne pourrait récupérer qu’une fraction des déchets, c’est-à-dire ceux à la surface de l’eau.

Changer les mentalités

Une autre solution est actuellement testée.  Le Waterfront Partnership of Baltimore a déployé deux roues (équipées de globes oculaires géants) qui soulèvent les déchets hors de l’eau et les jettent dans des barges. 1 000 tonnes de déchets ont ainsi été récupérées.

L’échec de Ocean Cleanup confirme que le plastique dans les océans reste un problème extrêmement difficile à résoudre. On peut toujours dépenser des millions d’euros dans des projets, cela restera toujours moins efficace qu’un changement de mentalités !

Revue du web #120 spéciale CES 2019 : les vidéos les plus étonnantes

La « voiture à pattes » signée Hyundai

Mi-voiture, mi-robot, elle roule, elle marche et elle rampe !

 

Le casque de moto high tech

Fini les angles morts !

 

Le taxi autonome hélicoptère

Signé Safran, ce véhicule hybride est promis à un bel avenir de VTC volant.

 

La moto autonome de BMW

Après la voiture sans chauffeur, la moto sans pilote…

 

Le smartphone à écran pliable de Royole

Ouvert, il ressemble à une tablette. Fermé, c’est un smartphone classique. Doté d’une dalle flexible de 7,8 pouces, le dernier né de Royole a fait sensation lors du CES.

 

La télévision enroulable de LG

Le téléviseur LG Signature Oled TV R enroulable peut-être commandé à la voix et disparaître à l’envi, un atout indéniable pour les passionnés de design intérieur.

Par I. B.