EDF Renouvelables déploie ses ailes en France

Les capacités installées brutes de la filiale dédiée d’EDF ont progressé de plus de 70% sur les cinq dernières années, soit à un rythme moyen de 12% par an. EDF Renouvelables vient ainsi de franchir la barre des 2 000 MW bruts de capacité en éolien et en photovoltaïque dans l’Hexagone. Une accélération qui s’inscrit dans le cadre de la stratégie CAP 2030 du groupe, dont l’objectif est de doubler ses capacités renouvelables mondiales pour les porter à 50 GW nets en 2030, très majoritairement par croissance organique, insiste le groupe qui présentait ces résultats en début de semaine.

Succès de la phase préparatoire du Plan solaire

Le Plan solaire, qui vise à remettre EDF en position de leader du solaire en France, avec un objectif de 30% de part de marché d’ici 2035 et de disposer de 30 GWc à cet horizon, affiche des premiers résultats. En termes de centrales solaires « au sol », le groupe a multiplié par sept en deux ans la surface foncière sécurisée, pour atteindre les 2 000 hectares. Le volume de projets disposant d’un permis a progressé dans le même temps (multiplié par cinq), et le nombre de projets lauréats d’appels d’offres de la CRE (Commission de régulation de l’énergie) a été sextuplé (23 projets CRE pour 180 MWc). EDF dispose ainsi de 500 MWc autorisés et s’est renforcé en 2019 par l’acquisition de Luxel.

Sur le segment des grandes toitures et ombrières de parking, EDF indique disposer de 10% du marché environ, avec 130 MWc installés en 2019, soit deux fois plus qu’en 2018.

Par ailleurs, les installations solaires en toiture portées par la filiale EDF ENR connaissent également un fort développement, signale EDF. Avec 20 % de part de marché, EDF est aujourd’hui leader en France de l’autoconsommation solaire avec plus de 10 000 installations sur le marché résidentiel et une centaine chez les clients industriels et tertiaires.

Pour les particuliers, avec l’offre « mon soleil & moi », EDF estime pouvoir atteindre le millier d’installations par mois en 2020, tandis que pour les professionnels, l’objectif est de multiplier par trois le nombre d’implantations en autoconsommation l’an prochain.

EDF estime ainsi que la phase préparatoire du Plan Solaire a donc été menée avec succès et va entrer désormais dans sa phase de déploiement opérationnel. La durée totale de développement d’un projet solaire, depuis l’identification d’un site jusqu’à la mise en service de l’installation, est actuellement en France de l’ordre de 4 à 5 ans, insiste EDF.

Année record sur l’éolien

En France, l’année 2019 constitue une année record pour l’éolien, signale EDF, avec 190 MW de capacités mises en service et le lancement de la construction de 200 MW. EDF dispose ainsi de 1664 MW éoliens et a en développement quelques 2 000 MW. EDF renouvelables a également procédé à son premier « repowering » (remise à niveau) sur le parc de Petit-Canal, en Guadeloupe, passant de 7 MW à 12 MW, tout en réduisant le nombre de machines de 32 à 14. En outre, un système de stockage par batteries est mis en œuvre pour s’adapter à la demande locale. L’année 2019 est aussi celle des premiers PPA (contrat de gré à gré), via la filiale Agregio, pour un parc dans l’Aude (à Fitou) avec Maïsadour et avec la FEDA, pour des exportations vers l’Andorre en provenance de parcs situés en Occitanie.

Enfin, 2019 est également l’année du démarrage de l’éolien en mer. EDF a annoncé, il y a quelques semaines, le lancement de la construction du parc éolien en mer de Saint-Nazaire avec son partenaire canadien Enbridge. D’une capacité installée de 480 MW, ce parc sera le premier à être implanté au large des côtes françaises, avec une mise en service prévue en 2022. En outre, après la fin des recours, il est prévu de lancer la construction des projets de Fécamp et de Courseulles-sur-Mer courant 2020. Sans oublier qu’en juin dernier, le consortium mené par EDF Renouvelables a été déclaré lauréat du troisième appel d’offres lancé par le gouvernement pour le projet de Dunkerque (environ 600 MW).

Autant de motifs de satisfaction pour Bruno Bensasson, directeur exécutif groupe d’EDF en charge du Pôle énergies renouvelables et PDG d’EDF Renouvelables.

Sommes-nous (réellement) face à une sixième extinction de masse ?

Techniques de l’Ingénieur : Il y a eu par le passé cinq épisodes d’extinction de masse. Elles se définissent notamment par la disparition d’au moins 75% des espèces animales et végétales sur terre et dans les océans. Selon ces critères, peut-on estimer que nous sommes effectivement en train de vivre un nouvel épisode d’extinction des espèces ?

Maxime Pauwels : Non, il serait trop prématuré de parler de cela actuellement. Aujourd’hui, le nombre d’extinction des espèces ne correspond pas. Par exemple, on considère que 1% des vertébrés ont disparu. On est loin des 75%. A minima, nous pourrions être au début d’un phénomène d’extinction de masse, mais il est encore trop tôt pour en être certain. Aujourd’hui, les espèces ne sont pas fatalement amenées à disparaître. Estimer que nous sommes actuellement dans un épisode d’extinction de masse serait très fataliste. Je préfère être optimiste.

Si le vivant ne fait pas face à une extinction de masse, ne serait-il pas envisageable de considérer que nous sommes face à un phénomène d’un type nouveau ?

Il faut comprendre qu’en fait, les espèces disparues ne sont pas aussi nombreuses qu’il pourrait sembler. Mais attention à bien comprendre aussi ce que signifie taux d’extinction : il s’agit de la vitesse de disparition. Il est vrai qu’aujourd’hui des espèces disparaissent plus vite que la normale. Par ailleurs, pour de nombreuses espèces, nous constatons un déclin démographique clair. La dynamique est mauvaise. Pour distinguer extinction et déclin démographique, je préférerais parler de crise de la biodiversité.

Comment devrions-nous donc interpréter le déclin actuel des espèces ? Est-ce que l’homme peut faire quelque chose pour ralentir, endiguer ou inverser ce phénomène de déclin ?

Le déclin est une marche vers l’extinction. Si une espèce n’a de cesse de décliner, elle disparaîtra. C’est pour cela que l’UICN [l’Union internationale pour la conservation de la nature, NDLR] répertorie les espèces en déclin, qu’elle classe menacées d’extinction. Cela permet de veiller dessus et d’identifier les situations problématiques. Et il est clair qu’à l’Anthropocène [terme débattu par la communauté scientifique pour désigner la nouvelle ère géologique dans laquelle les activités de l’homme ont une influence significative sur l’écosystème, NDLR], notre espèce joue un rôle dans l’accélération du processus.

Pour la plupart, sinon toutes les espèces en déclin, il est possible d’identifier au moins une cause liée aux activités humaines. Mais tant qu’une espèce n’a pas disparu, si on peut identifier la cause de son déclin, on peut aussi essayer de l’endiguer. Le discours scientifique ne permet pas d’affirmer que le déclin d’une espèce se soldera forcément par son extinction. Autrement, réfléchir à la préservation des espèces serait absolument inutile. Par ailleurs, certains programmes de conservation ou de protection ont prouvé leur efficacité. Ça a été notamment le cas pour le rorqual commun, dont la population est en expansion depuis l’interdiction de la chasse commerciale.

 « L’idée que nous nous dirigeons vers une extinction massive n’est pas seulement fausse, c’est une recette pour la panique et la paralysie » déclarait Stewart Brand dans le magazine américain Aeon en 2015. Partagez-vous son avis ?

D’un point de vue purement scientifique, l’idée d’une actuelle sixième extinction de masse des espèces ne me semble pas fondée. Cependant, cette expression a peut-être l’avantage d’être efficace du point de vue de la communication. Peut-être qu’en termes de psychologie sociale, cette expression est efficace pour marquer les esprits, mais j’en doute. Sur le fond, la communauté scientifique est d’accord pour parler de l’accélération du déclin des espèces, mais se divise sur le fait de parler d’une sixième extinction de masse. Cette terminologie est peut-être plus militante que scientifique.

Au XVIIIème siècle, le biologiste et académicien des sciences Georges-Louis Leclerc de Buffon avait conceptualisé l’idée selon laquelle le vivant serait composé d’alternances entre phases d’extinction et de renouvellement. Cette idée est-elle toujours recevable aujourd’hui ? Si oui, ne permettrait-elle pas de relativiser les conséquences de l’Anthropocène sur les différents écosystèmes ?

Au cours de l’histoire, le vivant a connu des phases d’expansion, de crise et de stagnation, ce n’est pas faux. La biodiversité est actuellement plus riche qu’elle ne l’était il y a 500 millions d’années. Cependant, elle l’est moins qu’il y a quelques siècles. L’actuelle forte phase de déclin est contraire à la tendance. Les cinq extinctions précédentes ont effectivement été suivies de radiations évolutives après déclin, mais ces phénomènes se sont produits sur des millions d’années. Le rapide déclin que connaissent les espèces aujourd’hui leur laisse un temps bien trop court pour s’adapter. Bien que les scientifiques ne sachent pas combien de temps est nécessaire à une adaptation, il n’est pas spontané, jamais inférieur à plusieurs générations, qui peuvent correspondre à plusieurs décennies pour les espèces à temps de génération long.

Actuellement se déroule à Madrid la COP 25 sur les changements climatiques. Pensez-vous que ce type d’événements est nécessaire à la défense des espèces en déclin ?

Les COP sont nécessaires. Il est juste dommageable que les engagements soient rarement contraignants. Les décisions prises sont souvent assez légères. En revanche, la COP actuelle se focalise uniquement sur le changement climatique. C’est nécessaire, mais ce n’est pas suffisant. Il existe une autre COP, moins médiatisée [la « COP biodiversité » dont la 15ème édition se tiendra en Chine en 2020, NDLR]. Les médias devraient mettre davantage l’accent dessus. Ensuite, il faut que les politiques jouent leurs rôles. Les scientifiques sont là pour alerter sur ce qui se passe, mais pour que les choses changent, il faut que des décisions fortes soient prises.

La demande énergétique des collectivités territoriales continue d’augmenter

Ainsi, en 2017, les consommations d’énergie des collectivités locales s’élèvent à près de 37,65 TWh, contre 36 TWh en 2012. S’y ajoutent 2 TWh consommés par les syndicats d’eau et d’assainissement (par la suite, cette part n’est pas prise en compte). Et la demande par habitant progresse aussi, atteignant 555 kWh par an, contre 537 kWh/an/habitant en 2012.

Cette demande se répartit ainsi : 78% pour le bâtiment, 12% pour l’éclairage public, 3% pour la gestion des déchets et de l’eau et 7% pour les carburants. La hausse de la demande des collectivités locales est principalement due à la hausse de la consommation des bâtiments (+13%), malgré un recul de la demande liée à l’éclairage public (-30%) et celle des transports (-16%). Assez logiquement, le poids du patrimoine bâti tend à augmenter avec la taille des communes. La part de demande énergétique du bâtiment passe ainsi de 78% pour les communes de 500 à 1 999 habitants à 84% pour celles de plus de 50 000 habitants.

Les émissions de CO2 liées à ces consommations énergétiques, atteignent les 6 millions de tonnes de CO2 en 2017, soit en moyenne 152 g de CO2 /kWh. Et c’est logiquement le bâtiment qui est responsable de la majorité des rejets carbonés des collectivités, contre 11% pour les transports et 5% pour l’éclairage public.

En revanche, grâce à des améliorations en matière d’efficacité énergétique notamment, le coût total de la facture des collectivités pour l’énergie diminue, à 3,6 milliards d’euros, contre 3,8 milliards d’euros en 2012. Par habitant, la facture moyenne atteint ainsi les 57 euros par an.

En moyenne, le poids de l’énergie dans le budget de fonctionnement des collectivités est de 4,2%, avec une certaine disparité (6,8% pour les municipalités de 500 à 1 999 habitants), mais 3,0% pour les villes de plus de 50 000 habitants.

D’après l’enquête, les deux énergies les plus consommées sont le gaz naturel (39% du total pour les communes de métropole de plus de 500 hab., hors PLM – Paris Lyon Marseille) et l’électricité (39% également de la demande totale). Dans le bâtiment seul, le gaz pèse 48% et l’électricité 32%.

A noter que la part de l’électricité a reculé de 45% à 39% entre 2012 et 2017, tandis que celle du gaz a progressé de 34% à 39% pour ces communes. En métropole, les réseaux de chaleur représentent 6% de l’énergie des collectivités.

En matière de dépense, l’électricité compte pour 60% de la facture et 20% pour le gaz pour les communes de plus de 500 hab., hors PLM.

Les collectivités ont profité de la possibilité de mise en concurrence. Ainsi, 51% ont changé d’opérateur pour le gaz naturel et 41% pour l’électricité. Dans le cas du gaz naturel, le changement concerne souvent l’ensemble du parc, alors que pour l’électricité, dans la moitié des cas, seule une partie du parc est concernée.

ENR et objectifs climat

Le recours aux énergies renouvelables (ENR) est en progression sur le patrimoine bâti. La part des collectivités ayant recours aux ENR pour leurs bâtiments passe de 17%, en 2012, à 28%, en 2027, pour les communes, et de 29% à 59% pour les GFP.

Néanmoins, les collectivités locales vont devoir accélérer leurs efforts en matière de réduction de leur consommation d’ici 2030, notamment celles qui entrent dans le cadre de la loi ELAN (Evolution du Logement, de l’Aménagement et du Numérique). C’est-à-dire celles qui possèdent des bâtiments d’une surface supérieure à 1 000 m2, qui vont disposer d’objectifs de réduction des consommations d’énergie pour les bâtiments du secteur tertiaire (une réduction des consommations d’énergie finale d’au moins 40% dès 2030 puis de 50% en 2040 et 60% en 2050 par rapport à 2010).

Seulement 34% des communes ont un élu en charge de l’énergie, et 45% des GFP. Au sein des collectivités, les missions de gestion de l’énergie sont de plus en plus souvent déléguées. En 2017, seulement 19% des communes ont un agent en charge de la gestion de l’énergie, contre 31% des communes en 2005. Le soutien aux petites collectivités est apporté par les conseils en énergie (CEP), auxquels ont recours 16% des communes de l’enquête.

Cette étude est réalisée en partenariat avec la Caisse des Dépôts, la Fédération nationale des collectivités concédantes et régies (FNCCR), l’Association des Ingénieurs Territoriaux de France (AITF) et le réseau des CEP (Conseillers en Énergie Partagés). Elle prend en compte quelque 7 000 collectivités.

* Un GFP est une communauté de communes, communauté d’agglomérations, communauté urbaine, métropoles, syndicat d’agglomération nouvelle.

L’authentification biométrique favorisée par la 5G ?

Depuis 2013, avec l’introduction du premier iPhone 5 et la vérification d’empreintes digitales TouchID, la biométrie est entrée progressivement dans nos usages quotidiens.

Le premier cas d’utilisation des empreintes digitales a été de déverrouiller le téléphone. Il est également utilisé pour se connecter aux applications mobiles et effectuer le paiement NFC mobile en magasin.

Mais avec sa promesse de débits plus élevés  et de réseaux plus fiables, la 5G devrait avoir un impact important sur les utilisateurs de smartphones et d’Internet des objets (IoT), dans les années à venir. Ce sera le cas pour le paiement mobile.

La semaine dernière, plus de 25 000 personnes sont venues au Slush Helsinki 2019, dont 3 500 startups et 2 000 investisseurs. Sur les «terres» d’Ericsson, les professionnels ont pu découvrir les dernières tendances et innovations.

Telia (opérateur télécom suédois) et OP Bank (groupe coopératif bancaire finlandais) ont notamment présenté des applications de paiement 5G intégrées à la technologie de reconnaissance faciale.

Moins de risques de fraude

La solution Pivo Face Payment ne nécessite ni carte de crédit, ni argent comptant, ni téléphone intelligent. Les utilisateurs n’ont qu’à se tenir devant une tablette et la technologie de reconnaissance faciale identifiera le client en faisant correspondre le visage avec un modèle biométrique.

Pour l’instant, il s’agit encore de tests. Mais ils représentent un bon exemple d’un service qui pourrait profiter de l’augmentation des débits et de la réduction de la latence offerte par la 5G. Selon des expérimentations menées fin 2017 par Intel et Foxconn, le processus d’authentification de paiement ne dure que 0,03 seconde.

La biométrie apparait donc comme une alternative pour remplacer les mots de passe. Si le remplacement ne sera pas total, certains usages pourraient être facilités, et notamment les achats. Selon une étude menée par l’Université d’Oxford en collaboration avec Mastercard, la majorité des consommateurs (93 %) préfère la biométrie aux mots de passe pour valider ce type d’opérations.

Toutefois, l’acceptation par les clients des différentes solutions d’authentification biométriques n’est pas égale. Elle dépend de la familiarité avec la technologie, de la perception d’intrusion, de l’effort nécessaire (temps et geste requis de l’utilisateur) et de l’exactitude du système.

Selon une étude réalisée par Visa à Singapour, la reconnaissance des empreintes digitales (88 %), du visage (56 %) et de l’iris (50 %) sont respectivement les solutions qui recueillent le plus d’acceptation des usagers.

Pour les défenseurs de ce moyen d’authentification, la biométrie faciale réduit les risques de fuite d’informations personnelles et de fraude par carte de crédit.

Aucun système d’authentification biométrique n’est sûr à 100 %. Les derniers appareils de reconnaissance faciale sont plus difficiles à tromper par une simple photo. Une fraude massive, c’est-à-dire une fraude qui tromperait le système biométrique pour des centaines ou des milliers de transactions, est peu probable.

Les dinosaures à plumes aussi avaient des poux

« Ce nouvel insecte, appelé Mesophthirus engeli, présente une série de caractères morphologiques des parasites externes: un minuscule corps sans aile, une tête avec de grosses pièces buccales faites pour mâcher, des antennes courtes et robustes… », explique à l’AFP Chungkun Shih, du National Museum of Natural History de Washington ajoutant qu' »il ne se nourrissait pas de sang mais de plumes de dinosaure ».

Les insectes (dix nymphes), « assez semblables aux poux modernes », et deux plumes de dinosaures, étaient conservés dans de l’ambre résultant de sécrétions de végétaux fossilisés veilles d’environ 100 millions d’années.

Selon l’étude, l’une des plumes était endommagée, apparemment par mastication, comme le sont maintenant les plumes des oiseaux infestées par les poux.

Si on savait déjà que des insectes festoyaient de sang de dinosaures, jamais chercheurs n’avaient mis la main sur des parasites amateurs de plumes.

Et cela n’a pas été facile: « Nous avons vérifié près d’un millier de plumes appartenant à des collectionneurs d’ambre », raconte Chungkun Shih.

La découverte des « plus vieux insectes se nourrissant de plumes » va permettre aux spécialistes d’en apprendre un peu plus sur l’origine de ces insectes. Même s’ils ne peuvent pas encore prouver que ces poux précoces sont les ancêtres de ceux qui infestent les oiseaux d’aujourd’hui.

« Comme nous n’avons pas trouvé de Mesophthirus engeli associés à des plumes d’oiseaux, nous ne pouvons pas faire de conclusions formelles sur les relations évolutives entre les poux des oiseaux et ceux des dinosaures à plumes », précise Chungkun Shih.

lc/ial/or

© Agence France-Presse

De Paris à Marseille, quels engagements contre la pollution de l’air ?

Si les grandes agglomérations commencent à s’intéresser à certains aspects de la pollution de l’air, les défis restent importants. « Aucune des grandes agglomérations françaises ne va aujourd’hui assez loin pour protéger efficacement ses habitants de la pollution de l’air », estime le rapport commun de Réseau action climat, Greenpeace et UNICEF France publié le 11 décembre. Celui-ci dresse un bilan de l’action engagée par les 12 plus grandes agglomérations françaises ces cinq dernières années en la matière.

De Paris à Marseille, des engagements à consolider

La zone à faibles émissions de Paris est déjà opérationnelle et regroupe 49 communes du Grand Paris. Grâce à elle, la capitale se hisse en tête du classement. En plus, la ville a pour objectif une sortie complète du diesel en 2024 et une sortie de l’essence en 2030. Strasbourg se positionne en ce sens, Grenoble doit confirmer son engagement. « La très grande majorité des villes et métropoles françaises tardent à s’engager vers la fin de la voiture individuelle essence ou diesel et la sortie du tout-voiture », regrette Lorelei Limousin, responsable des politiques Climat – Transports pour le Réseau Action Climat France.

Marseille se trouve en fin de classement, quel que soit l’indicateur retenu. Montpellier et Nice sont aussi dans le rouge, en fin de classement. D’autres agglomérations, comme Lyon et Nantes, se démarquent positivement sur certains enjeux, mais restent trop timides sur la réduction de la place de la voiture et la sortie des véhicules polluants. Les politiques des autres agglomérations – Bordeaux, Lille, Rennes et Toulouse – restent trop faibles sur l’ensemble des sujets.

Les élections municipales en perspective

Les ONG veulent profiter des élections municipales pour que les candidats prennent des engagements sur la mobilité et la pollution de l’air. « La lutte contre la pollution de l’air, dont le trafic routier est largement responsable en ville, et le développement des mobilités durables seront des sujets incontournables de la prochaine échéance électorale : les nouveaux élus devront prendre des mesures à la hauteur de l’urgence sanitaire et climatique », prévient Sarah Fayolle, chargée de campagne Transports à Greenpeace France.

Les ONG appellent couramment à agir en urgence contre la pollution de l’air. Elles demandent de réduire la place de la voiture, développer les mobilités douces et les transports en commun. Cela passe par la mise en place de zones à faibles émissions, et l’adoption de politiques de sortie du diesel et de l’essence. Afin d’accélérer la transition vers des modes de déplacement et de transports moins polluants, les agglomérations peuvent mettre en place des aides financières spécifiques. Enfin, les ONG appellent à des mesures spécifiques pour un public plus vulnérable, les enfants.

La « laitue de mer », un réservoir prometteur de biomolécules

Les ulves, ces algues vertes couramment désignées sous le nom de « laitue de mer » et qui sont responsables de marées vertes lorsqu’elles pullulent et s’échouent sur les plages, constituent, comme la plupart des espèces d’algues, des réservoirs de biomasse et de biomolécules potentiellement très intéressantes.

Jusqu’à maintenant, le principal problème pour accéder à ces « richesses » était de trouver des moyens de décomposer le végétal. Et, notamment, de découper les polysaccharides qui en forment l’essentiel de la structure. L’un des principaux polysaccharides des ulves est l’ulvane, présent dans les parois des algues et qui représente jusqu’à 30 % du poids sec de ces algues.

Une équipe internationale composée de chercheurs de la station biologique de Roscoff (CNRS/Sorbonne Université), de chercheurs allemands des universités de Brême et de Greifswald, ainsi que de chercheurs de l’université technique de Vienne (Autriche), a élucidé et caractérisé les voies de dégradation complète de l’ulvane par une flavobactérie marine, Formosa agariphila.

Leurs travaux, parus dans Nature Chemical Biology déterminent ainsi qu’il faut pas moins de douze enzymes agissant de manière séquentielle pour convertir l’ulvane en sucres simples et fermentescibles.

Une machinerie très complexe

Les polysaccharides des algues sont décomposés par des bactéries qui fournissent alors une importante source d’énergie pour l’ensemble de la chaîne alimentaire marine. Mais comment se fait cette dégradation, par quelle voie ? Jusque-là, nous n’avions pas de réponse précise et claire. Et on peut dire que le processus de dégradation est particulièrement complexe : dans une série d’étapes extrêmement nombreuses, douze enzymes sont utilisées pour casser les macromolécules en plus petites unités. En utilisant la spectroscopie par résonnance magnétique (RMN) et la spectrométrie de masse, les chercheurs ont déterminé quelles étaient ces unités, révélant les différentes routes chimiques empruntées par ces bactéries pour décomposer l’ulvane. Cela a permis de caractériser et de préciser la fonction biochimique des différentes enzymes mais aussi d’accéder à toute une boîte à outils de nouveaux biocatalyseurs. Parmi les douze enzymes, on retrouve deux polysaccharides lyases, trois sulfatases et sept glycoside hydrolases.

Des débouchés potentiels nombreux

Il faut rappeler que les polysaccharides des algues marines sont chimiquement différents de ceux que l’on trouve dans la biomasse terrestre et nous méconnaissons énormément comment ils sont dégradés. Ainsi, outre les applications biotechnologiques, cette connaissance apporte aussi des informations importantes pour comprendre le cycle du carbone marin, une des grandes inconnues d’aujourd’hui concernant les réelles capacités de stockage du CO2 par les océans et l’impact de la concentration du CO2 atmosphérique sur l’évolution écologique de ceux-ci. Précisons que les algues sont à la base de l’écosystème marin et stockent plus de carbone que toutes les plantes terrestres réunies.

Par ailleurs, cela ouvre la voie à une exploitation biotechnologique de ces algues de manière rationnelle et maîtrisée, l’exploitation pouvant prendre la forme de fermentations autant que de l’isolation de sucres à haute valeur ajoutée comme l’acide iduronique ou le rhamnose sulfaté. Si une partie de ces sucres pourraient servir à la production de bioéthanol, ce n’est pas là le débouché qu’ont en tête les chercheurs car il ne serait pas économiquement rentable.  Aussi, l’intérêt de ces travaux réside surtout dans la possibilité d’accéder à d’autres molécules aux propriétés recherchées pour l’agro-alimentaire, les cosmétiques, la santé ou encore pour une filière de bioplastiques. En effet, les ulvanes ont déjà été identifiées comme ayant des propriétés immunostimulantes utilisables pour la santé des animaux (élevage porcin notamment), des activités phytosanitaires pour l’agriculture ou encore des actions bénéfiques sur la peau.

Une solution pour les marées vertes ?

D’emblée, on peut dire que si la recherche sur l’exploitation en aval des sous-produits des algues vertes a avancé avec ces recherches, l’amont de la filière est plus problématique. A ce jour, les algues échouées sur les plages ne sont pas utilisables pour des applications en biotechnologie, car lorsqu’elles sont récoltées elles sont déjà dégradées. Les biotechnologies nécessitent l’emploi d’algues fraîches. En outre, les marées vertes sont des phénomènes ponctuels dont la récurrence n’est pas toujours prévisible, et donc l’approvisionnement trop fluctuant pour une filière industrielle stable. L’industrie se tourne donc soit vers des solutions de récolte en mer, mais se posent alors des problèmes d’impact sur la biodiversité et l’écosystème marin où se fait la pêche, soit sur des cultures en mer ou en tank. Solutions étudiées dans divers pays à l’échelle industrielle comme l’Espagne ou le Portugal.

Reste alors à poursuivre la prévention des rejets agricoles riches en nitrates et à améliorer notre connaissance du phénomène. A l’instar des nombreuses études qui viennent d’être lancées pour les sargasses aux Antilles (cf. Sargasses: Philippe promet que « l’accompagnement de l’Etat » se poursuivra « dans la durée » et Valoriser les sargasses, une affaire de sciences et de business) et qui visent à comprendre les mécanismes de ces pullulements, les prévenir, organiser la récolte avant échouage ou encore développer une filière solide de récolte, de traitement et d’utilisation en aval (production d’énergie par méthanisation, d’engrais etc.).

HAP2U offre de la texture aux interfaces tactiles avec sa technologie haptique

Pour offrir du réalisme, l’entreprise amplifie la sensation du toucher afin de donner à l’utilisateur une impression de relief et de texture. Elle intègre sous l’écran des capteurs piézoélectriques céramiques contrôlés par des puces électroniques. Les actionneurs se déforment sous l’effet d’un signal électrique et transmettent la déformation sous la forme d’un frottement à la surface. En modulant l’amplitude du signal électrique, la technologie permet de modifier le coefficient de friction de la surface de l’écran et donc le ressenti sous le doigt. Les puces qui les contrôlent vont venir synchroniser les actionneurs avec la position du doigt, pour restituer précisément la sensation. L’entreprise a récemment déposé de nouveaux brevets pour développer sa technologie haptique en couche mince, en réduisant la couche piézoélectrique de 1,5 mm à seulement 2 microns de matériau. Cela lui permettrait d’être intégrée dans la nouvelle génération de smartphone. Hap2U dévoilera un démonstrateur de smartphone avec sa technologie intégrée en janvier prochain au CES de Las Vegas.

Une intégration multi-surfaces

Début 2019, Hap2U avait déjà rendu sa technologie multitactile, multisurface et 3D. “Multi-touch” car l’utilisateur peut utiliser plusieurs doigts simultanément sur différentes zones de l’écran en ayant le retour haptique correspondant à chaque section, celui-ci pouvant varier de texture, relief ou intensité. “Multi-surface” en étendant la technologie à différents matériaux comme le bois, le verre, le métal et le plastique. Et “3D” en appliquant à un bouton 3D le retour haptique émanant de la surface sur laquelle il est posé. “Une de nos spécificités est d’être disponible sur un large spectre de supports” ajoute Corentin Lefebvre, chargé d’affaires chez Hap2U. “Notre limite est la rigidité de la matière pour pouvoir maîtriser la propagation de l’onde. Nous avons également fait des démonstrations sur des surfaces non planes, comme un écran courbe ou des boutons”. On peut imaginer également une intégration directe dans le volant.

Depuis sa création en 2015 par Cédrick Chappaz – chercheur scientifique au CEA-Leti et à l’université de R&D de STMicroelectronics, il a travaillé pendant 10 ans dans le domaine des microtechnologies –, la start-up a déposé une vingtaine de brevets pour protéger sa technologie.

HAP2U a pour objectif d’intégrer sa technologie haptique à toutes les interfaces tactiles du marché de l’automobile, de la fabrication, de l’internet des objets, ainsi que de produits de maison intelligente pour changer nos interactions avec les objets et les machines. “On avance sur un projet d’intégration avec Mercedes” ajoute Corentin Lefebvre. “On sera dans les prochaines sorties véhicules, sur le tableau de bord central”. L’entreprise avait levé 4 millions du groupe Daimler (Mercedes) l’année dernière pour développer sa technologie.

Une nouvelle campagne de financement

L’automobile est un marché important mais très concurrentiel sur les technologies de retour haptique. Ces dernières apporteraient un gain de sécurité à son utilisateur qui ne serait plus obligé de quitter la route des yeux pour réaliser des actions sur l’écran du tableau de bord, comme augmenter le chauffage ou encore changer de musique. Différentes sociétés ont intégré ou mettent en avant leurs technologies, comme Audi en intégrant dès 2017 du retour haptique sur ses écrans de console centrale. C’est également le cas de Continental qui a dévoilé au CES 2019 des parties d’écran en retour haptique, ou Ford qui s’est associé en 2018 avec la start-up Aedo afin de mettre au point un appareil fixé à la vitre de ses véhicules pour créer des perceptions tactiles du paysage pour les personnes malvoyantes. Ultrahaptics, qui a mis au point de la reconnaissance gestuelle avec retour haptique par ultrasons et a racheté LeapMotion en mai dernier, a travaillé avec l’équipementier Harman (groupe Samsung) et Bosh en 2017. “Notre différence repose dans notre prisme de textures beaucoup plus large que les technologies vibrotactiles du marché, affirme Corentin Lefebvre. Nous arrivons par exemple à faire ressentir des textures glissantes.”

Bien que l’entreprise réalise des prototypes, celle-ci souhaite recentrer son activité exclusivement sur la vente de licences. La start-up prépare actuellement une nouvelle campagne de financement pour étendre ses activités sur les marchés précédemment cités en 2020, entre 10 à 13 millions. Son chiffre d’affaires 2018 s’élevait à 500 000 €, et son équipe a doublé de taille en quelques mois, passant de 14 à 30 employés. L’objectif pour 2020 serait de recruter environ 20 personnes supplémentaires. Hap2U devrait atteindre 1,2 million de chiffre d’affaires d’ici fin 2019.

Feu vert de Bruxelles à une aide en faveur de l’Airbus des batteries

Ce projet d’intérêt européen commun (PIIEC) avait été notifié conjointement par l’Allemagne, la Belgique, la Finlande, la France, l’Italie, la Pologne et la Suède. Il vise plus particulièrement à soutenir la recherche et l’innovation dans le secteur prioritaire européen commun des batteries.

La Commission européenne autorise ainsi, au cours des prochaines années, ces sept États membres à contribuer à hauteur de quelque 3,2 milliards € au financement de ce projet, qui devrait permettre de mobiliser 5 milliards € supplémentaires en investissements privés, signale le communiqué de la Commission. De manière plus spécifique, la France a demandé l’autorisation pour fournir une aide allant jusqu’à 960 millions € environ, contre quelque 1,25 milliard € pour l’Allemagne ; la Belgique pourra aller jusqu’à 80 millions € environ ; la Finlande, quelque 30 millions € ; l’Italie, jusqu’à 570 millions € ; la Pologne, jusqu’à 240 millions € et la Suède, jusqu’à 50 millions € environ.

Toutefois, indique la Commission européenne, une part importante des bénéfices supplémentaires réalisés par les participants sera partagée avec les contribuables grâce à un mécanisme de récupération (dit de « claw-back »). En d’autres termes, si les projets sont un succès parce qu’ils dégagent des revenus nets supplémentaires dépassant les projections, les entreprises restitueront aux États membres respectifs une partie de l’argent perçu auprès des contribuables.

Le projet, initié il y a plus de 18 mois par la France et l’Allemagne, et soutenu depuis l’an dernier par la Commission européenne avec un plan d’action stratégique pour l’« European Battery Alliance », s’articule autour de quatre grands axes de sous-projets* : Les matières premières et les matériaux avancés, les cellules et modules des batteries, les systèmes de batteries, et enfin, la réaffectation, le recyclage et le raffinage. L’ensemble du projet devrait prendre fin en 2031 (avec des calendriers différents selon chaque sous-projet).

Des partenaires privés

Le PIIEC comptera 17 participants directs, principalement des acteurs industriels, dont des petites et moyennes entreprises (PME), certaines étant présentes dans plusieurs États membres. Les participants directs collaboreront étroitement les uns avec les autres et avec plus de 70 partenaires externes, comme des PME et des organismes publics de recherche de toute l’Europe. A noter que sur les 17 participants directs, seules deux entités ont une présence en France, le groupe belge Solvay et l’allemand ACC (spécialiste des bobines et transformateurs électroniques), tous deux basés également en Allemagne. Du côté des constructeurs automobiles, seul l’allemand BMW apparaît dans le tableau leader, sur les trois premiers axes de recherche, malgré des appels lancés en France. Le groupe chimique allemand BASF est également présent dans ce panel de tête, notamment en début et en fin de chaîne. Côté allemand, Varta (spécialiste des batteries) et Umicore (mines) sont également présents. Le polonais Eneris (spécialisé dans le recyclage) se glisse dans toutes les catégories de sous-projets ; présence polonaise complétée par Elemental (mines et recyclage). Et l’Italie fait bonne figure, avec quatre entités lancées sur les sous-projets : Endurance (batteries), FAAM (batteries), Enel X (bornes de recharge) et Kaitek (batteries). Le laboratoire suédois SEEL, spécialisé dans les transports, est également membre du panel de départ. La Finlande apporte la contribution des groupes miniers Keliber et Terrafame ainsi que de l’électricien Fortum.

Un « intérêt stratégique » pour l’économie européenne

En présentant le projet, l’an dernier, les ministres français et allemand de l’Economie estimaient que ce projet devrait déboucher sur le lancement en 2020 en France d’une « usine pilote » comptant 200 emplois. Dans un deuxième temps, deux usines de production, une en France et une en Allemagne, devraient voir le jour à l’horizon 2022-2023. Chacune d’elles devrait « au minimum » créer 1 500 emplois.

Margrethe Vestager, vice-présidente exécutive pour une Europe adaptée à l’ère du numérique et commissaire chargée de la politique de concurrence, a fait la déclaration suivante, à l’occasion de l’accord de la Commission européenne : « La production de batteries en Europe revêt un intérêt stratégique pour notre économie et notre société compte tenu de son potentiel en termes de mobilité propre et d’énergie, de création d’emplois, de durabilité et de compétitivité. »

Quant à Maroš Šefčovič, vice-président chargé des relations interinstitutionnelles et de la prospective, il a déclaré quant à lui : «En privilégiant le renforcement de l’innovation dans le cadre de l’initiative “European Battery Alliance”, nous créons de solides partenariats industriels. Grâce aux efforts intenses menés par sept États membres, l’industrie et la Commission, le premier grand écosystème de batteries paneuropéen voit le jour et compte des projets pilotes dans tous les segments de cette chaîne de valeur stratégique. Nous avons trouvé la bonne formule pour notre politique industrielle du 21e siècle : une coopération étroite entre les acteurs industriels, une action concertée pour accélérer l’innovation “du laboratoire au marché”, des instruments financiers coordonnés issus tant de la sphère privée que de la sphère publique et un cadre réglementaire tourné vers l’avenir pour soutenir une économie européenne de la connaissance plus solide.»

* Les quatre sous-projets

  1. Les matières premières et les matériaux avancés : le projet entend développer des processus innovants durables qui permettent l’extraction, la concentration, le raffinage et la purification des minerais afin de générer des matières premières de grande pureté. En ce qui concerne les matériaux avancés (comme les cathodes, les anodes et les électrolytes), le projet vise à améliorer les matériaux existants ou à en créer de nouveaux, qui seront utilisés dans des cellules de batteries innovantes.
  2. Les cellules et les modules : le projet compte développer des cellules et des modules innovants conçus pour répondre aux critères de sécurité et de performance exigés pour les applications automobiles et non automobiles (stockage fixe de l’énergie, machines-outils, etc.).
  3. Les systèmes de batteries : le projet entend développer des systèmes de batteries innovants incluant des logiciels et des algorithmes de gestion des batteries ainsi que des méthodes de vérification innovantes.
  4. La réaffectation, le recyclage et le raffinage : le projet vise à élaborer des processus sûrs et innovants pour la collecte, le démantèlement, la réaffectation, le recyclage et le raffinage des matériaux recyclés.

La biométrie peut-elle remplacer les mots de passe ?

Déverrouiller son smartphone, payer un achat ou accéder à son compte bancaire… L’authentification biométrique commence à se banaliser. La preuve, ce marché devrait progresser de 10,3 % d’une année sur l’autre entre 2018 et 2023.

De là à penser qu’elle peut remplacer les mots de passe, il n’y a qu’un pas qui est vite franchi par certains experts… En réalité, l’authentification biométrique n’élimine pas les mots de passe, elle ne fait que créer un raccourci pour les contourner.

Lorsque les utilisateurs changent de smartphone, ils doivent saisir à nouveau leur mot de passe lors de la première connexion à leur application bancaire par exemple. Problème : les personnes habituées à l’authentification biométrique sont moins « motivées » pour sauvegarder leurs précieux sésames sur un support sécurisé (comme une clé USB ou un fichier bureautique chiffrés).

Photos haute résolution d’un pouce

D’où la nécessité de passer par le fameux processus « Mot de passe oublié ? ». Et la boucle se referme : un mot de passe (qui est censé être provisoire…) est envoyé automatiquement, l’utilisateur l’intègre dans son application et passe ensuite à l’authentification biométrique. Et à chaque fois qu’il changera de téléphone, il devra certainement refaire ces différentes étapes… pour chacun de ses comptes dont l’accès est sécurisé par la biométrie…

Ce problème ne se limite pas aux nouveaux appareils. Le lien entre l’identifiant biométrique d’un utilisateur et une application mobile peut se rompre lorsqu’il ajoute ou supprime des identifiants enregistrés, réinitialise l’appareil à ses paramètres d’usine ou réinstalle une application.

Bref, les mots de passe existent toujours sous la surface et peuvent être utilisés en cas de bug ou d’empreinte abîmée (après une coupure par exemple).

Et les systèmes biométriques des géants des smartphones ne sont pas parfaits. Le TouchID d’Apple et les capteurs biométriques de Samsung sont régulièrement piratés. Fin 2014, un hacker (Jan Krissler, membre du Chaos Computer Club, célèbre association allemande de hackers) avait même recréé l’empreinte digitale de la récemment élue présidente de la Commission européenne Ursula von der Leyen à l’aide de photos haute résolution de son pouce prises lors d’une conférence de presse et du logiciel VeriFinger.

Plus récemment, une faille de sécurité massive dans un système biométrique utilisé par les banques, la police et les entreprises de défense du Royaume-Uni, a révélé les empreintes digitales de plus d’un million de personnes ainsi que des mots de passe non cryptés, des informations de reconnaissance faciale et autres données personnelles.

On découvre alors l’inconvénient majeur de l’authentification biométrique : vous pouvez changer votre mot de passe, pas votre empreinte digitale !

Le prix des batteries continue de baisser rapidement, selon BNEF

En outre, alors que BNEF prévoyait il y a trois ans, quand le prix des batteries était autour de 300 $/kWh, que les 120 $/kWh étaient en vue en 2030, les analystes de Bloomberg estiment que cet objectif pourrait être dépassé bien avant avec les 100 $/kWh atteints dès 2024.

Ce recul du prix provient essentiellement d’une demande soutenue, insiste BNEF, les 2 TWh devant être atteint en 2024. Avec des batteries de moins en moins chères, BNEF juge que l’électrification de plus nombreux véhicules sera possible, notamment les utilitaires et les véhicules commerciaux.

Dans un communiqué publié à cette occasion, BNEF signale que même s’il peut y avoir quelques accrocs d’ici à cette date, son analyse juge qu’il y a beaucoup moins de certitudes sur la poursuite de la baisse après le seuil des 100 $/kWh, pour parvenir à 60 $/kWh en 2030. Un seuil de 100 $/kWh qui constitue, pour BNEF, le point charnière à partir duquel les véhicules électriques seront quasiment à parité avec les véhicules actuels dotés de moteurs à combustion.

Logan Goldie-Scot, responsable du stockage de l’énergie à BNEF, précise que « les coûts en sortie d’usine baissent grâce aux améliorations apportées aux équipements de fabrication et à la densité énergétique accrue au niveau de la cathode et des cellules des batteries. L’extension des usines existantes offre également aux entreprises une voie moins coûteuse pour accroître leur capacité de production. »

L’Europe en pointe

Au fur et à mesure que les grands constructeurs automobiles vont mettre en œuvre des usines dédiées aux véhicules électriques, il leur sera possible de simplifier la conception des logements pour batteries et de les standardiser pour les différents modèles de véhicules électriques, facilitant ainsi la production en série, insiste BNEF.

En outre, la demande de véhicules électriques en Europe augmente et les chaînes d’approvisionnement évoluent. De plus en plus, les fabricants de batteries y construisent des usines, contribuant à réduire certains coûts associés à l’importation de batteries, notamment les coûts de transport et les droits d’importation. Le tout entraînant un regain d’appétence pour les clients.

Montée en puissance des batteries ion-lithium

En parallèle, BNEF montre que le marché des batteries ion-lithium, les plus courantes donc, devrait progresser d’un peu plus de 20 milliards de dollars, en 2019, pour passer à 60 milliards de dollars en 2025 et frôler les 120 milliards de dollars en 2030. BNEF rappelle en effet que c’est le coût des batteries qui conditionne pour les clients le coût des véhicules électriques. Cette année, Amazon a lancé un appel d’offres pour l’achat de quelque 100 000 véhicules commerciaux auprès d’une start-up, Rivian, basée dans le Michigan. Et récemment, DHL a lancé un programme pilote de scooters électriques pour ses livraisons dans les villes américaines.

Innovation : l’INRA veut réhabiliter les protéines végétales

Selon des scientifiques de l’INRA, les Français gagneraient à manger plus de légumineuses. À l’heure actuelle, ils n’en consommeraient environ qu’un peu plus de 1,5 kilo par an et par personne contre 7 kilos en 1920. Une pratique dommageable alors qu’il est recommandé d’augmenter la part de protéines végétales dans notre alimentation. En observant certains régimes alimentaires, notamment les diètes méditerranéennes, force est de constater qu’une part plus grande est accordée aux légumineuses dans l’assiette. Ces aliments sont notamment riches en protéines végétales et en acides aminés. Cependant, nombreux sont ceux qui les laissent à la marge.

C’est pourquoi Valérie Micard, professeure à Montpellier SupAgro et chercheuse à l’INRA, a tenté d’intégrer des légumineuses à un aliment apprécié du plus grand nombre : les pâtes. « Nous menons des travaux sur ce produit car il est mangé par tous, et que les pâtes sont consommées dans de plus en plus de pays. L’intérêt des pâtes enrichies aux légumineuses est d’augmenter la part de protéines végétales dans l’alimentation, mais aussi d’équilibrer les acides aminés essentiels » affirme-t-elle. Concrètement, il s’agit de tenter d’associer à du blé dur des lentilles vertes ou corail, des fèves, des pois chiches ou encore des pois cassés pour former cet aliment.

« Il était a priori difficile de mettre plus de 35% de légumineuses dans le produit final »

L’INRA rappelle par ailleurs qu’il est recommandé qu’au moins la moitié des protéines composant un régime soient d’origine végétale. Or aujourd’hui, 60% des protéines consommées sont d’origine animale. Les travaux permettant de combiner légumineuses et blé dur pour fabriquer ces « pâtes mixtes » ont débuté en 2005. Et la tâche n’a pas été simple. « Nous avons été confrontés à des blocages technologiques. La matière première étant plus réactive que le blé, il était a priori difficile de mettre plus de 35% de légumineuses dans le produit final » explique-t-elle.

Autre contrainte technique : la volonté de ne pas utiliser d’additif qui permettrait de stabiliser la pâte. Le souci se situait au moment de l’extrusion. Au lieu de former des tubes réguliers, la pâte composée de légumineuses et de blé s’agglomérait en boule. Mais Valérie Micard affirme que désormais, l’obstacle technique est dépassé, et qu’il est bien possible de fabriquer des pâtes intégrant autant de légumineuses que souhaité. Cependant, cette dernière reste discrète sur le procédé qui a permis de parvenir à ce résultat. « Je suis biochimiste de formation, j’ai regardé comment la matière se comportait, et j’ai procédé à un petit changement », se contente-elle de déclarer.

Une bonne alternative à la viande chez les personnes âgées

Un brevet a été déposé par l’INRA sur cette technologie, qui serait dans le domaine public depuis quelques mois. Le produit fini ressemble à s’y méprendre à de classiques pâtes aux légumes. Comme des pâtes classiques, elles cuisent en environ neuf minutes. Selon des tests réalisés sur des volontaires, ces pâtes seraient digestes et n’auraient pas d’incidence négative sur l’indice glycémique ou les flatulences. Simplement, elles seraient plus élastiques en bouche que les originales. Dans les faits, ces pâtes enrichies contiennent en moyenne 60 à 70% de légumineuses. « Il est également possible de fabriquer des pâtes exclusivement à base de légumineuses. Elles sont moins équilibrées, mais sont sans gluten, ce qui peut être un avantage pour les personnes atteintes de maladies cœliaques », ajoute Valérie Micard.

Afin d’évaluer les avantages de ces pâtes mixtes, des travaux ont été menés sur des rats sarcopéniques, autrement dit atteints de faiblesses musculaires. Il a été démontré que l’absorption de légumineuses ainsi associées au blé avait pour eux un effet bénéfique. Par extension, ces pâtes représenteraient donc, selon l’INRA, une bonne source de protéines végétales pour les personnes âgées. « Ces pâtes enrichies aux légumineuses sont une bonne solution à proposer lorsque la viande est délaissée, d’autant plus que le blé et les légumineuses sont ingérées en même temps », rappelle Valérie Micard. Selon elle, l’ingestion simultanée de blé et de légumineuses est capitale pour la bonne synthèse des acides aminés chez les personnes âgées.

L’ADEME fait le point sur les terres rares liées aux ENR

« Les métaux et terres rares, la face cachée de la transition énergétique ? », s’interrogeait le journaliste Guillaume Pitron dans son livre publié en 2018. La question méritait d’être posée. L’ADEME, l’Agence de l’environnement et de la maîtrise de l’énergie, apporte une partie de réponse et estime que « les énergies renouvelables n’utilisent, pour la plupart, pas de terres rares ». Dans sa nouvelle fiche technique, l’agence rappelle que concernant les énergies renouvelables, les terres rares sont presque exclusivement utilisées dans les aimants permanents pour les éoliennes. Cette technologie ne concerne que 3 % des éoliennes terrestres, mais est majoritaire pour l’éolien en mer, un segment « en forte croissance », note l’agence. Ces aimants renferment du néodyme et du dysprosium, entre 80 et 650 kg par mégawatt (MW) selon les technologies.

Le syndicat des énergies renouvelables (SER) accueille avec satisfaction cette nouvelle note. « Le SER se félicite que l’ADEME apporte des éléments concrets et factuels à cette discussion sur les terres rares, sujet sur lequel beaucoup de contre-vérités circulent aujourd’hui dans le débat public », a réagi Jean-Louis Bal, Président du SER, par voie de communiqué.

Quels besoins en terres rares pour les éoliennes ?

Fin 2018, l’ensemble du parc éolien français comptait environ 70 tonnes de néodyme et 13 tonnes de dysprosium. Soit moins de 1,5 % du marché annuel mondial de chacun de ces éléments. « La problématique de l’utilisation des aimants permanents a donc été bien prise en compte par les constructeurs, estime l’ADEME. Ce n’est donc pas un sujet critique pour les éoliennes terrestres. » Et si les éoliennes utilisent beaucoup d’acier, le bilan carbone reste bénéfique par rapport aux autres solutions.

Le sujet est plus controversé pour les éoliennes en mer. Si certaines technologies utilisant moins d’aimants permanents se développent, la plupart des modèles de 6 à 8 MW par machine en utilisent. Ces derniers servent à « améliorer les rendements de conversion, réduire le poids et les besoins de maintenance, et allonger la durée de vie des systèmes », rappelle l’ADEME. Ils permettent ainsi de diminuer le dimensionnement global du mât et des fondations.

Si l’on se fie aux objectifs de la Programmation pluriannuelle de l’énergie (PPE), le marché français pour l’éolien offshore jusqu’en 2030 (soit une période de 12 ans) devrait représenter moins de 1 % de la demande annuelle en néodyme et moins de 4 % de celle en dysprosium. Les besoins pour construire un parc mondial de 120 GW d’éolien en mer en 2030 s’élèveraient à moins de 6 % de la production annuelle en néodyme et plus de 30 % de la production annuelle en dysprosium.

L’ADEME voit ainsi un potentiel risque d’approvisionnement en terres rares pour les éoliennes. Le marché étant de taille faible et face à une Chine en situation de quasi-monopole (près de 90% de la production mondiale), l’industrie éolienne ne peut pas négocier d’accords commerciaux favorables. Toutefois, avec plusieurs technologies alternatives, « une éventuelle tension forte sur les terres rares ne semble pas devoir compromettre le développement de l’éolien », rassure l’agence.

Peu de terres rares dans le photovoltaïque et les batteries

Aucune technologie solaire photovoltaïque actuellement commercialisée n’utilise de terres rares. L’ADEME note tout de même que des technologies minoritaires peuvent renfermer certains métaux dont l’approvisionnement peut être critique, comme le tellure, le cadmium, l’indium et l’argent. Les technologiques au silicium, ne présentent pas de problème d’approvisionnement particulier, et représentent entre 80% et 90% du marché.

Le développement de batteries à grande échelle pour stocker l’électricité produite par des énergies renouvelables ne devrait pas se faire avant 2030 pour les zones non interconnectées et après 2040-2045 pour la France métropolitaine, projette l’ADEME. « Les technologies les plus déployées dans l’usage du stockage d’énergie renouvelable sont aujourd’hui les batteries Lithium-ion (Li-ion), sodium-soufre (NaS) et plomb-acide (PbA), énumère l’ADEME. Les terres rares n’entrent pas, ou qu’en très faibles quantités (éventuellement comme additif), dans la composition de ces batteries ». Ainsi, le sujet clé sur les batteries concerne davantage les métaux stratégiques ou critiques, comme le cobalt, dans les batteries lithium-ion, que les terres rares.

Ces chaudières qui carburent au «fuel» numérique

A l’origine des radiateurs-ordinateurs QH-1 et QC-1, l’entreprise francilienne Qarnot a dévoilé ce lundi 2 décembre sa chaudière numérique QB-1. Le principe, identique, consiste à utiliser la chaleur fatale dégagée par des serveurs informatiques, dont la puissance de calcul est mise à disposition au travers d’une fibre optique. Mais la finalité diffère : les calories ainsi récupérées ne servent pas à chauffer les logements cette fois, mais à leur fournir de l’eau chaude sanitaire à 60°C.

A destination des bailleurs sociaux ou des promoteurs immobiliers, cette chaudière atypique contient 24 cartes-mères et autant de processeurs AMD Ryzen 7 2700 à 3,2 GHz, lesquels constituent la source de chaleur. Des plaques de refroidissement transfèrent les calories à l’eau froide entrant dans la chaudière. A la sortie, le débit d’eau chaude est de 6 litres par minute et le rendement serait de 96%.

Ce système modulaire – deux unités au minimum pour une puissance combinée de 4 kW – fonctionne en complément d’une chaudière classique, capable d’assumer les pics de consommation, et d’un ballon d’eau chaude. Son apport énergétique sert alors à relever la température dans la boucle de retour de l’eau chaude sanitaire ou à maintenir la température du «talon» (ce qui correspond aux périodes creuses, comme la nuit).

Du logement à la piscine

Des initiatives similaires se sont fait jour ces dernières années. Dans le but de produire de l’eau chaude sanitaire, Dalkia a par exemple équipé en juillet 2018 le centre hospitalier régional de Metz-Thionville d’un système de refroidissement à eau pour récupérer la chaleur d’un datacenter hébergé dans l’établissement. Dès 2013, la société grenobloise Stimergy avait également mis au point une chaudière à base de serveurs informatiques, avec de l’huile comme fluide caloporteur et des échangeurs thermiques en lien avec un ballon d’eau chaude. Plusieurs installations fournissent de l’eau chaude sanitaire à des bâtiments résidentiels à Nantes, Lyon et Lille et couvrent de 20 à 60% des besoins en eau chaude des immeubles. A Paris, ce sont les bassins de la piscine de la Butte aux Cailles qui sont chauffés par ce biais.

Ces techniques de valorisation de chaleur fatale se développent dans les gros datacenters, dans l’objectif d’amoindrir leur impact écologique. L’idée de Qarnot et Stimergy consiste à les appliquer à l’échelle du micro-datacenter. Le modèle économique de Qarnot, en particulier, en dit long sur son activité, à la croisée des métiers de la thermodynamique et du numérique. Par l’intermédiaire d’un contrat de services, l’entreprise s’engage pendant 10, 15 voire 30 ans à prendre en charge tous les frais d’exploitation de la QB-1, incluant la maintenance, le renouvellement des processeurs et le remboursement de la facture d’électricité.

En contrepartie, elle s’apparente à un opérateur de micro-datacenters distribués qui vend de la puissance de calcul à des salles de marchés financiers (BNP Paribas, Société Générale, Natixis). Le client qui souhaite faire l’acquisition d’une chaudière QB-1 paie certes l’investissement initial, qui peut se chiffrer à plusieurs dizaines de milliers d’euros, mais rien de plus. Malgré le coût élevé du kilowatt produit, soit 7 €, l’équipement serait amorti au bout de six ans, d’après les estimations de Qarnot.

Le modèle paraît convaincant, puisque trois bailleurs sociaux ont déjà signé : Elogie-Siemp, Aiguillon et Ozanam. La filière du logement social s’intéresse en effet de près aux solutions technologiques réduisant les charges des locataires et valorisant leur patrimoine.

Changement climatique : les Français partagés entre préoccupation et scepticisme

Pour la première fois, selon le 20e baromètre de l’ADEME, l’environnement arrive en tête des préoccupations des Français, à égalité avec le chômage (16%), devant l’immigration (14%) et la hausse des prix (12%). Les jeunes de moins de 35 ans placent même l’environnement devant le chômage. Et le changement climatique se hisse en première place des préoccupations environnementales. Avec 34 % des voix, il rejoint le ressenti déclaré en 2015, année de la COP21. Cette année, les mobilisations autour du climat et les vagues de chaleurs proches de la période d’administration du sondage (juillet) justifient la hausse de cette préoccupation. Les préoccupations majeures sont ensuite la dégradation de la faune et de la flore (21 %) et, à égalité, la pollution de l’air et de l’eau (12 %).

Entre conviction et scepticisme

Si le changement climatique arrive en tête des préoccupations, la France compte encore de nombreux sceptiques sur ses causes. Encore 37 % des Français estiment qu’il s’agit d’une hypothèse sur laquelle les scientifiques ne sont pas tous d’accord et 27 % d’entre eux qu’il s’agit exclusivement d’un phénomène naturel qui a toujours existé. « La perception de la réalité des conséquences du changement climatique progresse dans le public, mais l’identification de ses causes réelles demeure freinée par un degré non négligeable de scepticisme », conclut le rapport.

Toutefois, la plupart des Français anticipent des conséquences importantes d’ici une cinquantaine d’années. 67 % des sondés estiment que les conditions de vie deviendront extrêmement pénibles à cause des dérèglements climatiques. Cette part demeure stable depuis 2017. Par ailleurs, 54 % des Français estiment qu’il faudra modifier en profondeur les modes de vie pour empêcher l’augmentation du changement climatique. Seulement 19 % des Français misent sur les États et 11 % sur les progrès techniques pour résoudre le problème. Enfin, 16 % des Français sont résignés et estiment que le changement climatique est inévitable.

Des actions personnelles et politiques

L’enquête s’est également intéressée à la percée des gestes écoresponsables. Entre 5 et 7 Français sur 10 déclarent acheter plus de légumes de saison, baisser la température en hiver, limiter la climatisation en été, ainsi que leur consommation de viande. Le changement de comportement est toutefois particulièrement difficile en matière de mobilité. Seulement 28 % des Français déclarent utiliser les transports en commun plutôt que la voiture et 18 % favoriser le covoiturage ou l’autopartage.

Les Français plébiscitent aussi les mesures de politique publique visant à lutter contre les émissions de gaz à effet de serre. Près de 7 Français sur 10 défendent l’idée de taxer davantage les produits transportés de façon polluante et de taxer le transport aérien pour favoriser le train. Néanmoins, la taxe carbone divise les Français : 46 % en ont un avis positif, 51% un avis négatif. Dans ce cadre, les enjeux environnementaux devraient tenir une place importante dans les prochaines élections municipales.

Cette enquête annuelle par sondage en ligne a été réalisée par Opinionway du 2 au 23 juillet 2019. Elle repose sur un échantillon de 1570 particuliers, représentatif de la population Française âgée de 15 ans et plus, selon la méthode des quotas au regard des critères de sexe, d’âge, de catégorie socioprofessionnelle, de catégorie d’agglomération et de région de résidence.

Produire du combustible propre à partir d’une feuille artificielle

La production d’hydrocarbures de synthèse est un procédé presque centenaire. En effet, le procédé Fischer-Tropsch a été inventé en 1923 par deux chercheurs allemands. Il repose sur une réduction catalytique des oxydes de carbone par l’hydrogène. Il permet d’obtenir un mélange d’hydrocarbures qui peut être ultérieurement transformé en carburant liquide synthétique par hydrocraquage. Très utilisé par les Allemands pendant la Seconde Guerre mondiale pour produire du combustible liquide à partir de charbon, ce procédé est ensuite tombé en désuétude à la suite de la forte baisse des prix du pétrole.

Néanmoins, alors que les ressources fossiles se raréfient, ce type de procédé pourrait logiquement bénéficier d’un regain d’intérêt. En France, le projet SYNDIESE, porté par le CEA depuis 2014, a ainsi pour but de développer une technologie de transformation de biomasse en gaz de synthèse.

La production photo-électrochimique : une alternative attractive ?

Il est ici question de réduire le CO2 contenu dans une solution aqueuse saturée afin d’obtenir du CO par production photo-électrochimique (PEC). Ce procédé a la particularité d’utiliser le rayonnement solaire comme source d’énergie. De nombreux travaux de recherche existent sur le sujet. Néanmoins, la majorité des solutions ont l’inconvénient de nécessiter des catalyseurs constitués de métaux nobles ou très rares (comme souvent), ce qui influe défavorablement sur le coût de production tout en étant peu écologique.

Un catalyseur à base de cobalt

Selon l’équipe de chercheurs de Cambridge, il existerait pourtant des catalyseurs alternatifs utilisant des métaux abondants sur terre. L’étude publiée dans le journal Nature Materials a ainsi pour but de démontrer le potentiel de la porphyrine de cobalt en tant que catalyseur dans la réduction de CO2 en CO.

Le générateur de gaz utilisé par l’équipe de chercheurs est un dispositif PEC tandem de type pérovskite –BiVO4 autonome constitué d’une photoanode composée de Co WOC et BiVO4 et d’une photocathode en pérovskite chargée de réduire le CO2 en CO. La structure interne, quant à elle, est une succession de matériaux dont la liste complète est disponible à la figure 1 de la publication originale.

Par ailleurs, le système développé par l’équipe de chercheurs a la particularité d’utiliser un “buckypaper” (film mince composé d’un agrégat de nanotubes de carbone) dont le rôle est d’emprisonner le catalyseur à base de cobalt (CoMTPP).

Objectif : produire de l’éthanol

Leurs travaux ont permis de démontrer que la conversion autonome de CO2 en CO était possible avec un tel catalyseur. Le prochain objectif des chercheurs est la synthèse de produits tels que l’éthanol en une seule étape. Si beaucoup de travail reste à accomplir avant d’arriver au stade industriel, maintenant qu’ils ont trouvé les bons catalyseurs les choses pourraient s’accélérer.

Source : D’après les travaux de Virgil Andrei, Bertrand Reuillard and Erwin Reisner.

Ce robot abeille aux muscles mous résiste aux chocs pendant son vol

Il s’écrase contre un mur, retombe sur ses ailes ou encore entre en collision avec un de ses semblables… Rien ne vient perturber ce robot abeille” mis au point par les chercheurs du laboratoire microrobotique d’Harvard au SEAS (School of Engineering And Applied Science) et d’ingénierie bioinspirée de l’institut Wyss. Baptisé RoboBee, le petit drone bioinspiré des insectes a la particularité d’être alimenté par des muscles artificiels souples, qui lui permettent l’ensemble des performances énumérées, sans être endommagé. “Les insectes volants capables de naviguer dans des environnements naturels très encombrés peuvent résister aux collisions en vol grâce à la combinaison de leur faible inertie et de la résistance de leurs ailes, de leurs exosquelettes et de leurs muscles” expliquent les chercheurs dans l’article publié dans Nature.

Ce type de robots – petits, légers, agiles et résistants aux chocs – pourrait avoir des applications dans différents domaines, comme le survol de décombres pour des missions de recherche et de sauvetage, ou encore le passage dans des zones difficiles d’accès. La robotique molle vise également le développement de systèmes polyvalents pouvant interagir avec les humains et manipuler des objets fragiles dans des environnements non structurés. Un des défis majeurs dans la construction de robots mobiles à actionnement souple consiste à développer des actionneurs de type musculaire ayant une densité d’énergie, une bande passante, une robustesse et une durée de vie élevées, affirment les chercheurs dans la publication.

Différentes configurations de robots

L’équipe a conçu un module à ailes battantes de 160 mg pouvant être assemblé à un autre module pour créer des robots de différentes configurations. Celui-ci est alimenté par un actionneur à élastomère électroactif diélectrique multicouches – des matériaux souples qui se déforment lorsqu’un champ électrique est appliqué – d’une puissance massique (rapport puissance/masse) de 600 watts par kilogramme. Les chercheurs utilisent la résonance du système pour éliminer les courants harmoniques dus à la présence de charges électriques non linéaires.

Pour montrer leurs capacités en vol, les chercheurs ont réalisé des tests avec différentes configurations : un modèle à un actionneur et deux ailes, un à deux actionneurs et quatre ailes, puis un à quatre actionneurs et huit ailes. Ces modèles sont parvenus à voler dans un environnement encombré tout en surmontant les multiples collisions durant leur vol. Les modèles ont également démontré un vol stationnaire contrôlé. “Notre travail montre comment les actionneurs mous peuvent atteindre une densité de puissance et une bande passante suffisantes pour permettre un vol contrôlé, illustrant le potentiel de développement des robots agiles de nouvelles génération” explique les chercheurs dans leur publication. Ils vont désormais travailler sur l’augmentation de l’efficacité du robot qui reste loin derrière les robots volants plus traditionnels.

En vidéo, la démonstration de ces robots abeilles.

(Photo : Image courtesy of The Harvard MicroRobotics Lab/Harvard SEAS)

Vers une reconnaissance faciale généralisée

Faut-il avoir peur de la reconnaissance faciale ? La question ne date pas d’hier et se pose à chaque nouvelle solution basée sur cette technologie. La dernière en date ayant fait débat : Alicem, l’application d’authentification en ligne du gouvernement aux sites partenaires de France Connect (impôts, sécurité sociale, etc.), une première en Europe. On retrouve également cette technologie dans différentes applications de notre quotidien, telles que le déverrouillage smartphone ou l’authentification pour réaliser des achats sur les iPhones avec Face ID, le contrôle d’identité aux aéroports, ou encore récemment, dans des lycées du sud de la France. Nice l’avait également expérimentée lors de son carnaval en février dernier sur un groupe de volontaires.

La reconnaissance faciale est un type d’analyse d’image. Dans une étude publiée le 20 novembre 2019, deux chercheurs français de l’Inria, Claude Castellucia et Daniel Le Métayer, ont donné quelques éléments d’analyse des impacts de la reconnaissance faciale, qu’ils définissent ainsi : « La reconnaissance faciale utilise des algorithmes qui analysent les visages présents sur des photographies ou des vidéos pour en extraire un ensemble de traits distinctifs. Ces attributs physiques, comme la distance entre les yeux ou la forme du menton, sont ensuite codés sous forme de représentations mathématiques, communément appelées “gabarits”. Les gabarits, qui ne contiennent que les caractéristiques importantes des visages, sont soit stockés, soit comparés à ceux qui sont contenus dans une base de données ». Les chercheurs distinguent ainsi différents types de reconnaissance faciale : l’authentification, l’identification et le traçage. L’authentification permet de vérifier une identité (comme sur le smartphone), l’identification de rechercher l’identité d’une personne donnée dans une base (comme un suspect) et le traçage de suivre les déplacements d’un individu (comme un voleur ou un agresseur).

Un mot de passe irremplaçable

Une technologie somme toute intéressante si la menace pour les libertés individuelles n’existait pas. La reconnaissance faciale est une technique biométrique, c’est-à-dire qu’elle utilise les traits du visage humain. En cas de compromission, la donnée ne peut être modifiée. Les données biométriques sont définies par le règlement général sur la protection des données (RGPD) comme « données à caractère personnel résultant d’un traitement technique spécifique, relatives aux caractères physiques, physiologiques ou comportementales d’une personne physique, qui permettent ou confirment son identification unique, telles que des images faciales ou des données dactyloscopiques ». Ces données ne peuvent être utilisées que dans des cas particuliers, avec le consentement des personnes, pour protéger les intérêts vitaux des individus ou encore pour un intérêt public important.

De plus, « contrairement aux autres techniques biométriques, comme les empreintes digitales, c’est une donnée que l’on peut facilement capter à l’insu de la personne, comme dans la rue » commente Mathieu Cunche, chercheur dans l’équipe Privatics à Inria Lyon. « Si on ajoute cette technologie aux caméras de surveillances installées un peu partout dans les villes, on peut potentiellement réaliser un traçage à grande échelle ». Et de préciser au sujet de ces caméras de surveillance : « on les voit partout, et on s’y habitue petit à petit. C’est pareil pour la reconnaissance faciale. On commence par un usage localisé et ensuite on généralise ». Sans oublier que ces technologies, améliorées grâce au développement de l’intelligence artificielle (apprentissage profond) et des bases de données importantes, restent imparfaites et intègrent un nombre important de biais. « La technologie est encore perfectible », ajoute Mathieu Cunche. « De nombreuses alertes sont levées, comme la possibilité de faire des faux positifs, ainsi que des problèmes de fiabilité. C’est un risque important pour les libertés individuelles. »

Des cas concrets

Et des cas concrets de dérives d’utilisation de la reconnaissance faciale, on en trouve. En Chine par exemple, le gouvernement a mis en place un programme de “crédit social”, une sorte de système à points d’évaluation du comportement de ses citoyens à la fois sur les réseaux sociaux et dans les lieux publics. Avec des conséquences réelles : des pénalités pour les “mauvais élèves”. Le programme se base sur la collecte d’informations sur les réseaux sociaux et les caméras de surveillance… dotées de reconnaissance faciale.

Autre cas : le système d’identification biométrique indien Aadhaar, pointé par le spécialiste en cybersécurité Baptiste Robert, connu sous le pseudonyme Elliot Alderson sur Twitter, dans un entretien avec Checknews : « On a demandé aux Indiens de s’enrôler dans Aadhaar, qui était présenté comme un programme optionnel. Sauf qu’au fur et à mesure, le numéro Aadhaar est devenu obligatoire pour de nombreux services et permet de faciliter les démarches ». Le système d’identification Aadhaar comprend un numéro d’identification national individuel, associé à des données biométriques (photographie iris, visage, et empreintes digitales) et données d’identité tels que nom, sexe, date et lieu de naissance.

Les fournisseurs européens très inégaux en termes d’électricité verte

Les fournisseurs qui exercent en France s’avèrent inégaux lorsqu’il s’agit d’électricité verte. Pour la deuxième année consécutive, l’ONG Greenpeace a publié un classement intitulé Guide de l’électricité verte. Ce dernier permet de faire le point entre les réelles pratiques en termes d’électricité verte et celles relevant plutôt du greenwashing, c’est-à-dire le procédé marketing utilisé par certaines marques pour se donner une image responsable écologiquement mais sans actions concrètes. Cette évaluation s’inscrit dans le cadre d’un marché toujours plus demandeur en énergies propres. « Globalement, les consommateurs et consommatrices sont de plus en plus en demande d’énergies renouvelables et les fournisseurs de plus en plus tournés vers ces technologies » indique Greenpeace.

Dans ce nouveau rapport, Greenpeace indique également que « l’évolution porte aussi et surtout sur la politique de production d’électricité renouvelable : 11 producteurs d’électricité ont augmenté leurs capacités installées en matière d’énergie renouvelable et 15 fournisseurs ont déclaré avoir contribué au raccordement de nouvelles installations renouvelables depuis 2017 ». Les Français sont quant à eux 61% à s’intéresser aux « offres vertes », selon le baromètre du médiateur de l’énergie. Par ailleurs, Greenpeace évoque une hausse du nombre de contrats concernant l’électricité verte sur l’année 2018.

Cinq fournisseurs « vraiment verts » contre trois en 2017

Dans le cadre de son enquête, Greenpeace a compté une trentaine de fournisseurs d’électricité présents sur le marché français. Aujourd’hui, 70% des offres proposées aux consommateurs sont vertes. L’ONG les met néanmoins en garde contre le piège de la « garantie d’origine ». Dans les faits, la législation européenne permet à un fournisseur d’électricité d’acheter un certificat de « garantie d’origine ». Or, l’électricité ainsi labellisée peut très bien provenir d’une centrale nucléaire ou à charbon. En outre, le classement permet de distinguer quatre groupes de fournisseurs d’électricité. Les fournisseurs « vraiment verts », ceux qui sont « en bonne voie », les fournisseurs « à la traîne », et les « vraiment mauvais ».

En France, cinq fournisseurs proposent de l’électricité 100% issue d’énergies renouvelables. Les leaders ex æquo sont Enercoop et Planète Oui, suivis par Urban Solar, Ilek et Plüm Énergie. « Les 85 000 clients d’Enercoop peuvent avoir la certitude que derrière leur facture d’électricité, il y a des femmes et des hommes qui œuvrent concrètement à la transition énergétique, et que l’électricité dont ils ont besoin sera produite en France, par l’un des 260 producteurs sociétaires de la coopérative » s’enorgueillit Amandine Albizzati, PDG d’Enercoop. Ces fournisseurs « vraiment verts » n’étaient que trois en 2017.

Eni, lanterne rouge de l’électricité verte

En bas du classement, Iberdrola, Vattenfall, Engie, Total Direct Énergie, EDF Sowee et Eni se distinguent par leurs timides investissements dans l’électricité verte. Greenpeace indique même que « EDF continue d’investir cinq fois plus dans le nucléaire que dans le développement des énergies renouvelables ».  Fin 2018, 17% du parc européen de la firme étaient fossiles. Dans le même temps, le fournisseur français détenait des parts dans 84 centrales thermiques. Le point commun de ces différents groupes est qu’ils continuent tous d’investir dans les énergies fossiles. Iberdrola continue d’investir dans les vétustes centrales nucléaires espagnoles, Vattenfall en fait de même en Suède, tout comme Engie en Belgique et EDF en France.

De manière générale, Greenpeace a attribué ses cartons rouges aux poids lourds du marché. En fait, l’ONG déplore les choix d’investissements de ces sociétés. Cependant, bien que leurs productions d’électricité restent largement carbonées, des efforts sont consentis. Ainsi, deux tiers de la capacité de production de l’espagnol Iberdrola sont renouvelables, grâce à de nombreux investissements dans le solaire et l’éolien. Chez les autres groupes cités, la capacité de production d’électricité verte oscille entre 20 et 50%. Seul l’italien Eni n’intègre quasiment pas le renouvelable dans sa stratégie. Seulement 1% des moyens de production européens du groupe sont actuellement renouvelables, et aucune évolution n’est à l’ordre du jour.

Télétravail : attention, les pirates ne feront pas grève !

Depuis les ordonnances Macron, le recours au télétravail a été assoupli : un simple accord formalisé par tout moyen avec le salarié suffit. Un avenant au contrat de travail n’est donc pas obligatoire.

Par contre, la mise en place d’une politique de sécurité est plus qu’obligatoire ; elle est indispensable ! Selon une étude réalisée en juin 2018 par Shred-it (leader de la destruction de documents), 86 % des dirigeants d’entreprises et 60 % des responsables de PME estiment que le risque d’atteinte à la protection des données augmente lorsque les employés travaillent à l’extérieur du bureau.

Il existe en effet différentes menaces à prendre en compte et à anticiper pour éviter le pire. Le premier risque est le vol de données confidentielles ou personnelles. Installé sur l’ordinateur du salarié travaillant chez lui, un code malveillant peut récupérer ce type de documents.

Un autre type de code malveillant, appelé ransomware (ou rançongiciels), peut crypter (les experts préférant le terme de « chiffrer ») tous les fichiers installés sur cet ordinateur. Mais il va également chiffrer ceux partagés avec les autres collaborateurs travaillant chez eux ou qui sont à leur bureau. À peine aurez-vous cliqué sur une pièce jointe infectée que les documents deviendront inaccessibles… sauf à payer une rançon.

Autre risque : l’infection du réseau informatique de l’entreprise (dont ses bases de données) à cause d’un virus transmis via un email envoyé à des collègues au bureau. Cette infection peut aussi passer par des fichiers partagés sur des instances SharePoint de Microsoft ou le Drive de Google. Un grand classique !

Enfin, un pirate peut usurper l’identité du télétravailleur. En prenant le contrôle de sa messagerie, il pourrait récupérer des données critiques ou piéger d’autres collaborateurs.

Des solutions à mettre en place

Il est donc indispensable de choisir des outils de télétravail adaptés et sécurisés. Les entreprises doivent se doter d’une stratégie de mobilité claire et pérenne. Cela implique notamment :

  • un inventaire du matériel et des applications ;
  • des actions d’effacement à distance de fichiers ;
  • la possibilité de verrouillage à distance des PC ;
  • l’obligation d’utiliser des mots de passe « forts », de chiffrer les dossiers créés sur le PC du télétravailleur et sur les différents dossiers partagés dans le cloud ;
  • la mise en place d’un réseau privé virtuel (ou VPN pour Virtual private network) qui protège les échanges (en les chiffrant) entre le télétravail et le siège social ;
  • le contrôle et la gestion des accès et des identités afin de ne jamais accorder l’accès à votre réseau à des utilisateurs non autorisés.

Enfin, il convient de se poser quelques questions qui semblent anodines, mais qui peuvent avoir des répercussions très graves sur l’activité d’une entreprise.

  • Comment les employés auront-ils accès aux dossiers ?
  • Y aura-t-il des protocoles pour les copies papier des dossiers ?
  • Les collaborateurs pourront-ils entreposer des dossiers papier à la maison ou dans leurs bureaux éloignés ?
  • Quels processus devraient être mis en place pour le partage et l’examen des fichiers ?

Toutes ces problématiques ne relèvent pas uniquement de la cybersécurité. Elles concernent aussi la conformité avec le RGPD. Qu’il soit au bureau ou à son domicile, le collaborateur doit respecter les obligations du Règlement général sur la protection des données à caractère personnel.

Imaginons le cas d’un RH qui reste chez lui à cause de la grève. Pour respecter le RGPD, aucune personne du foyer ne doit pouvoir accéder à des informations personnelles (contrat de travail, bulletin de salaire…), sous forme papier ou numérique, qu’il serait amené à traiter.

Si par mégarde ou inattention, des données personnelles de collaborateurs de l’entreprise se retrouvaient sur internet (par exemple, le bulletin de salaire que le fils aurait photographié et diffusé sur les réseaux sociaux…), il y aurait une fuite de données. L’entreprise aurait 72 heures pour la notifier à la CNIL…

Le télétravail présente des avantages. Mais cet exemple montre à quel point il peut aussi présenter des risques pour la réputation d’une entreprise si elle ne se protège pas.

5 règles indispensables

1. Mettez à jour le système d’exploitation et tous les logiciels (et en particulier l’antivirus et le pare-feu) de l’ordinateur utilisé à domicile.

2. Ne transférez pas d’emails professionnels vers votre compte personnel.

3. Dans la mesure du possible, n’utilisez pas des appareils portables non approuvés et sécurisés par la DSI ou le responsable informatique.

4. Ayez un plan de secours au cas où vous auriez des problèmes avec la connexion réseau.

5. Chiffrez vos données et flux échangés entre votre ordinateur et le serveur de l’entreprise.

Concevoir des préformes de fibres optiques par impression 3D sera bientôt possible

La performance de nos réseaux de télécommunications repose en grande partie sur l’utilisation de fibres optiques en silice, tout comme le développement de l’Internet des objets (IoT).

La fabrication de fibres optiques : un procédé coûteux

Le processus qui permet d’obtenir une fibre optique en verre de silice est long et coûteux. Avant d’arriver à une fibre utilisable, il faut concevoir une préforme, une sorte de barreau de silice pure de plusieurs centimètres de diamètre à partir de procédés de déposition en phase vapeur (CVD, OVD, VAD, PCVD, etc.). La seconde étape, appelée fibrage, consiste à étirer cette préforme en une fibre de plusieurs centaines de kilomètres.

Dans leurs travaux précédents, les chercheurs australiens Kevin Cook et John Canning ont démontré qu’il était possible de concevoir des fibres à partir d’une préforme imprimée en 3D. Néanmoins, le matériau utilisé n’était pas de la silice, mais un polymère transparent de la famille de l’ABS et appelé SBP. Pourtant, le verre, ou plutôt la silice très pure reste le matériau à privilégier pour la fabrication des fibres optiques, car les pertes optiques y sont très faibles. Les chercheurs australiens (University of Technology Sydney et University of New South Wales) se sont associés avec deux laboratoires chinois spécialisés en fibres optiques pour la conduite de nouveaux travaux.

Le challenge de l’impression 3D de préformes en verre de silice

Imprimer en 3D des fibres de silice présente une difficulté de taille : comment atteindre la température très haute nécessaire à la fusion de la silice (> 1900°C) ? Malheureusement, la haute viscosité du verre en fusion a un impact très négatif sur la résolution en impression FDM (pas plus de 4 mm !), ce qui semble indiquer que cette technologie n’est tout simplement pas la bonne.

Heureusement, les technologies d’impression 3D évoluent sans cesse : dans la présente étude, ils ont eu recours à une technique appelée Direct Light Project (DLP) printing. Le verre en fusion a été remplacé par une suspension constituée de résine photosensible UV chargée à plus de 50 % en masse de nanoparticules de silice amorphe. Après polymérisation, ils ont ainsi obtenu une préforme creuse qu’ils ont dans un deuxième temps remplie d’une suspension de base similaire, mais additionnée de GeO2, TiO2, ou encore AlBN afin d’augmenter l’indice de réfraction. Plusieurs étapes de chauffage ont ensuite permis le déliantage du polymère puis la fusion partielle des nanoparticules, laissant la place à une structure solide prête à être insérée dans une tour de fibrage comme celles utilisées pour la fabrication de fibres optiques industrielles.

Des résultats prometteurs

Les premières fibres optiques qu’ils ont obtenues n’ont bien sûr pas les performances des fibres de silice du commerce. Néanmoins, les chercheurs ont d’ores et déjà identifié les causes des pertes optiques relevées et travaillent actuellement à l’amélioration de leur procédé. Ils sont cependant confiants et pensent que cette nouvelle approche pourrait prochainement remplacer la méthode de fabrication de fibres optiques actuelle. Prochaine étape pour eux : trouver des partenariats avec des industriels afin d’améliorer leur procédé et aboutir à une commercialisation.

Source : Concevoir des fibres optiques par impression 3D

Dispositifs médicaux et piratage : il y a urgence

Les cybercriminels adorent faire du business ! La croissance du nombre d’appareils (comme les inhalateurs connectés) et d’applications de surveillance (dont celle pour l’Apple Watch), le vieillissement de la population et la conformité réglementaire sont autant de facteurs qui les attirent comme les pies sont attirées par les objets brillants !

Le marché de la télésanté est en forte croissance : il était évalué à 49,8 milliards de dollars en 2018. En 2026, il pourrait atteindre 266,8 milliards.

Mais cette croissance crée de nombreux casse-tête pour les solutions de contrôle d’accès et de sécurité.  Si vous êtes cardiaque, ne lisez pas cet article ! 15 millions de dossiers de patients ont été divulgués lors de 503 atteintes à la protection des données médicales en 2018 aux Etats-Unis, soit près du triple du nombre d’incidents signalés l’année précédente, selon le Baromètre Protenus 2019.

Les entreprises qui hébergent ce type de données sensibles ne sont pas les seules responsables de cette insécurité chronique. En 2018, des experts en cybersécurité ont découvert des vulnérabilités chez les programmeurs de stimulateurs cardiaques (Carelink 2090) et les pompes à insuline (modèles comme le MiniMed 508) fabriquées par Medtronic.

Boîtes noires

En avril dernier, plusieurs dispositifs de Becton Dickinson and Co. (BD), entreprise de matériel médical, se sont révélés vulnérables, permettant, potentiellement, aux pirates de modifier et d’exfiltrer les dossiers des patients.

Pourquoi de telles failles ? Premièrement, la sécurité n’a pas été (pour l’instant…) la priorité des fabricants de matériels médicaux. Ce n’est d’ailleurs pas propre à ce secteur. Les objets connectés de manière générale ont un très faible (voire aucun) niveau de protection. La priorité a été donnée à l’ergonomie…

Pour revenir à la santé, de nombreux périphériques utilisent les mêmes mots de passe administratifs codés en dur pour permettre l’accès « admin » sur plusieurs périphériques. Pire, ces mots de passe ne peuvent pas être modifiés par les utilisateurs ou même l’administrateur système de l’installation !

D’autres dispositifs médicaux connectés ne sont pas munis d’un accès authentifié. Résultat, les comptes administrateurs peuvent être utilisés par des techniciens de service pour la gestion des dispositifs. Aucune authentification n’est requise pour l’accès régulier des utilisateurs.

« Les dispositifs médicaux sont des « boîtes noires » ; on ne sait pas ce qu’il y a dedans ni s’il y a suffisamment de sécurité. Les hôpitaux sont dépendants de ces grandes marques internationales », constate Philippe Loudenot, Fonctionnaire de la sécurité des systèmes d’information (FSSI) des ministères sociaux

Malgré différentes réglementations et recommandations, dont celle de l‘Agence nationale de sécurité du médicament, la sécurité reste encore très faible. Pourtant différentes mesures devraient être prises par les industriels parmi lesquelles un stockage sécurisé de la puce, un chargeur de démarrage verrouillable et un développement du firmware et du logiciel par une équipe comprenant des experts en sécurité.

D’autres mesures doivent être prises par les établissements de santé parmi lesquelles :

  • effectuer régulièrement des audits de sécurité ;
  • lors de l’installation du logiciel, ne pas accepter les paramètres de configuration par défaut ;
  • dans la configuration du système d’exploitation, désactiver le partage et l’impression de fichiers à distance ;
  • désactiver les comptes utilisateurs des anciens salariés…

Toutes ces mesures sont indispensables, car les conséquences peuvent être graves voire dramatiques. Les attaques peuvent non seulement détruire des systèmes informatiques, mais également paralyser la capacité des hôpitaux à respecter les rendez-vous des clients.

Il y a quelques jours, le CHU de Rouen a été visé par une cyberattaque (reposant sur un ransomware ou rançongiciels) qui a paralysé son système informatique pendant plusieurs jours.

Les banques françaises accusées d’être à l’origine d’une «colossale empreinte carbone»

Comment favoriser le passage aux énergies renouvelables tout en soutenant financièrement les projets qui ont recours aux ressources fossiles ? La mission est impossible, et les banques françaises sont confrontées à cette situation inextricable. Dans les faits, les soutiens bancaires français aux entreprises et projets polluants continuent. C’est pourquoi les associations écologistes Les Amis de la Terre et Oxfam France dénoncent «la colossale empreinte carbone des banques françaises». Selon un rapport publié le 28 novembre, BNP Paribas, Crédit Agricole, Société Générale et BCPE auraient émis 4,5 fois plus de CO2 que toute la France en 2018.

«Les émissions de gaz à effet de serre issues des activités de financement des quatre principales banques françaises dans le secteur des énergies fossiles ont atteint plus de deux milliards de tonnes équivalent CO2» fustigent les deux associations. Pour parvenir à ce résultat, Oxfam France et Les Amis de la Terre ont additionné les différents investissements des banques. Ils se matérialisent par des prêts accordés à des projets fossiles, des émissions d’obligations et des investissements en actions. L’an dernier, 1,7 milliard d’euros ont ainsi été prêtés pour soutenir des projets fossiles. Émissions d’obligations et d’actions se sont, quant à elles, élevées à 300 millions d’euros pour l’année 2018.

RWE, Cheniere Energy, Total, richement soutenus par les banques françaises

Parmi les activités incriminées : les soutiens financiers apportés par BNP Paribas et la Société Générale aux projets du groupe allemand RWE. Cette entreprise est la première pollueuse européenne du secteur privé, du fait de l’activité de ses centrales à charbon. Chaque année, elles émettent environ 100 millions de tonnes de CO2, soit autant que la Suède, la Suisse et le Portugal réunis. La firme ne prévoit pas de sortir du charbon avant 2038. Entre 2014 et 2016, les deux banques ont participé à deux prêts de 4 milliards d’euros à RWE. En 2019, BNP Paribas et la Société Générale ont réitéré leur contribution dans un nouveau prêt s’élevant à 5 milliards d’euros. Bien qu’ayant annoncé cette année vouloir soutenir moins de projets au charbon, rien n’indique que les deux banques françaises prendront des mesures restrictives à l’égard de RWE.

Les financements de projets fossiles sortent également des frontières de l’Europe.  La Société Générale et le Crédit Agricole soutiennent la production de pétrole et de gaz de schiste aux États-Unis. «Entre 2013 et 2015, la Société Générale et le Crédit Agricole ont respectivement accordé 588 millions et 252 millions d’euros de financement au projet Sabine Pass LNG» porté par la firme américaine Cheniere Energy, indique le rapport. L’entreprise est leader mondiale de la fabrication de gazoducs et de terminaux de liquéfaction et d’exportation gaziers. En 2020, les banques devraient soutenir de nouveaux projets de développement de Cheniere Energy. BPCE n’est pas en reste sur le sujet. Cette banque se joint aux trois précédemment citées pour soutenir régulièrement les projets de Total. Ainsi, plus de 5,7 milliards d’euros ont été prêtés à l’entreprise pétrochimique en 2018.

Bonnes volontés et « opinion publique » au cœur du changement

Oxfam France et Les Amis de la Terre estiment que de telles activités entrent en forte contradiction avec les objectifs de l’Accord de Paris. «Au nom de l’intérêt collectif, imposer une régulation financière serait un signal fort afin de limiter les impacts humains et de prévenir un risque de crise financière majeur dû aux changements climatiques» indique le rapport. C’est pourquoi les associations enjoignent l’État à prendre des dispositions dès 2020. «Par leurs soutiens massifs et continus au charbon, les banques françaises comptent parmi les principaux responsables du réchauffement climatique de plus de 1 degré qu’a subi la planète depuis la période préindustrielle» assène Alexandre Poidatz, chargé du financement de la transition énergétique chez Oxfam France.

De son côté, la ministre de la Transition écologique et solidaire Élisabeth Borne souhaite également que les banques soutiennent davantage de projets moins polluants. Afin que la transition se fasse de façon efficace, cette dernière évoque le rôle fondamental des investissements privés. «Il faut que les banques prennent des engagements pour orienter leurs investissements vers des investissements favorables à la transition écologique et énergétique». La ministre rappelle tout de même que les groupes bancaires commencent à agir : «Le Crédit Agricole sort du charbon, Axa a pris des engagements». Comme elle le souligne, la transition verte des banques est enclenchée, mais reste lente. Comment faire alors pour l’accélérer ? «Maintenant, c’est l’opinion publique qui a toutes les cartes en main, et je pense que les banques seront sensibles à la façon dont l’opinion publique peut juger leurs actions», considère-t-elle.

Les émissions mondiales de CO2 ont encore augmenté en 2019

En 2019, les émissions mondiales de CO2 dues à la combustion des énergies fossiles ont encore augmenté de 0,6 %. « Le ralentissement de la croissance en 2019 correspond aux tendances de la dernière décennie », note le Global Carbon Project à l’origine de ces calculs, en collaboration avec les universités anglaises d’East Anglia et d’Exeter. « Les émissions mondiales de CO2 d’origine fossile ont augmenté en moyenne de 0,9 % par an depuis 2010, soit moins que les 3 % enregistrés dans les années 2000. »

La croissance des émissions ralentit, mais cela est très loin d’être suffisant à un moment où les émissions doivent très fortement diminuer. Depuis l’Accord de Paris, les émissions mondiales dues à la combustion des énergies fossiles ont augmenté de 4 %. Celles dues à la consommation de charbon ont baissé de 0,9 % en 2019, notamment grâce au recul dans l’Union européenne et aux États-Unis. Mais elles ont été compensées par la croissance de l’utilisation du gaz naturel (+2,6 %) et du pétrole dans les transports (+0,9 %) dans le monde. Les émissions mondiales de CO2 dues à la combustion des énergies fossiles atteignent ainsi 37 milliards de tonnes de CO2. En particulier, elles ont augmenté de 2,6 % en Chine et de 1,8 % en Inde. Elles ont diminué de 1,7 % aux États-Unis et dans l’Union européenne.

D’autres émissions en hausse

Selon de premières estimations, les émissions dues à la déforestation par le feu et d’autres changements d’affectation des sols ont atteint 6 milliards de tonnes de CO2 en 2019. C’est environ 0,8 milliard de tonnes de plus qu’en 2018. Cette hausse est en partie liée à la recrudescence des incendies en Amazonie et en Indonésie. Au total, les émissions de CO2 dues aux activités humaines atteindraient donc 43 milliards de tonnes en 2019.

La concentration atmosphérique de CO2 a atteint 407,4 parties par million (ppm) en 2018 en moyenne. Elle devrait atteindre une moyenne proche de 410 ppm sur l’année 2019. Un niveau 47 % au-dessus des niveaux préindustriels.

Quelle est la répartition selon les secteurs ?

Global Carbon Project estime qu’environ 45 % des émissions mondiales de CO2 d’origine fossile proviennent du secteur de l’énergie, principalement de la production d’électricité et de chaleur. 22 % sont à attribuer à l’industrie, comme la production de métaux, les produits chimiques et l’industrie manufacturière. Les transports terrestres, les transports maritimes nationaux et l’aviation représentent 20 %, tandis que les transports maritimes internationaux et l’aviation en représentent 3,7 %. Les 9,3 % restants incluent des émissions complémentaires provenant de secteurs tels que les bâtiments, l’agriculture, la pêche et l’armée.

Malgré une faible baisse d’utilisation du charbon, ce combustible reste la première source des émissions d’origine fossile, environ 40 %. « Brûler du gaz émet environ 40 % moins de CO2 que le charbon par unité d’énergie, mais il ne s’agit pas d’un combustible à faible émission de carbone », rappelle Global Carbon Project. Si remplacer le charbon par du gaz diminue les émissions à court terme, cela ne peut être qu’une solution transitoire, car toutes les émissions de CO2 devront diminuer rapidement si les pays veulent atteindre la neutralité carbone.

Cloud : la mariée serait-elle trop belle ?

La douche froide ! Présenté comme la solution idéale pour assurer sa transformation numérique et bénéficier de logiciels et d’infrastructures innovants et flexibles, le cloud apparaît de plus en plus complexe à maîtriser.

Résultat, certaines organisations font machine arrière.  Menée par le cabinet IHS Markit auprès de 350 entreprises de plus de 500 personnes dans huit pays (dont la France), une récente étude constate que trois entreprises sur quatre reviennent en arrière sur leur migration vers le cloud.

Pour ce cabinet IHS Markit, il ne s’agit pas d’un rejet du cloud. Simplement, les entreprises constatent que la précipitation est mauvaise conseillère et que le cloud n’est pas la réponse à tous les cas d’usage. Par ailleurs, elles ne veulent plus mettre leurs œufs dans le même panier. En clair, elles expriment leur volonté de passer à une stratégie multicloud en diversifiant les prestataires.

30 % de services cloud inutilisés, mais payés

Expliquant ce désamour, deux raisons arrivent en tête pour 52 % des entreprises interrogées : un problème de performances et des questions de sécurité. Ce résultat confirme d’autres études.

Il y a quelques mois, le rapport intitulé « Top Challenges for CIOs in a Software-Driven, Hybrid, Multi-Cloud World » de Dynatrace mettait en évidence le brouillard dans lequel circulaient les responsables informatiques. Cette enquête mondiale, menée auprès de 800 DSI (Direction des systèmes d’information), indiquait que plus des trois quarts d’entre elles déclaraient ne pas avoir une visibilité complète sur les performances des applications dans les architectures natives du cloud.

Mais il y a surtout une inflation des coûts informatiques. C’est ce que l’on constate à la lecture du rapport de Dynatrace. Il indique que beaucoup d’entreprises sous-estiment le coût réel du cloud. Et la facture n’est pas anodine. Selon Insight, une entreprise française investit en moyenne 31,4 millions d’euros par an dans le cloud. Mais un tiers est dépensé pour des services cloud qui sont inutilisés.

La problématique de la sécurité est récurrente depuis quelques années. Après avoir fait confiance aux fournisseurs dans le cloud et autres hébergeurs, les entreprises commencent à être échaudées par les fuites de données à répétition. Elles découvrent, à leurs dépens, que c’est à elles de renforcer la confidentialité des données et des applications dans le datacenter d’un fournisseur.

Des tarifs qui ne reflètent pas la réalité

Mais le multicloud ne doit pas être présenté non plus comme la panacée. « La multiplication des abonnements, le mix entre cloud public, privé et hybride et le recours de plus en plus fréquent aux applications en mode SaaS (“software as a service”) obligent les entreprises à faire en permanence des choix », déclare Daniel Gonzalez, Directeur des Alliances et des Solutions, Insight.

Or, très souvent, les entreprises ne retiennent que les tarifs affichés par les fournisseurs. Mais ils ne reflètent pas la réalité ! Connaître précisément tous les coûts est l’un des critères les plus importants. Il est pourtant encore trop souvent négligé.

« C’est un casse-tête pour la majorité des organisations ! Elles ont du mal à valoriser et à identifier l’impact économique que les différents environnements peuvent avoir. Si on se cantonne uniquement aux outils mis à disposition par le fournisseur lui-même, ils ne suffisent pas à avoir une idée précise », insiste Daniel Gonzalez.

Ces coûts « cachés » ou supplémentaires concernent la personnalisation des services, les mises à niveau, la maintenance, le conseil… et aussi tous les services « ouverts » par les entreprises mais qu’elles n’utilisent pas souvent ou plus du tout.

Prix d’Excellence 2019 pour SKF France

Mardi 2 décembre, la branche française de la multinationale suédoise SKF a reçu le Prix d’Excellence 2019 de la Chambre de Commerce Suédoise pour récompenser sa politique d’investissements en France, ses performances sur ce marché et son engagement en faveur de l’innovation et des technologies vertueuses.

Le jury a particulièrement retenu l’implication de l’entreprise dans le Challenge Industrie du Futur, en collaboration avec Atos, ArianeGroup et Techniques de l’Ingénieur. Cette action récurrente -déjà deux éditions et une troisième en préparation- a permis de nouer des partenariats R&D avec des startups françaises et européennes.

En faisant émerger des solutions technologiques nouvelles pour améliorer la performance durable et la qualité de service en milieux industriels, le Challenge appuie la stratégie globale de transformation numérique de SKF France et son choix d’une industrie intelligente pour le développement d’une société plus durable.

Remerciant Veronika Wand-Danielsson, Madame l’Ambassadeur de Suède qui lui remettait le prix, Luc Graux, président de SKF France, a souligné que « cette distinction [venait] récompenser les engagements de toutes les équipes, collaborateurs et partenaires ainsi que les valeurs communes développées au sein de l’entreprise que sont le respect de l’environnement, l’esprit d’équipe et le dépassement de soi ».

WindEurope Offshore évalue positivement l’objectif 450 GW en 2050

Ce rapport a été réalisé pour répondre à la demande des ministres de l’énergie des mers du Nord (North Seas Energy Ministers), à Esbjerg, en juin 2019. Ces derniers voulaient notamment connaître les besoins en termes d’espace, de renforcement ainsi que de création de réseaux et de chaîne d’approvisionnement (la fameuse « supply chain »), c’est-à-dire une prise en compte de tous les freins potentiels à l’accélération du déploiement de l’offshore éolien en Europe pour parvenir à cet objectif ambitieux de 450 GW (230 GW est l’option basse portée par l’Union européenne).

Présenté mardi 26 novembre, le rapport de WindEurope est largement positif. Il estime l’objectif «faisable», avec 85% de la capacité éolienne (380 GW) dans «les mers du Nord», c’est-à-dire l’Atlantique (au large de la France, de l’Irlande et du Royaume-Uni), la mer du Nord et la mer Baltique. Le solde (70 GW) se répartirait au Sud de l’Europe (en Méditerranée, mais aussi en Atlantique, pour l’Espagne et le Portugal)…

Côté surface, atteindre cet objectif n’entraînerait une utilisation pour l’éolien marin « que » de 3% de la superficie européenne marine. Les 380 GW au Nord de l’Europe occuperaient 76 000 km2 (moins que la taille de l’Irlande) et 2,8% de la superficie des mers du Nord, a ainsi indiqué Giles Dickson, directeur général de WindEurope, présentant le document.

Un bémol cependant à cette assertion, puisque le rapport insiste sur la nécessité de faciliter l’intégration de l’éolien marin avec les autres activités, afin de réduire les zones «exclusives». Cela implique donc un «partage» des usages et parfois un remaniement des zones de navigation, voire de pêches, sous peine de faire monter le coût des projets. C’est particulièrement vrai pour la France, indique le rapport, qui évalue à 57 GW au total la capacité potentiellement installable à l’horizon 2050, dont 17 GW, pour la seule Méditerranée.

Des réseaux nécessaires

«La question du raccordement et de la planification des réseaux offshore, mais aussi terrestre, constitue également un enjeu sérieux pour parvenir à la cible», insiste le rapport. Raccorder chaque parc à la terre, comme cela se fait aujourd’hui, n’est pas un modèle viable à long terme, car il n’y aura pas assez de place pour les atterrages nécessaires. Pour accepter la production de parcs qui vont dépasser le gigawatt, il faut donc mutualiser.

Plusieurs projets d’îles artificielles ou non sont à l’étude (au Danemark, en Belgique, aux Pays-Bas) ou encore en mer Baltique. Là encore une condition a été soulevée : la nécessité de passer à des systèmes hybrides (avec plusieurs pays impliqués dans le réseau d’évacuation des parcs). Ce qui implique cependant une évolution des législations pour «partager» les ressources », ces pilots ou «hubs» pouvant se trouver à l’intersection de plusieurs zones de plusieurs pays.

Depuis 2016, la North Seas Energy Cooperation, qui regroupe les pays des mers du Nord, planche sur le sujet. Et la Commission européenne a d’ailleurs, dans une première étude, démontré le bien-fondé de telles solutions hybrides, à la fois sur le plan environnemental et pour réduire les coûts des projets, en réduisant le besoin de lignes pour connecter les parcs.

«Mais c’est aussi le réseau terrestre qui doit progresser afin d’accueillir la production offshore», insiste le rapport, rappelant qu’il faut fluidifier le transit des électrons à l’intérieur des terres.

La question de la durée de mise en œuvre des projets et de leur planification est aussi une autre condition nécessaire pour passer de 3 GW supplémentaires installés par an aujourd’hui, à 7 GW à la fin des années 2020 puis à 20 GW par an ensuite.

Le temps moyen de développement des projets offshore est de 11 ans, soit une durée incompatible avec l’accélération réclamée, d’où la nécessité de dérisquer les projets, et de réduire les procédures. «Un domaine qui relève beaucoup des politiques », rappelle WindEurope, de même que de la visibilité sur les politiques. «Une visibilité de long terme nécessaire pour des projets qui sont là pour durer plus de 25 ans en moyenne», insistent les investisseurs et l’ensemble de l’industrie éolienne offshore.

Une visibilité également requise pour prendre en compte la chaîne d’approvisionnement afin de parvenir à ces chiffres. Et une fois encore, l’ensemble des fabricants de machines et leurs fournisseurs se tournent vers les politiques pour marteler leur message.

Stalkerware : un logiciel pour espionner et harceler

On n’arrête pas le progrès ! Et l’imagination des cybercriminels ou des espions en herbe n’a vraiment pas de limites. La preuve avec la multiplication des Stalkerware. Il s’agit de logiciels de surveillance installés sur les téléphones à l’insu des propriétaires.

Pour cela, il existe deux méthodes principales. La première est l’installation directe sur un smartphone de ce petit programme qui a la faculté de ne pas être « visible » (sauf pour la personne qui l’aura installé). Ce moyen est utilisé dans la sphère privée, par un conjoint jaloux par exemple. La seconde consiste à cacher ce logiciel dans un autre programme anodin.

Ce type d’applications permet de suivre l’emplacement des victimes, de lire leurs SMS, de surveiller leurs appels téléphoniques, de voir leurs photos, vidéos… Pire, il peut être utilisé pour intimider et harceler, ce qui en fait un outil de prédilection pour les harceleurs et les conjoints ou ex-partenaires violents.

La situation devient inquiétante. En juillet 2019, Google a supprimé sept applications de ce genre sur son Play Store. Quelques mois plus tard, en octobre, la Federal Trade Commission a intenté sa toute première poursuite contre les développeurs d’un logiciel de harcèlement criminel pour atteinte à la vie privée et à la sécurité des utilisateurs.

Mais ces quelques initiatives ne suffisent pas. Il existerait près de 380 variantes de ce type de logiciels, soit 31 % de plus qu’il y a un an, selon l’éditeur d’antivirus Kaspersky. On peut en trouver pour 7€ par mois.

Pour limiter les risques d’être espionné, il est nécessaire de mettre un code de verrouillage inconnu des autres (ce qui bloque la méthode 1), d’être vigilant quand on installe un logiciel et d’installer un « bon » antivirus (ce qui doit bloquer la méthode 2)… Cependant, pléthore d’antivirus disponibles sur le Play Store sont de faux antivirus gratuits qui incitent à prendre leur version payante soi-disant après la détection d’un virus. Ce sont des arnaques, même s’ils ont de bonnes notes (bidon, évidemment).

Coalition utile ou effet marketing ?

Mais pour certains éditeurs, ces moyens de protection s’avéreraient insuffisants. C’est la raison pour laquelle des éditeurs de sécurité et des organisations ont décidé de créer la Coalition Against Stalkerware*. Elle a pour but de fournir de l’aide aux victimes, d’éduquer les consommateurs sur le fonctionnement des logiciels harceleurs et sur la façon de les repérer puis de les supprimer sur les téléphones.

La coalition a également mis en ligne une rubrique indiquant les États dotés de lois contre les harceleurs, et les groupes qui fournissent soutien et services aux victimes de violence domestique. Mais pour l’instant, elle n’affiche que les États nord-américains.

Mais une telle coalition est-elle vraiment nécessaire ? « Je me demande pourquoi le fait d’observer quelqu’un à son insu n’est pas considéré comme une fonctionnalité malveillante. Logiquement, n’importe quel antivirus devrait la détecter et la supprimer. Ni plus ni moins », nous a déclaré Boris Sharov, PDG de l’éditeur russe DrWeb.

En effet, l’analyse comportementale d’un antivirus est censée repérer ce type d’actions malveillantes… Manifestement, ce n’est pas le cas pour de nombreux logiciels de sécurité.

* Les partenaires fondateurs de la coalition sont Avira, EFF, European Network for the Work with Perpetrators of Domestic Violence, G Data Cyber Defense, Kaspersky, Malwarebytes, NNEDV, Norton Lifelock, Operation Safe Escape, et Weisser Ring.

La nanostructure du bois vivant enfin révélée : vers des superstructures en bois ?

Le bois suscite un intérêt grandissant en tant que matériau de construction léger et écologique. Savoir comment améliorer la solidité des structures bois est donc une question cruciale qui mènera peut-être un jour au remplacement de l’acier et du béton.

Comment font les arbres pour être aussi solides ?

C’est la réponse à laquelle l’équipe du professeur Dupree et du docteur Jan Lyczakowski désire répondre. Le fait est que la nature est capable de produire des buildings en bois d’une solidité à toute épreuve. Les séquoias géants en sont le meilleur exemple : certains spécimens dépassent les 80 m de haut pour une circonférence de 30 m.

En réalité, c’est l’architecture moléculaire du bois qui détermine sa solidité. Plus précisément, cette solidité est apportée par la paroi secondaire des cellules du bois, constituée de cellulose, d’hémicellulose et de lignine. L’étude conduite par les chercheurs concerne l’observation des macrofibrilles dont le diamètre ne dépasse pas quelques dizaines de nanomètres, mais qui sont pourtant d’une importance capitale !

La microscopie électronique cryogénique au secours du vivant

La microscopie électronique à balayage (MEB) est une technique de caractérisation des matériaux extrêmement populaire, mais elle a un inconvénient. En effet, l’observation d’échantillons au MEB nécessite une mise sous vide qui n’est pas compatible avec la présence de liquides. Or, comme l’eau est un composant essentiel des cellules vivantes, un passage au MEB implique le plus souvent une étape de séchage, ce qui a pour conséquence de priver l’observateur d’un grand nombre d’informations.

Pour résoudre ce problème, les chercheurs ont utilisé un MEB cryogénique (Cryo-SEM). Grâce à cette technique, ils ont ainsi été capables d’observer pour la première fois des cellules de bois hydratées.

Les résultats de l’étude

Les chercheurs ont comparé la structure cellulaire de plusieurs arbres du Jardin botanique de l’université de Cambridge : épicéa, peuplier et Ginkgo. Une plante annuelle, Arabidopsis thaliana, utilisée comme référence en biologie moléculaire, est également étudiée. Les observations indiquent tout d’abord une omniprésence des macrofibrilles dans les cellules des bois durs comme dans celles des résineux ainsi que de plantes telles qu’Arabidopsis. Par ailleurs, la comparaison de variantes d’Arabidopsis leur a permis de mettre en évidence que l’interaction xylane-cellulose influe fortement sur les propriétés mécaniques.

Grâce à cette acquisition de connaissances nouvelles et par la poursuite de leurs travaux, ils espèrent ainsi arriver à une restructuration cellulaire qui rende possible la fabrication de superstructures en bois plus solides.

Source