PlasticsEurope décortique les déchets plastiques en Europe

En 2018, le taux de recyclage des déchets plastique atteint 32,5% (+1,4 point par rapport à 2016) en Europe, et la valorisation énergétique 42,6% (+0,9 point). Si le recyclage augmente aussi en France, les déchets plastiques n’y sont encore recyclés qu’à hauteur de 24,2% (+1,3 point). Dans l’Hexagone, 43,4% des déchets plastiques sont valorisés énergétiquement (-1,1 point). La Norvège remporte la palme d’or européenne avec un taux de recyclage de 45%.

Encore 24,9% des déchets plastiques finissent en décharge en Europe (-2,4 point) et 32,5% en France (-0,2 point). Comparativement, la mise en décharge baisse beaucoup plus rapidement au niveau européen qu’en France. Sur les 12 dernières années, la mise en décharge a ainsi reculé de 44% en Europe, contre seulement 18% en France.

Évolution des tonnages (en millions de tonnes) collectés, recyclés, valorisés énergétiquement, mis en décharge et valorisation totale (recyclage + valorisation énergétique) en Europe entre 2006 et 2018. Source : Conversio Market & Strategy GmbH

Des efforts particuliers sur les emballages

Les politiques européennes de recyclage portent particulièrement sur les emballages. Représentant près des deux tiers des déchets plastiques européens, le taux de recyclage des emballages plastiques est de dix points supérieur à celui de l’ensemble des déchets plastique. Il atteint 42% en Europe, contre seulement 26,4% en France. La République Tchèque remporte ici la palme d’or européenne avec un taux de recyclage des emballages plastique de 52 %. Le recyclage des emballages s’accélère toutefois en France sur les deux dernières années : il a progressé de 4,2% par an entre 2016 et 2018, contre 2,9% par an en moyenne sur les 12 dernières années.

PlasticsEurope trouve tout de même quelques bonnes nouvelles pour le recyclage français. «Alors que le taux de recyclage des emballages en France reste toujours inférieur à la moyenne européenne, la France affiche de meilleures performances dans les autres secteurs, en particulier ceux de l’automobile (26,7% contre 19%) et de l’électrique et l’électronique (35% contre 24%)», relève l’organisme.

Généraliser la collecte séparée des plastiques

«Les chiffres parlent d’eux-mêmes : les 48% de déchets plastique issus de collectes séparées sont recyclés à hauteur de 62% alors que les 52% de déchets collectés en mélange en Europe, ne sont recyclés qu’à hauteur de 6%», note PlasticsEurope. L’association appelle donc à la généralisation de la collecte séparée pour atteindre des taux élevés de recyclage.

La France est particulièrement concernée. En 2018, seulement 32% des déchets plastiques générés dans le pays ont été collectés séparément. «Il faut absolument basculer de la collecte en mélange à la collecte séparée», analyse Hervé Millet, directeur des affaires techniques et réglementaires de PlasticsEurope. L’extension des consignes de tri d’ici 2022 et un meilleur respect du tri 5 flux (papier/carton, métal, plastique, verre, bois) devraient améliorer la situation. 25 millions de français sont concernés par l’extension des consignes de tri début 2020 avec un objectif à 34 millions fin 2020. Par ailleurs, le projet de loi économie circulaire prévoit la généralisation de la collecte séparée des déchets d’emballages consommés hors foyers d’ici 2025 et une obligation plus stricte d’une collecte séparée par les acteurs économiques.

Augmenter la circularité des plastiques

Les plasturgistes européens utilisent près de 4 millions de tonnes de plastiques recyclés issus de déchets post-consommation. 46% sont utilisés dans le BTP, 24% dans l’emballage, 13% dans l’agriculture. D’autres secteurs peinent à intégrer des plastiques recyclés. C’est notamment le cas de l’automobile, des articles ménagers, de sport et de loisirs, de l’électrique et de l’électronique.

Selon les secteurs, le contenu en matières recyclées des produits varie de 2 à 20%. Par exemple, les emballages contiennent en moyenne 5% de plastiques recyclés, contre 14% pour les plastiques du bâtiment et 20% pour les plastiques agricoles.

De l’hydrogène progressivement injecté dans les réseaux gaziers britanniques

Les réseaux de distribution de gaz sont en effet, outre-Manche, assez âgés et des kilomètres de conduites devront être changés dans les années à venir. De plus, la stratégie climatique britannique prévoit de réduire de 80% les émissions de gaz à effet de serre (GES) d’ici à 2050 (par rapport à 1990) et une bonne part des rejets proviennent du gaz, notamment du chauffage au gaz. D’où l’idée des gestionnaires de réseau gazier de remplacer, par étapes d’ici à 2050, le gaz naturel par l’hydrogène. Et les GRD de rappeler que, jusque avant les années 1960, le «gaz de ville» contenait quelque 60% d’hydrogène.

Le gaz constitue la première énergie de chauffage britannique (80% du chauffage en pointe, et 320 TWh par an consommés par les particuliers, ainsi que 98 TWh/an par l’industrie). «Le chauffage destiné aux habitations et à l’industrie représente la moitié de la consommation d’énergie du Royaume-Uni et un tiers de ses émissions de CO2, avec 83 % des ménages qui se chauffent au gaz», rappelle Cadent dans un communiqué publié à l’occasion du lancement du projet de Keele.

Mais basculer d’un coup du méthane à l’hydrogène n’est pas possible, ni techniquement pour les réseaux (risques de fuite accrus, résistance des matériaux des conduites), ni financièrement pour les particuliers (il faut changer les chaudières).

Un vaste programme

Le programme dénommé H21 North of England est porté par les deux grands gestionnaires de réseau du Nord de l’Angleterre (donc au centre du Royaume-Uni), Cadent et Northern Gas Networks (NGN). Ils planchent depuis 2008 sur le sujet, s’interrogeant sur le bien-fondé d’un remplacement à l’identique des réseaux de gaz vétustes. Les gestionnaires de réseau ont livré en 2016, un rapport pour passer du réseau gazier actuel à un système capable d’abord d’accepter jusqu’à 20% d’hydrogène, puis à l’horizon 2050, 100% dans les conduites, et décarboner le secteur du chauffage.

Ainsi, la première phase d’H21 North of England débute par le test d’un an, financé par Ofgem à hauteur de 7 M£, avec 20% d’hydrogène qui vient d’être lancé dans le réseau privé du campus de Keele (17 bâtiments universitaires et une centaine de foyers). Test réalisé avec ITM Power (pour l’électrolyseur produisant l’H2), le Health and Safety Laboratory (HSL), qui autorise spécifiquement la montée à 20% d’hydrogène dans le réseau, contre les 0,1% réglementaires actuels, des consultants de Progressive Energy et l’Université de Keele. Ce taux de 20% est équivalent à celui du projet Grhyd porté par Engie à Dunkerque.

La deuxième phase, HyDeploy2 se déroulera à l’Est sur le cluster Liverpool-Manchester, desservi par Cadent et à Leeds, livré par NGN. C’est d’ailleurs H21 Leeds City Gate, qui a préludé à H21 North of England. Objectif : dès 2020, alimenter 750 clients dans chaque zone avec 20% d’hydrogène. Le projet mancuno-liverpuldien mené par Cadent devrait démarrer rapidement, puis, en 2026, une injection à hauteur de 100% est prévue pour alimenter des sites industriels. La bascule totale est prévue en 2034, touchant 5 millions d’habitants, 10% de la demande gazière britannique et 10% de la consommation industrielle. A Leeds, la deuxième phase concerne des foyers, avec une injection d’hydrogène dans le seul réseau de distribution à une pression inférieure à 7 bars, pour éviter la fragilisation par l’hydrogène des conduites, l’une des problématiques de l’injection d’hydrogène dans le réseau actuel.

Capture et stockage du CO2 pour rendre soutenable la bascule hydrogène

Cette deuxième phase verra partiellement la réutilisation des moyens de production d’hydrogène de la phase 1 (électrolyse), mais sera surtout fondée sur le vaporéformage du méthane. Une technologie émettrice de CO2 qu’il faudra remplacer à terme pour «verdir» l’hydrogène. Mais, pour les concepteurs de la bascule gaz/hydrogène, la pérennité du système se fonde sur un approvisionnement à long terme stable en méthane (du biométhane, voire en passant par les gaz de schiste) ainsi que sur la capture et le stockage du CO2 (CCS) issue du vaporéformage (s’il s’agit de gaz de schiste).

D’où le choix de zones proches des champs gaziers en mer, notamment pour Cadent. Ce dernier estime en effet que les champs déplétés de Hamilton, au large de Liverpool pourraient accueillir quelque 23 millions de tonnes de CO2 gazeux ou 130 Mt en phase dense. En outre, le passage à une phase 100% hydrogène impliquera des stockages pour pallier les variations saisonnières de demande. Là encore, les gestionnaires de réseau misent sur les cavités salines présentes dans la zone, qui stockent aujourd’hui le gaz naturel de l’offshore britannique.

737 MAX : 2020 toujours sous de mauvais auspices pour Boeing

Rien ne va plus pour la filière aéronautique de Boeing depuis le crash de deux 737 MAX. Le 29 octobre 2018, un avion appartenant à la compagnie aérienne Lion Air s’était échoué en mer de Java, en Indonésie, faisant 189 victimes. Quelques mois plus tard, le 10 mars 2019, seulement six minutes après son décollage, un appareil de la compagnie Ethiopian Airlines se crashait non loin de l’aéroport d’Addis-Abeba en Éthiopie. 157 personnes ont péri dans la catastrophe. En cause : des défaillances sur le logiciel anti-décrochage MCAS (Maneuvring Characteristic Augmentation System) des appareils. Au total, 346 personnes sont décédées des suites de ces catastrophes aériennes.

Des centaines d’appareils toujours au sol

À la suite du second accident, la Federal Aviation Administration (FAA) a retiré l’autorisation de vol de l’appareil. Dans un premier temps, l’ancien patron de Boeing, Dennis Muilenburg, avait décidé de ne pas cesser la construction des appareils, mais simplement de la ralentir. Longtemps sur la sellette, l’homme a fini par être poussé à la démission le 23 décembre dernier. Ses décisions sur les rythmes de production, tout comme sa réticence à endosser la responsabilité des crashs, ont largement contribué à son désaveu.

Ainsi, dès le mois de mars, le rythme de production avait été ralenti à 42 nouvelles unités sorties d’usines chaque mois, contre cinquante-deux avant le début de la crise. En octobre dernier, Dennis Muilenburg espérait même que la production puisse atteindre 57 unités mensuelles à la fin de l’année 2020. Une prévision que l’on sait désormais intenable, car à l’heure actuelle, bien qu’espérée pour le mois de février, aucune date de remise en circulation n’a encore été officiellement annoncée par la FAA.

Depuis le début de la crise, plus de 400 avions neufs stationnent sur des parkings en attendant d’obtenir une nouvelle autorisation de vol. S’ajoutent à ceux-là les 383 appareils qui étaient en circulation avant le drame d’Addis-Abeba. En effet, plusieurs compagnies aériennes ont lourdement pâti, et pâtissent encore, de ces immobilisations. Le PDG de American Airlines, Doug Parker évaluait début janvier que sa compagnie avait perdu 540 millions de dollars du fait de ces immobilisations. Cette dernière exploitait vingt-quatre appareils, et comptait même en avoir cinquante fin 2019. Situation similaire chez la compagnie concurrente Southwest, dont les trente-quatre 737 MAX sont cloués au sol, alors qu’ils en attendaient, à l’origine, quarante de plus.

AFP

Des pertes cumulées évaluées à plusieurs milliards de dollars

Depuis lors, Boeing peine à remonter la pente et enregistre des pertes financières colossales. Le Wall Street Journal estimait à la mi-décembre que les pertes de l’avionneur s’élevaient au moins à neuf milliards de dollars. En outre, il est peu probable que la firme parvienne à redresser la barre avant a minima 2021. Et parce que Boeing est un acteur prépondérant de l’économie américaine, ces chutes de revenus ont entraîné un déclin du PIB des États-Unis estimé à environ 0,3%.  «Boeing est sans doute la seule entreprise qui, en cessant de fabriquer un seul de ses produits, peut faire du tort à l’économie américaine» expliquait au Wall Street Journal Luke Tilley, économiste chez Wilmington Trust, société de gestion de portefeuilles.

En juillet dernier, Boeing avait chargé 5,6 milliards de dollars (5 milliards d’euros) en prévision des compensations à verser aux compagnies aériennes contraintes de remplacer leurs 737 MAX par d’autres appareils pour assurer leurs rotations. Les compagnies américaines Southwest et American Airlines ont ainsi été indemnisées par Boeing entre décembre et janvier. Si les sommes n’ont pas été officiellement divulguées, American Airlines a néanmoins annoncé dans la foulée que 30 millions de dollars (28 millions d’euros) seraient répartis entre les salariés au titre de la répartition des bénéfices. Chez Southwest, le montant à répartir s’élevait à 125 millions de dollars (111,7 millions d’euros).

Malgré cela, Boeing soutient que les emplois de ses 12 000 salariés de l’usine de Renton près de Seattle ne sont pas menacés. En revanche, la situation n’est pas aussi simple pour ses six cents sous-traitants, composés de nombreuses PME. Au sein de ces structures, des dizaines de milliers d’emplois pourraient être en jeu. Partie prenante de la fabrication des moteurs des 737 MAX avec l’américain General Electrics, Safran a subi les conséquences de la crise. En 2019, les défaillances du 737 MAX auraient coûté 800 millions d’euros à la société française.

La FAA très attendue, mais un nouveau défaut a été révélé

Dès aujourd’hui, le 13 janvier, David Calhoun, ancien directeur général chez Blackstone, société d’investissement, prend officiellement ses nouvelles fonctions de patron chez Boeing. «Le Conseil d’administration a décidé qu’un changement de direction était nécessaire pour restaurer la confiance dans la société, alors qu’elle s’efforce de rétablir les liens avec les autorités de réglementation, les clients et toutes les autres parties prenantes» avait alors annoncé Boeing dans un communiqué. Pour lui, l’objectif sera clair : obtenir une autorisation rapide de la part de la FAA. Dans tous les cas, l’avenir financier ne s’éclaircira pas immédiatement car en l’état actuel, le 737 MAX n’est pas parvenu à satisfaire.

De plus, suite à un audit interne réalisé en décembre, il est apparu qu’en plus du problème de MCAS, le 737 MAX a un autre défaut. Selon le rapport d’audit consulté par le New York Times, il semblerait que deux faisceaux de câbles seraient trop proches l’un de l’autre. Cette proximité pourrait engendrer de courts-circuits, qui pourraient eux-mêmes causer un crash. Boeing pourrait donc être potentiellement contraint de fournir (encore une fois) une nouvelle version de l’appareil, bien que rien ne soit à l’ordre du jour. «Il serait prématuré de spéculer sur la question de savoir si cette analyse entraînera des modifications de conception. Notre priorité absolue est de garantir que le 737 MAX répond à toutes les exigences réglementaires et de sécurité avant sa remise en service» a préféré tempérer Gordon Johndroe, porte-parole de Boeing, dans un communiqué.

Le Danemark en nette avance sur l’éolien

Le Danemark mise sur les énergies renouvelables depuis de nombreuses années et commence à en cueillir les lauriers. Son objectif : atteindre 100% d’énergies renouvelables pour sa production électrique et réduire ses émissions de gaz à effet de serre de 70% en 2030 par rapport à 1990. Ainsi, la part des renouvelables (éolien et solaire) est passée de 19 % en 2009 à 50 % en 2019.

En 2017, l’éolien représentait 43% de la consommation électrique danoise. Après un recul de 2 points en 2018 avec des vents historiquement faibles, la production éolienne a atteint un nouveau record en 2019. L’année dernière, les éoliennes du pays ont couvert 47 % de sa consommation d’électricité, contre une moyenne de 14 % en Europe. Ces bons chiffres sont en partie à mettre en perspective avec la mise en service du parc éolien offshore Horns Rev 3 en mer du Nord en août 2019 par l’énergéticien suédois Vattenfall. Avec ses 49 éoliennes MHI-Vestas de 8,3 MW, il présente une puissance totale de 407MW, en faisant le plus grand parc de Scandinavie.

Le Danemark, nettement en avance sur la France

Pourrait-on imaginer un développement aussi important de l’éolien en France ? Dans l’Hexagone, le taux de couverture de la consommation électrique par l’énergie éolienne s’établit à 6,2 % sur le troisième trimestre 2019, proche de son taux moyen entre septembre 2018 et 2019 (6,7 %). Sur la même période, l’électricité renouvelable a couvert 21 % de la consommation électrique française.

En 2015, l’ADEME a publié une étude portant sur un mix électrique français composé à 100 % d’énergies renouvelable à l’horizon 2050. Dans son scénario de référence, l’agence imaginait un mix de production électrique composé à 63 % de l’éolien terrestre et en mer, 17 % de solaire, 13 % de l’hydraulique et 7 % de géothermie et biomasse. Le coût de ce mix était quasiment identique à un mix énergétique composé à 40 % de renouvelables (117 euros/MWh). Il serait donc théoriquement et économiquement possible de développer fortement l’éolien en France.

Toutefois, un tel scénario n’est pas du tout à l’ordre du jour en France. Simplement la France compte atteindre une part d’énergies renouvelables de 40 % dans sa production d’électricité en 2030. Le parc éolien a atteint 15,9 gigawatts (GW) fin septembre 2019. La programmation pluriannuelle de l’énergie (PPE) prévoit une puissance combinant éolien terrestre et en mer de près de 40 GW fin 2028. L’éolien couvrirait alors toujours moins de 20 % de la consommation électrique française. En attendant de nouveaux objectifs ambitieux, la consultation publique sur la nouvelle PPE 2019-2028 et la seconde Stratégie Nationale Bas Carbone (SNBC) se tiendra du 20 janvier au 19 février 2020.

Téléportation quantique entre deux puces au silicium : une première mondiale

Ne vous méprenez pas : la téléportation quantique n’est en aucun cas un moyen de transférer instantanément de la matière à travers l’espace. Loin des clichés véhiculés par la science-fiction, ce phénomène consiste plutôt à téléporter des états quantiques en respectant la théorie de la relativité restreinte. Il s’agit en réalité d’un protocole de communication axé sur la physique quantique et qui sert de base à la fabrication des ordinateurs quantiques.

La téléportation quantique, comment ça marche ?

Pourquoi parler de “téléportation” ? Le terme de téléportation quantique est utilisé pour décrire l’obtention instantanée d’une information. Comment est-ce possible ? Grâce au phénomène d’intrication quantique. Sans rentrer dans les détails de la physique quantique, on peut dire que l’intrication décrit le fait que “l’information contenue” dans une particule soit liée à une autre particule éloignée. Plus précisément, ce sont les états quantiques de ces particules qui sont en corrélation.

Bien que les ordinateurs quantiques expérimentaux soient une réalité (par exemple, Sycamore de Google), cette technologie n’en est qu’à ses balbutiements. Ce qui freine actuellement le développement de l’ordinateur quantique est, entre autres, la nécessité d’utiliser des matériaux présentant un effet supraconducteur qui a l’inconvénient d’être observable à des températures très basses, souvent proches du zéro absolu. Cet obstacle impose ainsi d’utiliser un refroidissement cryogénique coûteux, incompatible avec un usage domestique !

Première téléportation quantique entre 2 puces au silicium

Les circuits au silicium sont l’élément essentiel de nos ordinateurs traditionnels. Parce que ces puces sont utilisées depuis longtemps, les procédés de fabrication sont ainsi maîtrisés à la perfection et leur coût est beaucoup plus faible qu’auparavant. Réaliser des ordinateurs quantiques à base de silicium serait donc une vraie révolution.

Heureusement, des recherches sont en cours, notamment au CEA à Grenoble avec le consortium «Quantum Silicon», dont le but est de concevoir des bits quantiques basés sur la microélectronique du silicium.

Cet axe de recherche semble donc extrêmement prometteur. On doit ainsi à une équipe de chercheurs (dont les membres proviennent en autres du Quantum Engineering Technology Lab de l’université de Bristol) cette découverte : la première téléportation quantique entre 2 puces au silicium.

D’après l’étude publiée récemment dans le journal Nature, les puces de type CMOS qu’ils ont utilisées sont capables de produire des paires de photons intriqués et même des paquets de quatre photons (donc portant 4 qubits). Les photons produits par ces puces ont ainsi été envoyés vers une autre puce à travers une fibre optique, ce qui a permis pour la première fois l’observation du phénomène de téléportation d’états quantiques entre 2 puces au silicium.

Les promesses des technologies quantiques sont énormes. Même si des obstacles restent à franchir, la téléportation quantique permettra un jour le transfert quasi instantané d’informations sécurisées et de réaliser en quelques minutes des calculs qui prendraient des milliers d’années aux supercalculateurs actuels.

Sources : pour en savoir plus, lisez l’étude “Chip-to-chip quantum teleportation and multi-photon entanglement in silicon” publiée le 23 décembre 2019 dans le journal Nature et l’article de Laurent Sacco, pour Futura Sciences

Climat/Macron: des résultats « pas à la hauteur », pour les ONG

« Emmanuel Macron s’est posé en champion du climat sur la scène internationale. Néanmoins, les mauvais résultats au niveau national mettent en péril sa crédibilité et celle de la France », ont regretté les ONG membres du Réseau Action Climat (RAC).
« Les résultats sont loin d’être à la hauteur des discours. Son intervention devant la Convention citoyenne pour le climat ne changera pas la donne », poursuivent-elles, réclamant qu’il « passe à l’action sans plus attendre » pour mettre en place les « transformations profondes et justes » nécessaires face à l’urgence climatique.

Budget carbone de la France en hausse, émissions des voitures neuves en hausse, rénovation énergétique des bâtiments « qui patine »… « La France est dans le rouge sur l’ensemble des objectifs qu’elle s’est fixés », a martelé lors d’une conférence de presse Morgane Créach, directrice du RAC, estimant que le gouvernement avait pourtant eu l’occasion de faire plus lors du vote des lois mobilité, alimentation ou climat-énergie.
« On a le sentiment qu’Emmanuel Macron et le gouvernement mettent plus d’énergie à protéger les intérêts de certains industriels qu’à défendre l’intérêt général », a renchéri Jean-François Julliard, patron de Greenpeace France.

Les ONG saluent malgré tout le travail de la Convention citoyenne qui doit rendre en avril des propositions pour réduire les émissions de gaz à effet de serre de la France, propositions que le président a promis d’accueillir sans filtre.
Mais elle ne doit pas servir d' »alibi pour repousser des mesures qui s’imposent aujourd’hui », a insisté Morgane Créach.
« Les citoyens ont compris la nécessité d’un changement de modèle (…) et c’est encourageant », a commenté de son côté Cécile Duflot, directrice générale d’Oxfam France, tout en dénonçant une « opération de communication » d’Emmanuel Macron devant les citoyens de la Convention. « Les retards pris sont chaque jour plus irrattrapables », a-t-elle ajouté.

Selon l’ONU, pour que l’espoir de limiter le réchauffement à +1,5°C, objectif idéal de l’Accord de Paris, ne s’envole pas, il faudrait au niveau mondial réduire les émissions de CO2 de 7,6% par an, dès 2020 et chaque année jusqu’à 2030, ce qui nécessiterait une transformation inédite de l’économie mondiale. Mais à l’inverse, les émissions continuent à croître. En France, elles ont en revanche reculé en 2018, après deux années de hausse. Mais le Haut Conseil pour le Climat, mis en place pour Emmanuel Macron, a estimé en juin que les actions engagées contre le réchauffement sont « insuffisantes ».
abd/ial/cb

CES : la vitrine high-tech a connu quelques gros flops

Ce salon de l’électronique grand public est le rendez-vous incontournable de l’année. Depuis son inauguration à New York en 1967, le CES a profondément évolué. Dans les années 1970, c’était un salon professionnel, avec peu de couvertures médiatiques.

Mais depuis sa migration à Las Vegas à la fin des années 90, il est devenu la grand-messe high-tech. En une décennie sont apparus les smartphones, les tablettes, la TV connectée, le streaming, les drones, l’impression 3D, la TV 4K, les caméras sportives…

Toutefois, beaucoup de produits ne s’imposent pas et ne sont jamais utilisés par le grand public ou les professionnels. Qui se rappelle en effet des consoles de jeu présentées ces dernières années au CES et censées «révolutionner» la vie des gamers ? Ainsi, en 2005, Tiger Telematics proposait la Gizmondo. Un flop : un catalogue de jeux qui ne comptait guère plus d’une douzaine de titres. Seuls sept ont été mis en vente aux États-Unis. Et seulement 25 000 exemplaires de cette console ont été vendus.

Plus gros flop d’Apple

Même Apple a connu un échec dans ce domaine. Au CES 1996, la marque présente son Pippin, un ordinateur qui pouvait être aussi utilisé pour jouer à des jeux. Apple s’était associé avec le fabricant de jouets japonais Bandai. Mais cela n’a pas suffi.

Les consommateurs avaient été déconcertés par ce mi-ordinateur, mi-console vendu environ 600 dollars à l’époque. Le modem de 14,4 kpbs rendait l’appareil très lent, et peu de jeux étaient disponibles pour le système d’exploitation Mac. Résultat, quelque 10 000 Pippin avaient été vendus aux États-Unis. C’est l’un des plus gros flops d’Apple.

Autre flop retentissant, celui de la télévision 3D. Des prototypes avaient été présentés dès 2009 à Las Vegas. Le succès du film Avatar de James Cameron laissait croire au grand public que tout le monde aura dans son salon un écran plat diffusant du contenu en relief. 1,3 million d’exemplaires ont été vendus en 2014 dans l’hexagone. Un an plus tard, les ventes tombent à 800 000. Principales raisons : peu de contenus, la nécessité de porter des paires de lunettes ou d’acheter un écran lenticulaire très onéreux…

Néanmoins, le CES reste incontournable car c’est une sorte de laboratoire d’idées. Des entreprises, et surtout des startups, y présentent leur projet ou prototype afin de récupérer du feedback et ajuster leurs plans. Et certaines se heurtent aux réalités d’un marché encombré de gadgets plus ou moins utiles…

Internet souverain : la Russie teste la solidité de ses télécoms

L’Internet est devenu l’un des rouages essentiels à toute activité. Tous les pays en ont conscience. Cette hyperconnexion est désormais vitale mais également sensible. Une panne ou une cyberattaque de grande ampleur pourrait paralyser de nombreux services et entreprises.

En octobre 2018, un rançongiciel (ou ransomware) – un code malveillant chiffrant les données – avait touché l’Ukraine et la Russie. Le fonctionnement de l’aéroport d’Odessa, du métro de Kiev et de plusieurs médias russes avait été perturbé. Ce virus s’était ensuite propagé en Turquie, en Allemagne et aux États-Unis.

C’est la raison pour laquelle de nombreux États, dont la France, mettent sous «surveillance» permanente des organismes vitaux (ou OIV) pour l’activité économique et administrative.

Interception des SMS

La Russie va encore plus loin en menant cet hiver des expériences pour un «Internet souverain». Cette expression ne signifie pas nécessairement un test d’un système russe fermé. Il s’agissait plutôt de vérifier les vulnérabilités des systèmes de télécommunications numériques russes. Un exercice similaire avait été mené en 2014.

En plus de tester la résistance des télécoms en cas d’attaque informatique ou physique (la destruction de pylônes par exemple), les autorités ont également vérifié s’il était possible d’intercepter le trafic et les SMS des citoyens russes.

«Les résultats des tests ont montré que, dans l’ensemble, les autorités et les fournisseurs de services sont prêts à réagir efficacement aux risques et menaces émergents, ainsi qu’à assurer le fonctionnement fiable de l’Internet et du réseau unique de télécommunications», a déclaré le vice-ministre des Communications Alexei Sokolov.

Les autorités russes ont annoncé qu’un nouvel Internet russe devrait être disponible en 2021. Les fournisseurs d’accès à Internet devront s’assurer avant cette date que leurs réseaux disposent des moyens techniques de «contrôle centralisé du trafic» pour contrer les menaces.

Officiellement, ces «moyens» visent un objectif clair : garantir que les sites russes continueront à fonctionner s’ils ne peuvent pas se connecter à des serveurs internationaux ou en cas de menaces venant de l’étranger, comme les cyberattaques.

Mais les militants des droits de l’homme affirment qu’il s’agit d’une nouvelle tentative de censure, après les efforts déployés précédemment en Russie pour bloquer des services tels que Linkedin et le service de messagerie Telegram.

Des représentants du gouvernement russe ont cependant indiqué que ces tests représentaient un premier pas vers un Internet plus sûr, sous-entendu qu’il ne soit pas à la merci des technologies américaines…

Un gâchis à la française

Pour l’instant, il n’y a pas de décret gouvernemental appelant à la création d’un Internet russe, voire à l’équivalent de la Grande Muraille de feu de mise en place en Chine pour filtrer le contenu et limiter l’accès aux sites Web étrangers.

Mais une loi sur la sécurité de l’Internet en Russie a été modifiée en novembre dernier. Elle oblige les opérateurs de télécommunications à n’installer que les équipements approuvés par la version russe de la Commission fédérale américaine des communications, Roskomnadzor.

En France, l’Internet souverain reste entaché de plusieurs échecs, dont ceux de Cloudwatt (Orange associé à Thales) et Numergy (SFR avec Bull). Issus du projet Andromède, ces deux services d’hébergement des données sensibles en France avaient été lancés en 2012 par un cofinancement public/privé. Au travers du Fonds d’Initiative Stratégique, le gouvernement français leur avait confié 225 millions d’euros chacun.

Mais au bout de quelques mois, l’État s’était retiré de ces projets, en perdant quand même 75 millions… Un « gâchis à la française ».

La protection des données personnelles est renforcée en Californie

La Californie n’en est pas un paradoxe près. L’État de la Silicon Valley, où de nombreuses entreprises s’appuient sur l’analyse des données pour se développer, vient d’instaurer une loi qui règlemente justement l’usage des informations personnelles.

Annoncé depuis plus d’un an, le California Consumer Privacy Act (CCPA) est entré en vigueur en ce début d’année. Les Californiens peuvent désormais demander aux entreprises à recevoir tous les détails personnels qu’elles ont compilés sur eux. Il s’agit entre autres des journaux détaillés de leurs activités en ligne, de la géolocalisation, de leurs itinéraires de transport, des données faciales biométriques et des données de ciblage publicitaire.

Cette loi s’applique aux services de covoiturage, aux détaillants, aux entreprises de télévision par câble, aux fournisseurs de services mobiles et aux autres entreprises qui recueillent des données personnelles à des fins commerciales et plus connues sous le terme de Data brokers.

À la différence du RGPD, tout le monde n’est pas tenu d’être en conformité avec le CCPA. Il ne concerne que les entreprises américaines qui recueillent les renseignements personnels de 50 000 consommateurs ou plus ainsi que des entreprises dont le chiffre d’affaires annuel est supérieur à 25 millions de dollars.

De nombreuses grandes entreprises technologiques, dont Facebook, Microsoft et Twitter, ont mis à disposition des systèmes automatisés permettant aux utilisateurs de télécharger une copie de certaines données personnelles.

Le niveau de détail que les consommateurs pourront voir varie selon les entreprises. Microsoft indique par exemple les segments d’intérêt publicitaire associés à leurs comptes. De son côté, Twitter met à disposition des journaux montrant exactement comment les internautes ont été ciblés par une publicité spécifique.

Comme pour le RGPD, les entreprises américaines doivent (pour la première fois) indiquer à leurs employés les catégories de renseignements personnels qu’elles ont recueillies et leurs finalités. Enfin, les résidents de la Californie ont un nouveau droit. Ils peuvent dorénavant exiger que les entreprises suppriment leurs informations personnelles.

Une amende de… 250 millions de dollars !

Avec l’entrée en vigueur du CCPA, la pression monte sur le Congrès pour qu’il généralise cette loi à tous les États. Certains n’ont pas attendu cette décision. Le Nevada et le Vermont ont leurs propres lois sur la protection de la vie privée. L’État de New York pourrait suivre, mais avec une version encore plus ambitieuse en termes d’obligations des entreprises.

Comme avec le RGPD, les entreprises qui n’auront pas mis en place des procédures pour sécuriser les données personnelles et faciliter leur accès aux consommateurs s’exposeront à des amendes. À compter de juillet prochain, le non-respect de la conformité entraînera des sanctions civiles importantes.

Les amendes seront plafonnées à 7 500 dollars par violation si elle est intentionnelle et à 2 500 dollars si elle est involontaire. Elles pourraient s’appliquer par dossier d’utilisateur. En théorie, une absence de conformité involontaire de 100 000 dossiers d’utilisateurs pourrait entraîner une pénalité de… 250 millions de dollars !

De son côté, le RGPD prévoit une graduation des sanctions en cas de non-conformité et/ou d’atteinte à la protection des données. Elles peuvent atteindre jusqu’à 4 % du chiffre d’affaires annuel global de l’entreprise ou 20 millions d’euros (le montant le plus élevé étant retenu).

2019, une année pas neutre pour l’énergie

Si l’année 2019 avait bien commencé avec la présentation d’une mouture « avancée » de la programmation pluriannuelle de l’énergie (PPE), qui fixe les objectifs du mix énergétique français aux horizon 2023 et 2028, il a fallu attendre novembre pour que la loi énergie-climat soit enfin promulguée pour entériner les changements inclus dans la PPE.

La « petite », mais costaude loi

Mal nommée « petite » loi, puisqu’au final elle contient huit chapitres et 69 articles, cette loi devait au départ acter l’objectif de 50% de nucléaire en 2035 et non plus en 2025, comme la loi sur la transition énergétique pour une croissance verte de 2015 le prévoyait.

En outre, c’est Elisabeth Borne qui l’a achevée, après la chute en milieu d’année de son prédécesseur François de Rugy, bouté hors de l’hôtel de Roquelaure (siège du ministère de l’Ecologie et de la transition solidaire) par les « affaires ». La loi en profite pour aller jusqu’à la «neutralité carbone» à l’horizon 2050 et une division par six au moins des émissions carbonées d’ici à cette date. La feuille de route en est confiée à la Convention citoyenne pour le climat chargée à l’automne dernier de trouver les moyens d’atteindre cette étape intermédiaire dans un esprit de justice sociale et en trouvant les financements correspondants.

La loi comprend également une accélération de la baisse de la demande en énergies fossiles de 40% d’ici à 2030 (par rapport à 2012), contre 30% auparavant. Exit les quatre centrales au charbon d’ici à 2022, au passage. Elle dope aussi la part à venir de l’éolien offshore en portant annuellement les projets à 1 GW par an d’ici à 2024. La loi assure aussi une place à l’hydrogène bas carbone et renouvelable, dans le fil du plan Hulot. Pour maintenir le tempo de la baisse des émissions, elle prévoit en outre une nouvelle loi tous les cinq ans pour fixer les priorités d’action de la politique afin de répondre à «l’urgence écologique et climatique».

Un Haut conseil pour le climat est aussi créé qui évaluera l’action climatique de l’Etat et des collectivités territoriales. Le texte met également en place un dispositif progressif de rénovation énergétique des passoires thermiques et renforce la lutte contre la fraude aux certificats d’économie d’énergie (CEE). Côté marché, elle supprime les tarifs réglementés de vente (TRV) d’électricité pour les entités de plus de neuf salariés avec un chiffre d’affaires de plus de 2 millions d’euros et entérine la disparition des TRV gaz d’ici à 2023, comme l’Union européenne le réclamait. Une modification de l’Accès au nucléaire historique (Arenh) est permise pour permettre à la fois d’augmenter le niveau de la part de nucléaire qu’EDF doit céder au «marché» (150 TWh contre 100 TWh) mais aussi le prix de la cession, même si pour l’heure, le gouvernement n’y a pas touché. Enfin, elle fournit l’arsenal nécessaire à la transposition des directives issues du paquet européen «une énergie propre pour tous les Européens».

La loi en faveur des mobilités propres

La loi sur les mobilités a attendu également la fin d’année pour être publiée au Journal Officiel (le 26 décembre !), après des mois de débats houleux entre Assemblée nationale et Sénat. Une loi qui tend à combler l’absence de loi depuis 1982 sur le sujet, et qui s’organise autour de quatre grands enjeux : mettre en œuvre des autorités organisatrices de la mobilité (au niveau communal, intercommunal, ou, par subsidiarité régional), la LOM passant de la notion de droit aux transports à celui de droit à la mobilité. En outre, il s’agit d’adapter la législation à la nouvelle donne (mise à disposition de données, mobilité autonome, par exemple). L’objectif est également de permettre de mettre en place les infrastructures, en donnant les outils afin de faciliter la décision d’investissement. Enfin, il faut aussi répondre à l’ambition de neutralité carbone inscrite dans la loi énergie-climat récemment votée, en allant vers une mobilité plus propre et plus active.

Le texte vise en outre à deux objectifs concomitants : réduire les émissions de CO2 en volume, d’une part, et lutter contre la pollution de proximité, qui a un impact direct sur les populations (notamment en ville). Là encore, une évaluation est prévue tous les cinq ans (donc en 2024 et ainsi de suite), mais cette fois par l’Office parlementaire des choix scientifiques et technologiques (OPECST).

Le véhicule électrique est parmi les grands gagnants du texte, comme la motorisation via l’hydrogène. En actes, le bonus écologique s’applique, depuis le 1er janvier à des véhicules émettant moins de 20 gCO2/km, comme des véhicules électriques ou fonctionnant à l’hydrogène, et le gouvernement a augmenté de 50% en 2020 les moyens consacrés au bonus, pour soutenir le passage à des véhicules propres. Des bonus en fonction du coût desdits véhicules. A l’inverse, depuis le 1er janvier, le barème du malus est renforcé pour les véhicules les plus émetteurs, en particulier les SUV : le seuil de déclenchement du malus passe de 117 gCO2/km à 110 gCO2/km ; le malus maximum passe de 10 500 € à 20 000 € ; les différents niveaux de malus sont globalement doublés voire triplés.

Les autres dossiers

Parmi les autres dossiers traités l’an dernier, un changement dans les aides à la rénovation énergétique. Maprimerénov’, à compter du 1er janvier, fusionne le Crédit d’impôt transition énergétique (CITE), d’une part, et les aides Habiter Mieux Agilité, de l’Agence nationale de l’Habitat (ANAH) d’autre part. Visant à la simplicité et à plus de justice, cette aide est supposée s’adapter aux revenus des ménages pour aider davantage ceux qui en ont le plus besoin. Elle sera désormais aussi versée l’année des travaux, contrairement au CITE.

Côté nucléaire, le gouvernement a reculé à «une date ultérieure» le projet de réacteurs à neutrons rapides Astrid, laissant la filière nucléaire en un certain désarroi quant à un potentiel passage à une quatrième génération de réacteur (l’EPR c’est la troisième génération), pourtant capables de «brûler» des déchets. Dossier connexe qui reste pendant, après avoir eu déjà un débat public : le programme national de gestion des déchets et matières radioactives (PNGMDR), et son adoption pour les années à venir, avec un possible choix sur la fin du cycle du combustible : retraitement ou pas retraitement de tous les combustibles usés ?

MaPrimeRénov’ : la nouvelle aide à la rénovation énergétique

Le glas du crédit d’impôt transition énergétique (CITE) sonnera bientôt. Cette aide est progressivement remplacée par la prime unique «MaPrimeRénov’». Objectif : simplifier les demandes d’aides et faciliter les financements de travaux de rénovation énergétique des logements. Gérée et versée par l’Agence nationale de l’habitat (Anah), cette nouvelle prime fusionne à la fois le CITE et les subventions du programme « Habiter Mieux Agilité ». Cela signe la fin prochaine de l’avantage fiscal de 30 % perçu avec un an de décalage. La nouvelle prime sera versée aux propriétaires dès la fin des travaux. Comme pour le CITE, pour bénéficier de cette prime, les travaux devront être réalisés par un professionnel qualifié RGE (Reconnu garant de l’environnement).

Une prime complémentaire aux aides existantes

En 2020, MaPrimeRénov’ concerne uniquement les propriétaires aux revenus modestes et très modestes qui occupent leur logement, en France métropolitaine et en Outre-mer. En plus, la construction de ce logement doit être achevée depuis au moins 2 ans. Est par exemple considéré comme modeste un foyer composé de deux personnes, ayant un revenu annuel inférieur à 36 792 euros en Île-de-France, ou 27 896 euros ailleurs.

Pour chaque type d’opération, le montant de la prime varie selon deux facteurs : le revenu du demandeur et le gain énergétique apporté par les travaux. MaPrimeRénov’ sera élargie aux propriétaires occupants à revenus intermédiaires, aux propriétaires bailleurs et aux syndicats de copropriétaires en 2021. Le revers de la médaille est que les ménages aisés gagnant plus de 27 706 euros par an pour la première part de quotient familial sont exclus de ce nouveau dispositif. Hormis les travaux d’isolation thermiques, ces ménages perdent ainsi toute aide et crédit d’impôt pour la rénovation énergétique.

Cette nouvelle prime se cumule avec les aides locales, les certificats d’économies d’énergie (CEE), la TVA réduite à 5,5% sur les travaux d’économie d’énergie et l’éco-prêt à taux zéro (éco-PTZ) pour financer le reste à charge. Elle se révélera donc plus intéressante que le CITE sur certains travaux. En se combinant aux autres aides existantes, la nouvelle prime pourra couvrir jusqu’à 90% des dépenses des ménages très modestes et jusqu’à 75% des dépenses des ménages modestes. Toutefois, chaque logement pourra cumuler au maximum 20 000 euros de primes MaPrimeRénov’ sur 5 ans.

Quels sont les travaux éligibles ?

L’aide concerne les travaux d’isolation thermique des murs par l’intérieur ou l’extérieur, parois vitrées, toitures terrasses, rampants de toiture et plafonds de combles. L’achat de pompe à chaleur (PAC) géothermique, air/eau, de chaudières à bûches ou à granulés, de poêle et cuisinières à bûches comptent parmi les travaux éligibles. C’est aussi le cas du chauffage solaire combiné, du chauffe-eau solaire individuel ou thermodynamique, du raccordement à un réseau de chaleur ou de froid, de la pose d’une ventilation double flux, de la dépose de cuve à fioul, ou encore de l’audit énergétique. Citons une dernière opération et non des moindres : la rénovation globale pour passer d’un DPE F ou G à un DPE compris entre A et C.

Concrètement, comment faire sa demande d’aide ?

Un site dédié pour toutes les démarches voit le jour : maprimerenov.gouv.fr. Il permet dans un premier temps de vérifier votre éligibilité et le montant de la prime éventuelle. Si vous n’êtes pas éligible, vous pourrez toujours bénéficier du CITE en 2020. Vous êtes éligible ? Pour constituer votre dossier, il faudra ensuite fournir les informations sur votre situation fiscale et le devis de l’artisan RGE retenu. Cela permet d’obtenir une première estimation et de déposer sa demande de prime, impérativement avant le début des travaux. Quelques jours plus tard, vous devriez recevoir par mail la confirmation de l’obtention de l’aide, ainsi que son montant. Dès lors, vous pourrez lancer vos travaux. Et dès la fin des travaux, vous pourrez envoyer la facture de l’artisan. Au final, vous recevrez un virement bancaire de l’État. A compter de mai 2020, un ménage pourra recevoir une avance de frais pour aider à régler l’acompte des travaux. Il aura par ailleurs la possibilité de désigner un mandataire pour déposer son dossier de demande de subvention d’aide en ligne. Le mandataire pourra en plus préfinancer l’aide de l’Anah et percevoir donc la prime à la place du ménage.

Le versement des premières primes débutera en avril prochain et implique donc un temps d’attente jusqu’à 3 mois pour les premières demandes. « En régime de croisière, les délais d’instruction sont de 15 jours pour une demande de prime (notification du droit à subvention), une demande d’avance (versement de l’avance), une demande de solde (versement du solde) », promet le ministère de la transition écologique et solidaire.

Pour obtenir un accompagnement gratuit et personnalisé dans votre projet de rénovation énergétique, un conseiller FAIRE se tient au 08.08.80.07.00 ou sur www.faire.gouv.fr/marenov.

CES 2020 : une délégation française réduite mais de qualité

Une fois n’est pas coutume, la «French Tech» commence l’année 2020 au CES de Las Vegas. Pour la 53ème édition du Consumer Electronics Show, la délégation française est réduite par rapport à 2019. L’an dernier, plus de 430 start-up avaient fait le déplacement, contre environ 300 aujourd’hui. Cependant, cette baisse ne traduirait pas un mauvais état de santé du secteur de l’innovation en France, mais une sélection plus drastique des innovations présentées. Le consultant Olivier Ezratty a indiqué à l’AFP voir dans cette décision une «preuve de maturité» du secteur.

Une délégation réduite pour réaffirmer les ambitions françaises

Frédéric Rossi, directeur général délégué de Business France, voit dans cette réduction le déclin d’un besoin exacerbé de la part du secteur français de l’innovation de faire ses preuves. «En 2014-2015, c’était important que la French Tech montre ses muscles parce qu’elle n’existait pas sur le radar de la tech mondiale. Il y a sans doute eu des excès, c’est un peu un retour de balancier», a-t-il déclaré à l’AFP. Notons néanmoins que si les petites structures pullulent, le nombre de PME demeure quant à lui bien plus réduit. Toujours est-il que la France reste sur le podium, seules les délégations chinoise et américaine étant supérieures.

Et pendant que le géant sud-coréen Samsung présente ses nouveaux avatars humains numériques, les startups françaises ont plutôt tendance à mettre la technologie au service du quotidien des particuliers et des entreprises. En parallèle, les régions soutiennent les startups dans le but d’affirmer l’ambition des territoires en termes d’innovations. Ainsi, la région Île-de-France indique dans un communiqué que sa «mobilisation s’inscrit dans le cadre d’une stratégie globale pour faire de l’Île-de-France une « Smart Région », et plus particulièrement la capitale de l’Intelligence Artificielle en Europe». Entre 2016 et 2020, l’Île-de-France a consacré un budget de 240 millions d’euros aux innovations.

Du marketing à la brosse à dents…

Seize startups franciliennes font partie de la délégation française actuellement présente à Las Vegas. Parmi elles, plusieurs présentent des innovations à destination de la communication des marques.  La jeune pousse Retail VR propose ainsi une solution de visualisation en réalité augmentée de catalogues d’offres marchandes. Popmii s’inscrit également dans le secteur de l’innovation publicitaire en proposant aux marques de faire de leurs clients des ambassadeurs grâce à la réalité augmentée sur smartphone. Dans un tout autre secteur, la start-up parisienne Actronika propose par exemple un « actionneur » permettant de reproduire des sensations tactiles – le vent, la pluie, le feu – dans un environnement virtuel.

D’autres innovations ambitionnent de faciliter la vie quotidienne des consommateurs, à l’image de la start-up nantaise Asmodine, portée par l’ancien basketteur international Claude Marquis. La jeune pousse propose d’accompagner virtuellement les personnes qui ont des difficultés à trouver des vêtements adaptés à leur taille durant leur e-shopping. D’autres ambitionnent de s’immiscer dans les foyers, comme Y-brush. La société propose pour une centaine d’euros un outil électrique aux allures de protège-dents capable de brosser les dents en moins de dix secondes. Le dispositif s’adresse notamment aux personnes à mobilité réduite et aux enfants porteurs de handicap.

Un moteur solaire autonome pour alimenter les sites isolés

Le moteur solaire autonome de la start-up française Saurea – pour “Solar Autonomous Reliable Applications” – convertit directement l’énergie solaire en énergie mécanique. Le premier modèle commercialisé affiche une puissance mécanique de 130 W. La particularité de ce moteur est qu’il est dépourvu de balais, d’électronique, d’aimants et fonctionne en courant continu. Haut de 22 cm, le moteur photovoltaïque auto-commuté qui utilise l’énergie en temps réel (pas de stockage) a un diamètre de 70 cm et pèse 21 kg.

“Sa conception est simple : il ne comporte qu’une couronne de cellules photovoltaïques, un stator bobiné et un axe unique sur lequel est fixé un obturateur, et le rotor du moteur, explique Gilles Coty, directeur technique et fils de l’inventeur du moteur solaire autonome. C’est sur cet axe que l’on va récupérer l’énergie mécanique du moteur”. Dès qu’il est exposé au soleil, ce dernier se met à tourner. “Couplé à des panneaux solaires additionnels, le moteur va être capable de fournir la puissance d’une personne en pleine forme”. Le seul composant actif est la cellule photovoltaïque qui a une durée de vie entre 20 et 25 ans. Soit la même durée de vie que celle du moteur.

Alimenter les sites isolés

Le moteur Saurea s’adresse dans un premier temps aux sites isolés énergétiquement, non raccordés au réseau électrique. Les applications sont multiples : il peut être utilisé dans des installations de pompage pour entraîner une pompe, de ventilation, de brassage d’eau, de broyeur, de brumisateur, de centrifugeuse, etc. Que ce soit dans les collectivités, dans l’agriculture (pour alimenter de petites machines par exemple), ou encore en aquaculture. En plus des sites isolés, la start-up souhaite également toucher les marchés de la transition énergétique, en milieu urbain. On imagine par exemple l’arrosage des endroits difficiles d’accès comme des murs végétalisés ou des toitures. “Notre moteur peut attirer les architectes dans les nouvelles constructions labelisées RGE («Reconnu Garant de l’Environnement», ndlr), ou les maisons 100 % autonomes” ajoute Isabelle Gallet-Coty, la présidente.

Cinq brevets ont été déposés pour le premier moteur de la gamme, commercialisé depuis juin pour un coût avoisinant les 2000 euros. Saurea travaille sur le développement de sa gamme de moteur pour proposer différentes puissances, tels qu’un moteur à panneaux intégrés de 40 W mécaniques (800 tr/mn), un moteur avec panneaux photovoltaïques additionnels de 130 W mécaniques (1000 tr/mn) ou encore un moteur avec panneaux photovoltaïques additionnels de 250 W mécaniques (1500 tr/mn).

L’origine de la spin-off

Alain Coty, ingénieur électrotechnicien issu de l’aérospatial, a inventé le principe breveté du moteur solaire autonome. Le développement a ensuite été réalisé avec des chercheurs du laboratoire Systèmes et applications des technologies de l’information et de l’énergie (CNRS/ENS Paris-Saclay/ENS Rennes/Cnam/Université de Cergy Pontoise/Université de Paris-Sud/Ifsttar) pour la partie modélisation et du laboratoire Génie électrique et électronique de Paris (CNRS/CentraleSupélec/Université Paris-Sud/Sorbonne Université). La start-up est née en 2016 pour industrialiser et commercialiser le moteur solaire. Deux chercheurs, Lionel Vido (du premier laboratoire) et Loïc Quéval (du second), sont associés à l’entreprise.

Comment le machine learning peut aider à la création d’électrolytes plus performants ?

La chimie quantique est un domaine dérivé de la chimie théorique qui utilise les résultats de la mécanique quantique pour étudier les propriétés et les mécanismes des systèmes moléculaires. Sans rentrer dans les détails, on peut dire que la chimie quantique s’intéresse essentiellement aux :

  • propriétés structurales des molécules : géométrie, fréquence de vibration ;
  • propriétés énergétiques : énergie de liaison, d’excitation, etc.
  • propriétés réactionnelles : barrières d’activation, liaisons chimiques, etc.

Résolution numérique d’équations quantiques

Les équations de la chimie quantique étant extrêmement complexes, elles ne peuvent être résolues de manière exacte. Néanmoins, une résolution numérique approchée peut être obtenue à l’aide de supercalculateurs et de modèles théoriques. C’est donc ce principe qu’a appliqué l’équipe de chercheurs du Department of Energy’s (DOE) Argonne National Laboratory.

Comme expliqué dans deux publications récentes, pour MRS Communications et le journal Chemical Science, ils ont ainsi utilisé une méthode de calcul appelée G4MP2, dont la précision est supérieure à 1 kcal.mol-1. Cependant, même avec des modèles numériques, il est actuellement impossible (pour des raisons de coût et de temps) de résoudre avec précision de telles équations pour les quelque 166 milliards de molécules organiques potentiellement utilisables en tant qu’électrolytes.

Le machine Learning comme solution

La méthode G4MP2 a donc été appliquée aux presque 134 000 molécules de la base de données GDB-9 qui contient l’ensemble des molécules organiques comprenant jusqu’à neuf atomes (parmi C, N, O, F, H). Grâce au machine learning, les chercheurs ont pu analyser comment les atomes de ces grosses molécules interagissent et se lient. Une comparaison avec des molécules connues leur a ainsi permis de détecter des similarités au niveau énergétique.

L’application du machine learning à la recherche fondamentale n’en est qu’à ses débuts : le calcul de ces propriétés énergétiques servira ainsi de base à de futures recherches.

Source : d’après l’article de Jared Sagoff et les travaux de l’Argonne National Laboratory (USA)

Image de Une : Shutterstock / Cherezoff.

Un nouveau matériau pour la robotique souple

Le procédé qu’ils ont mis au point permet de concevoir des squelettes métalliques trois fois plus légers que ceux utilisés habituellement pour la fabrication de robots origami.

Robotique souple : défis et applications

Les robots souples sont une catégorie de robots d’un genre nouveau. Souvent inspirés du monde végétal ou animal, ces dispositifs déformables ont pour but d’élargir le champ d’application de la robotique, jusqu’ici constituée de structures rigides. Ainsi, de tels robots miniaturisés pourraient être par exemple utilisés pour l’exploration d’environnements mous, dans les domaines de la biologie, du médical ou encore en agriculture (élevage).

Néanmoins, l’avenir de cette filière repose en grande partie sur le développement de nouveaux matériaux qui devront être à la fois déformables, légers, résistants aux agressions physico-chimiques et également contrôlables.

Les robots origami

L’équipe du professeur Chen Po-Yen a choisi une voie d’exploration originale : celle des robots origami. L’origami est un art japonais millénaire qui permet de concevoir des structures en trois dimensions à partir de pliages de papier. La première étape a donc été de concevoir une sorte de squelette en papier semblable à un accordéon.

Néanmoins, bien que le papier ou le caoutchouc soient régulièrement utilisés pour leur souplesse, ces matériaux sont loin d’être fonctionnels pour une utilisation robotique. Voilà pourquoi on leur ajoute généralement des capteurs et des composants électriques qui ne font qu’alourdir le robot.

Un procédé innovant pour un matériau ultraléger

Les chercheurs ont donc développé une méthode permettant de transformer un origami papier en origami métallique. Le processus de fabrication, appelé “graphene oxide-enabled templating synthesis” est expliqué dans leur dernière publication pour le journal Science Robotics.

  • Le papier en cellulose est imprégné d’une solution d’oxyde de graphène.
  • Il est ensuite plongé dans une solution contenant des ions métalliques (par exemple Pt+).
  • Le matériau est brûlé sous gaz inerte à 800°C (par exemple Argon).
  • Il est chauffé une seconde fois à 500°C dans l’air.

Le matériau obtenu est une feuille constituée de métal et de carbone amorphe (dans le cas présent : 70%m Pt, 30%m carbone amorphe).

Prochaine étape, l’ajout de fonctionnalités

Ce matériau présente de nombreux avantages. Parce qu’il est constitué de feuilles de métal d’à peine 90 microns d’épaisseur, il est extrêmement léger, ce qui permet de concevoir des robots origami consommant peu d’énergie. De plus, il est résistant aux hautes températures (800°C pendant 5 minutes) et aux environnements extrêmes.

Ces travaux vont se poursuivre dans les années à venir. La prochaine étape sera l’ajout de nouvelles fonctionnalités, comme l’incorporation de matériaux électrochimiquement actifs, ce qui ouvrirait la voie à la création de robots auto alimentés.

Source : d’après les travaux du Professeur Chen Po-Yen et de Yang Haitao, de la National University of Singapore (NUS)

Image de Une : NUS

Des catalyseurs métalliques liquides pour capturer le CO2 de l’air

Dans une étude publiée dans le journal Nature Communications, l’équipe du professeur Kalantar-Zadeh de l’University of New South Wales (Sydney, Australie) a démontré l’efficacité des alliages eutectiques Bi-Sn dans la réduction électrochimique du CO2 et la photocatalyse.

Une recette étonnamment simple

Les alliages eutectiques dont il est question ici ont la particularité de fondre à des températures inférieures à 300°C. Ainsi, un alliage composé à 57 % de bismuth et à 43 % d’étain fond à 139 °C alors que l’étain et le bismuth métallique, pris séparément, ont chacun un point de fusion autour de 200 °C.

Afin de prouver sa simplicité de mise en œuvre, le professeur Kalantar-Zadeh décrit le procédé de fabrication d’un tel catalyseur à la manière d’une recette de cuisine.

  1. Mettre l’alliage eutectique dans une casserole, sur feu vif.
  2. Une fois le métal fondu, le placer dans une bouteille contenant de l’eau et refermer le bouchon.
  3. Secouer la bouteille pour former des gouttelettes de métal liquide, non miscibles dans l’eau (même phénomène qu’en secouant une bouteille de vinaigrette).
  4. Laisser les gouttelettes se solidifier en une poudre utilisable en tant que catalyseur.

Bien entendu, cette description simpliste est donnée à titre d’illustration. Les travaux de cette équipe de chercheurs vont beaucoup plus loin. Ils ont ainsi utilisé un générateur à ultrasons à haute température afin de fractionner les alliages solides en nano-alliages. Un refroidissement à l’azote liquide permet d’obtenir un nano-alliage en suspension (par exemple BixSn1–x) qui doit être lavé et séché. Ensuite, deux solutions sont possibles : soit le nano-alliage est employé pour la réduction électrochimique du CO2, soit il subit une étape d’oxydation, auquel cas il peut être utilisé pour la dégradation photocatalytique (d’un composé organique ou d’un pesticide par exemple).

Des métaux lourds à la toxicité faible

Les métaux constituant ces alliages catalyseurs ont la particularité d’être peu dangereux, par rapport à d’autres métaux lourds. En effet, l’étain (Sn) sous forme métallique n’est pas toxique : il est d’ailleurs utilisé en contact alimentaire depuis l’antiquité. Par ailleurs, bien que les propriétés du bismuth soient similaires à celles du plomb, sous sa forme métallique, le bismuth (Bi) est réputé être le moins toxique des métaux lourds*. Le gallium (Ga) métallique, lui, est considéré comme faiblement toxique même s’il est corrosif pour la peau et les muqueuses.

Une méthode économique

Ces métaux ont l’avantage d’être couramment employés dans l’industrie, ce qui fait baisser leur coût et les rend facilement disponibles à peu près partout. Le procédé présenté par l’équipe du professeur Kalantar-Zadeh est donc une méthode de dépollution simple, économique et efficace, dont l’industrialisation ne posera probablement pas de problème majeur.

En attendant, leurs travaux de recherche sur les liquides métalliques se poursuivent : ils seront ainsi financés par l’Australian Research Council pour les quatre prochaines années.

* La toxicité du gallium et du bismuth a été jusqu’ici peu étudiée, il est donc probable que l’ensemble de leurs effets sur la santé (et l’environnement) ne sont pas encore connus.

Source

Le charbon est toujours présent dans le mix mondial…

Dans son Coal Report 2019, publié en décembre, l’AIE réalise un pré-constat sur 2019 et des prévisions jusqu’en 2024. Il souligne ainsi que la demande en charbon a progressé de 1,1% en 2018, que la production a augmenté de 3,3% sur l’année, que les échanges internationaux de houille ont enregistré une hausse de 4% cette même année, pour dépasser 1,4 milliard de tonnes. L’électricité a tiré à la hausse cette demande, passant pour la première fois le seuil des 10 000 TWh produits.

Et les prix ont été 60% plus élevés qu’en 2016, faisant du charbon une « commodité » lucrative sur l’année 2018.

En termes de production, trois pays ont réalisé leur meilleure année : Inde, Indonésie et Russie, ces deux derniers pays ayant battu leur record cette année-là. Avec un prix en hausse, les revenus liés à l’exportation pour l’Australie ont atteint les 67 milliards de dollars, faisant de la houille la première commodité à l’export.

L’Asie carbure à la houille

Inde, Chine, Indonésie, Vietnam, Pakistan, les pays asiatiques tirent clairement à la hausse la demande en charbon. La part de cette énergie dans l’électricité asiatique est passée de 20% en 1990 à 80% en 2018. Et, comme le rappelle l’AIE, dans ces pays la moyenne d’âge des centrales alimentées par ce combustible est de 12 ans, soit une trentaine d’années de moins qu’en Europe et aux Etats-Unis. La moitié du parc asiatique a été construit dans les 19 années passées, laissant présager que ces installations produiront encore pendant des décennies, insiste l’Agence de l’OCDE. Ce n’est donc pas demain que le charbon sortira de la production asiatique.

Le boom économique indien, même si un freinage devrait être enregistré en 2019, a poussé à l’investissement dans les infrastructures, notamment l’électricité. Et si la montée en puissance des énergies renouvelables est patente également en Inde, la part du charbon devrait progresser encore de 4,6% par an d’ici à 2024 (date de la prospective du Coal Report 2019), faisant du pays celui où la demande en houille sera la plus importante au monde.

De même, en Chine, premier consommateur mondial de charbon (la moitié de la demande), grâce à une politique forte de réduction dans les foyers et les petites industries, un plateau pourrait être atteint en 2022, indique l’AIE, mais progresse encore. Cependant, avec la poussée des renouvelables, la part de la houille dans la production d‘électricité devrait se réduire, passant de 67% en 2018 à 59% en 2024, selon les prévisions du rapport. Le 14ème plan chinois, qui débute en 2020, pourrait entériner cette tendance, mais, insiste l’AIE, le charbon continuera à jouer un rôle majeur pour soutenir la croissance économique et garantir la sécurité d’approvisionnement chinoise à l’avenir.

D’où la bonne santé des pays exportateurs vers la région asiatique, Australie et Afrique du Sud en tête, mais aussi la Russie, qui se tourne vers l’orient. Même si, indique le rapport, certaines difficultés pour ouvrir de nouvelles mines existent.

Le recul marqué aux Etats-Unis et en Europe

Tendance inverse en Europe et aux Etats-Unis, où la pression d’un gaz peu cher fait plonger la demande en houille pour la production d‘électricité. En Europe, le retrait du charbon est déjà présent depuis plusieurs années, à cause des politiques de réduction des émissions de gaz à effet de serre ; c’est particulièrement vrai au Royaume-Uni. Une tendance qui devrait se poursuivre, notamment avec les décisions allemandes d’arrêter le recours au charbon, ou encore en Espagne et en Italie. Même si la France a également pris cette décision, la faible part de la houille dans la production d’électricité (quand bien même elle s’avère pertinente pour la sécurité d’approvisionnement) ne changera pas énormément le mix global européen. En outre, la très forte montée en puissance des énergies renouvelables subventionnées, ou plus, fait progressivement sortir le charbon du marché de la production d’électricité. Enfin, les bas prix du gaz ont entraîné les producteurs d’électricité à se tourner vers cette énergie plutôt que vers le charbon. Au final, l’AIE table sur un retrait de 5% par an de la production à partir de charbon d’ici à 2024.

Aux Etats-Unis, c’est la forte poussée des gaz de schiste qui entraîne le déclin du charbon. S’y ajoute le recours aux renouvelables dans certains états américains. La part du charbon, qui représentait 50% des livraisons d’électricité en 2007 a chuté à 28% en 2018 et pourrait atteindre 21% en 2024, selon le rapport de l’Agence de l’OCDE. Le soutien apporté à cette industrie charbonnière par certains états ne permet pas de « lutter » contre un gaz de schiste peu cher et abondant. Mais le déclin (-4% par an d’ici à 2024) est un peu moins rapide qu’en Europe outre-Atlantique grâce à la capacité d’exportation du pays, qui porte encore quelque peu la production. Néanmoins, indique l’AIE, la chute du marché européen et le manque d’infrastructures sur la côte ouest américaine devraient freiner les perspectives à l’export des Etats-Unis.

En conclusion, l’AIE constate que ses perspectives mondiales n’ont pas été modifiées depuis plusieurs années en la matière, malgré des fluctuations. Et elle estime qu’à moyen terme, les politiques climatiques, le prix du gaz naturel et la Chine sont seuls à même de modifier à la baisse la demande charbonnière mondiale.

Des lasers pour des liaisons satellites plus rapides et sûres

Actuellement, chaque système de communication utilise une bande de fréquences (comme les bandes C, puis Ku et plus récemment Ka pour les chaînes par satellite) qui lui est attribuée et chaque bande fait partie du spectre électromagnétique.

Mais le spectre électromagnétique que l’on peut utiliser avec la technologie actuelle est une ressource limitée. Et il est maintenant saturé. Deux solutions : soit d’anciens services sont supprimés pour être remplacés par d’autres, soit on s’appuie sur des bandes de fréquences plus élevées.

Bien qu’elle soit encore difficile à maîtriser, la communication optique constitue une alternative et une voie d’avenir prometteuse. Au lieu d’utiliser les ondes radio pour transmettre l’information, des opérateurs pourraient s’appuyer sur la lumière des lasers. L’utilisation de bandes de fréquences plus hautes en radiofréquence (RF) (bande Q/V, W… 30 à 110 GHz) est à l’étude.

Pas de piratage

Cette alternative présente différents atouts. Bien qu’elles fassent encore « techniquement » partie du spectre électromagnétique, les fréquences optiques sont nettement plus élevées, ce qui signifie un volume de données plus important et qui est transféré à des débits plus élevés.

Une seule liaison radiofréquence peut fournir des débits de 10 Gbit/s avec de grandes antennes. Mais, une liaison optique peut atteindre des débits 10 à 100 fois supérieurs, en utilisant des antennes 10 à 100 fois plus petites.

Ces liaisons laser pourraient être utilisées pour concevoir un réseau de minisatellites de 200 kilos environ chacun. Placés à 500 km d’altitude, ils délivreraient l’Internet dans des régions totalement déconnectées ou mal connectées aux câbles intercontinentaux à fibre optique qui alimentent l’Internet d’aujourd’hui.

Différentes entreprises ambitionnent de relever ce défi. C’est le cas de SpaceX avec son projet Starlink. 120 satellites (sur 12 000) ont été placés sur orbite. Cette entreprise d’Elon Musk (patron de Tesla et SpaceX) prévoit d’offrir un service Internet haut débit par satellite à partir de 2020.

Un autre avantage de la communication optique est une meilleure sécurité. Le faisceau laser présente une faible divergence contrairement aux ondes RF. La lumière d’un laser forme en effet un faisceau étroit, qui doit être dirigé d’un émetteur vers un récepteur. Comme ce faisceau est très étroit, la communication n’interfère pas avec d’autres récepteurs. Il est très difficile, voire impossible, «d’écouter» la communication.

Cela rend les systèmes optiques plus sûrs que les systèmes radio électromagnétiques. Ils pourraient être utilisés pour transmettre des clés de chiffrement.

En revanche, un laser ne peut pas se propager à travers les murs, et peut même être bloqué par les nuages. Ce n’est pas un problème pour la communication entre les satellites. Par contre, cela peut le devenir pour des services terrestres.

Sensible à l’environnement

Et si la faible divergence du faisceau laser permet de renforcer la confidentialité des connexions, elle représente aussi un défi technologique. Elle requiert un pointage extrêmement précis du faisceau vers le récepteur. Or, ce pointage peut être perturbé par l’environnement.

Pour l’instant, les télécommunications optiques spatiales sont au stade de la démonstration depuis le début des années 2000. Mais les choses semblent s’accélérer. Le projet commun entre l’Agence spatiale européenne (ESA) et Airbus Defence and Space de satellites EDRS commence à être déployé avec la mise en orbite des modèles A et C.

Enfin, il y a le projet HALO et ses 12 satellites optiques en orbite terrestre moyenne. En cours de développement par Laser light communications Inc, une entreprise britannique, cette constellation serait capable de proposer 48 liaisons optiques à 200 Gb/s et 72 liaisons optiques bidirectionnelles à 100 Gb/s.

Très prometteur. Mais après le lancement des premiers satellites en 2015, ce projet semble avoir pris du retard…

La filière bois énergie entre soutien, dynamisme et controverse

La troisième période de l’appel d’offres lancé en février 2016 portant sur 180 MW au total et acté mi-décembre porte, en détail, sur un volume annuel de 50 MW de nouvelles installations «bois énergies» de plus de 300 kW et de 10 MW pour de nouvelles installations de méthanisation de plus de 500 kW. Les installations lauréates produiront de l’électricité renouvelable pour un volume total de 600 GWh par an et de la chaleur renouvelable à hauteur de 2 800 GWh par an.

Les 14 projets lauréats de cette troisième période disposeront d’un contrat de complément de rémunération de l’électricité garanti pendant 20 ans avec un tarif de 113 €/MWh en moyenne. Pour les installations «bois énergie» de plus de 3 MW, le prix moyen atteint 109 €/MWh.

Besoin de soutien

Les professionnels de la filière bois énergie, de l’amont à l’aval, représentés au sein du CIBE (Comité Interprofessionnel du Bois- Energie), de FBF (France bois forêt), de la Fedene (Fédération des services énergie environnement, spécialiste des réseaux de chaleur notamment), de la FNB (Fédération nationale du bois) et du SER (Syndicat des énergies renouvelables) se sont réjouis des bons résultats de cet appel d’offres qui traduit le dynamisme du secteur et qui confirme la pertinence de cette énergie pour accompagner la transition énergétique et l’objectif de neutralité carbone que s’est fixé notre pays. Cependant, à l’aune de la Programmation pluriannuelle de l’énergie (PPE), ils rappellent que cette troisième période de l’appel d’offres pourrait marquer la fin du soutien public à la production combinée de chaleur et d’électricité à partir de bois énergie.

Pourtant, les cogénérations bois énergie présentent de nombreux atouts, insistent les professionnels. Tout d’abord, avec un niveau d’efficacité énergétique supérieur ou égal à 75%, ces cogénérations à haut rendement produisent plus de 2,5 MWh de chaleur renouvelable pour 1 MWh d’électricité. Elles sont, en effet, en mesure de fournir de l’électricité en période de forte demande tout en maintenant leur capacité à produire majoritairement de la chaleur tout au long de l’année.

«Le soutien public à la production d’électricité renouvelable constitue donc également une aide à la production de chaleur renouvelable», martèlent les syndicats professionnels, «en complément du Fonds chaleur, et contribue à l’atteinte des objectifs de chaleur renouvelable que la France s’est fixés.»

La PPE se donne comme objectif de porter la part d’origine renouvelable (biomasse, pompes à chaleur, géothermie, biogaz, solaire thermique) de 22% en 2017 à 33% en 2023 et à 38% en 2028. La production de chaleur renouvelable devrait ainsi passer de 154 TWh en 2016 à 196 TWh en 2023, pour la première période de la PPE 2019-2023 puis entre 157 TWh et 169 TWh en 2028. Mais sur ces chiffres, la biomasse solide pèse lourd, avec 123 TWh produits en 2016 et 145 TWh prévus en 2023, puis de 157 TWh à 169 TWh en 2028. Certes, la PPE veut porter à 9,5 millions le nombre de foyers équipés d’un chauffage au bois labellisé, et raccorder 3,4 millions de logement à un réseau de chaleur… Mais les professionnels estiment que la place de la cogénération bois doit exister dans la PPE. Ils soulignent en effet que : «Cette production d’énergie tout au long de l’année, qui nécessite des approvisionnements constants et pas seulement en période hivernale, permet à la filière amont de production de bois énergie de se structurer et d’investir dans des outils d’exploitation, de production et de transformation grâce à des contrats de fourniture qui s’inscrivent dans la durée. Elle permet à l’industrie française du bois de gagner en compétitivité et d’améliorer la création de valeur du fait d’un investissement qui autorise à la fois la production d’une énergie décarbonée et la valorisation de la chaleur dans un dispositif de séchage des bois, préalable indispensable au développement d’unités de deuxième et troisième transformation.»

Et les particules ?

Enfin, chaque année au moment des pics de pollution hivernaux, revient sur la table la question des émissions de particules des chaudières au bois des particuliers, accusées de tous les maux. Côté grosses chaudières, elles sont en effet plus récentes et souvent avec des flux largement maîtrisés.

Une fois encore les professionnels du secteur, SER en tête, montent au créneau, rappelant que 82% de ces particules proviennent de chauffage au bois avec «foyers ouverts» (l’âtre par lequel le Père Noël passe…) installés depuis des années chez les particuliers.  Des aides financières existent pour renouveler le parc de la prime à l’achat de chaudières performantes – notamment grâce au travail des industriels du secteur et de la R&D menées avec l’Ademe (Agence de l’environnement et de la maîtrise de l’énergie) – au Fonds Air Bois mis en œuvre par les collectivités territoriales.

La profession du bois énergie rappelle que les émissions de particules seront divisées par deux en huit ans grâce au remplacement des foyers ouverts et des appareils anciens, dès 2020. En poursuivant cette tendance, une nouvelle réduction par deux, voire plus (avec du combustible de qualité), est accessible dès 2030.

Ainsi, comparé aux autres énergies non renouvelables, le bois rejette très peu de gaz à effet de serre (26g/kWh contre autour de 220 g/kWh pour le gaz) grâce à la gestion durable des forêts, le CO2 rejeté lors de la combustion étant absorbé par la croissance des arbres.

Comment la réalité virtuelle diminue le stress des greffés du poumon ?

Née en 2015, l’entreprise toulonnaise C2Care, à l’instar de ses concurrents Psious et In Virtuo, conçoit et commercialise des logiciels de thérapie par exposition à la réalité virtuelle (RV) : phobies, addictions, troubles du comportement alimentaire… En partenariat avec l’Assistance Publique – Hôpitaux de Marseille (AP-HM), elle a élaboré une technique pour prévenir les traumatismes psychologiques post-opératoires qui peuvent affecter les personnes dont le poumon a été transplanté. Dès l’an prochain, cette thérapie pré-opératoire sera proposée à 25 patients tirés au sort. Son efficacité sera évaluée après comparaison avec un autre groupe de 25 patients, sans traitement RV. Les premiers résultats seront obtenus d’ici 18 à 24 mois. Entretien avec Romain Streichemberger, président de C2Care.

Techniques de l’Ingénieur : Pourquoi la réalité virtuelle a-t-elle un intérêt spécifique pour la greffe pulmonaire ?

Romain Streichemberger, président de C2Care

Romain Streichemberger, président de C2Care : Après l’intervention chirurgicale liée à la transplantation, le stress post-traumatique représente une problématique très importante. La chambre de réveil est en effet anxiogène, à cause notamment des nombreuses alarmes, parfois bénignes, qui retentissent. Or, un état de forte anxiété peut conduire à des complications, voire au rejet de la greffe dans un cas extrême. L’idée, c’est de préparer le cerveau du patient, en amont de l’opération, à vivre cette situation. Il s’agit d’un traitement par habituation, comme on le fait pour soigner les phobies. On s’attend à ce que l’anxiété au réveil diminue, pour que les chances de réussite de la greffe soient maximales.

Comment le protocole est-il mis en œuvre?

Nous avons construit un modèle 3D de la chambre de réveil avec l’aide d’un scanner industriel, dont l’usage a été détourné. Un scan unique suffit, car toutes ces chambres sont composées à 80% d’un appareillage identique : moniteurs, pousse-seringues, sondes, etc. Cet environnement 3D sera ensuite reproduit par les casques Oculus Rift S dont s’est équipée l’AP-HM, l’hôpital de Marseille. Le patient sera accompagné par un psychologue durant trois séances de 45 minutes chacune. Notre logiciel permettra au praticien de déclencher divers évènements, comme des alarmes, les tournées du personnel soignant, etc. La réalité virtuelle est plus concrète que les mots, qui font appel à l’imagination du patient.

 

C2Care

La réalité augmentée ou mixte est-elle également envisageable ?

Cette technologie n’est pas encore assez mûre pour des applications commerciales de ce type. Cependant, la possibilité d’incruster une image virtuelle dans le champ de vision réel pourrait être utile pour traiter certaines phobies.

Quels sont les autres projets de C2Care ?

Nous collaborons en R&D avec une trentaine de centres hospitaliers universitaires. Par exemple, des médecins cherchent des protocoles pour soigner l’autisme et la schizophrénie grâce à la RV. Nous souhaitons aussi mettre au point un outil logiciel pour que le praticien puisse entretenir une relation suivie avec son patient, en dehors des consultations. Le premier pourrait prescrire des exercices in vivo et in virtuo, le second pourrait exprimer son ressenti via une application mobile.

Un procédé permet de plier le verre en angle droit

En architecture, lorsqu’il s’agit de réaliser des vues panoramiques sur des étages entiers, les fabricants de vitrage ont deux solutions en ce qui concerne les angles. Soit ils utilisent un profil métallique pour joindre deux panneaux en verre plat, soit ces deux panneaux en verre sont collés.

Des procédés de pliage du verre existent cependant. Actuellement, la production de verre plié se limite à la fabrication de produits aux bords arrondis dont le rayon de courbure est supérieur à 50mm. Aucune technologie n’était jusqu’ici capable de produire des angles à 90° sans créer de défauts et détériorer les propriétés optiques du verre.  En effet, les procédés de pliage conventionnels utilisent des moules métalliques dans lesquels sont placées les vitres. Le verre est ensuite chauffé jusqu’à ce qu’il devienne suffisamment malléable pour épouser les contours du moule. Néanmoins, des déformations locales se produisent au contact du support, causant des distorsions optiques inesthétiques.

Le pliage laser du verre : un procédé maîtrisé

Plutôt que de ramollir la totalité de la vitre à plier, l’équipe de Tobias Rist a développé une méthode de chauffage locale du verre. Un laser CO2 orienté de manière précise à l’aide de miroirs autour de la zone à déformer, permet d’atteindre exactement la température désirée (c’est-à-dire juste en dessous de la température de transition vitreuse autour de 500°C).

L’autre particularité de cette méthode réside dans l’absence de moule qui viendrait au contact du verre chaud. Ainsi, une fois la zone chauffée, le verre est simplement soulevé et il se déforme naturellement sous l’effet de la gravité. De cette manière, la surface du verre reste parfaitement lisse. Tobias Rist affirme par ailleurs que son équipe est la première à réussir un pliage du verre à 90°.

Le verre plié : des applications partout

Le Fraunhofer IWM ne compte pas s’arrêter en si bon chemin. Grâce à sa maîtrise quasi parfaite de l’angle et du rayon de pliage, il va également se lancer dans la fabrication de structures sandwich. Vitrages de magasins, architecture… les applications sont nombreuses. D’un point de vue hygiénique, le verre présente l’avantage d’être facilement nettoyable, ce qui le rend idéal dans le médical. Ainsi, ce procédé pourrait servir à envelopper les équipements médicaux présents dans les hôpitaux et réduire le risque de maladies nosocomiales.

L’équipe de Rist affirme être prête à travailler en partenariat avec les industriels pour la mise en production de ce procédé.

Source : D’après les travaux du Fraunhofer IWM

Image de Une : © Fraunhofer IWM

Les robots de service peinent à s’imposer

Début décembre, Softbank Robotics –autrefois Aldebaran, fleuron de la robotique française rachetée par le groupe Japonais SoftBank en 2012- a annoncé l’ouverture du café Pepper Parlor à Tokyo. Une information qui serait passée inaperçue si le personnel n’était pas composé en partie d’êtres inorganiques. Dix robots Pepper prennent en effet les commandes derrière le comptoir ou divertissent les clients à table, rêvant peut-être à des pourboires électroniques. Nao, l’autre égérie du fabricant, fait davantage dans la bagatelle en exécutant quelques pas de danse.

La cuisine et le service à table demeurent quant à eux l’affaire exclusive des êtres humains… et probablement pour un bon bout de temps encore. Cette complémentarité vaut dans la restauration comme dans d’autres secteurs d’activité : malgré ses progrès constants, la robotique de service –en particulier à vocation sociale, agissant au contact des humains- est loin d’être assez polyvalente et perfectionnée pour se substituer pleinement au travail humain. Au mieux, elle collabore.

La crainte qu’une «invasion» robotique provoque un chômage massif ponctue l’actualité technologique de façon régulière, cependant. En 2013, les chercheurs Carl Frey et Michael Osborne, de l’Université d’Oxford, avaient estimé que près de la moitié des emplois américains seraient menacés par l’automatisation d’ici à vingt ans. Mais le rapport d’information du Sénat consacré à la robotisation, daté du 28 novembre dernier, mentionne des travaux scientifiques plus récents, et moins alarmistes.

14% des emplois bientôt automatisés ?

En fait, l’ascension des robots et de l’IA causerait la disparition de 9% des emplois dans les pays membres de l’OCDE (Organisation de coopération et de développement économiques). Cette prévision plus optimiste tient compte de l’hétérogénéité des tâches accomplies par les employés, certaines étant peu automatisables. D’après la dernière étude de l’OCDE elle-même, nommée «L’avenir du travail», 14% des emplois existants – ce qui est loin de la moitié – présentent un risque de complète automatisation. Néanmoins, près d’un tiers devront se transformer. Illustration dans le café Pepper Parlor : les employés reçoivent une formation pour utiliser les robots.

Comme on l’observe depuis plusieurs décennies, l’industrie est plus exposée à la robotisation, car de nombreuses tâches y sont répétitives. Quant aux activités de services, soit trois quarts des emplois en France, cette notion est très diverse. Le rapport 2019 de la Fédération internationale de la robotique témoigne de ventes en forte croissance dans l’univers professionnel (+61% en 2018 pour atteindre 271 000 unités dans le monde) et aussi d’une grande disparité : véhicules guidés autonomes (41% des ventes) dans la logistique, robots d’inspection ou de maintenance, robots chirurgicaux ou agricoles…

Robot social cherche emploi stable

Les métiers de l’accueil, du commerce, de l’hôtellerie ou de l’aide à la personne ne sont pas évoqués. Un signe que Pepper et ses compères humanoïdes ou non restent marginaux. Ou que la place est déjà occupée par un automatisme, tel qu’un standard vocal ou un distributeur de boissons. En France, Pepper se déploie petit à petit, à la gare de Lyon Part-Dieu récemment. Son cousin Nao participe à des projets de recherche médicale ou égaye une maison de retraite à Issy-les-Moulineaux. Les ventes de Softbank Robotics stagnent, selon toute apparence, mais la trésorerie du groupe japonais permet de faire le dos rond.

Une chance que n’ont pas les concurrents positionnés sur ce créneau du robot social. Par manque de fonds, l’entreprise limougeaude Cybedroïd, à l’origine du robot Leenby, a mis la clé sous la porte voici quelques mois. Le robot «émotionnel» Buddy, du parisien Blue Frog, a pris du retard et ne devrait pas arriver avant septembre 2020, après une autre campagne de financement… L’époque semble difficile pour des robots qui tardent à prouver leur réelle utilité, et donc à justifier des investissements.

Une imprimante 3D de 4 m produit rapidement de grandes pièces polymères

Trop souvent considérée uniquement comme technique de prototypage, l’impression 3D devient, petit à petit, un réel outil industriel de production.

L’impression 3D par stéréolithographie (ou photopolymérisation) consiste à polymériser une résine sous l’effet de lumière et de chaleur pour former un matériau massif solide. Un faisceau laser orienté vers une plateforme mobile plongée dans une cuve de résine permet la polymérisation. Ensuite, lorsque la première couche de matière est obtenue, la plateforme descend d’une hauteur correspondant à l’épaisseur de couche et le processus recommence.

Bien que ce procédé développé dans les années 80 ait évolué (surtout en termes de précision), il génère beaucoup de chaleur. Malheureusement, cette émission de chaleur est quasiment inévitable, car le processus de photopolymérisation est fortement exothermique. S’il n’est pas contrôlé, ce dégagement de chaleur à de multiples conséquences : dégagement de fumées, apparition de fissures et déformations des pièces, mauvaise résolution, etc.

Par conséquent, comme les systèmes de dissipation de chaleur actuels ne sont pas suffisamment efficaces, les entreprises utilisant l’impression SLA n’ont d’autre choix que de limiter la vitesse, la taille ou la résolution.

HARP : l’impression SLA plus rapide

L’approche proposée par l’équipe du professeur Chad A. Mirkin est la suivante : utiliser une interface en PTFE liquide en surface du bain de résine pour assurer un refroidissement pendant la polymérisation. Ils ont ainsi développé un prototype appelé HARP (High-Area Rapid Printing), dont le principe de fonctionnement est breveté.

Cette configuration présente les caractéristiques suivantes :

  • Le plateau vertical ne plonge pas dans le bain de résine, il remonte vers l’extérieur du bâti. La taille de la pièce obtenue dépend donc de la hauteur de la machine.
  • Le PTFE mis en circulation assure un refroidissement efficace, ce qui permet d’augmenter considérablement la vitesse d’impression (3 heures pour une pièce de 1,20 m).
  • Le PTFE n’adhère pas à la résine liquide, ce qui l’empêche de rester collé à la pièce en mouvement, il y a donc moins de défauts.

Bientôt l’impression 3D comme technique de production classique ?

D’une manière générale, les procédés de fabrication additive ne cessent de s’améliorer en termes de rapidité, de précision et de taille des pièces, mais aussi en ce qui concerne la diversité des matériaux utilisables (métaux, polymères, céramiques, verres, composites, biomatériaux, etc.).

Le professeur Mirkin est convaincu qu’en dépassant les limites actuelles, cette nouvelle technique pourrait ainsi contribuer à révolutionner l’industrie de fabrication. Si tout se passe bien, l’arrivée de HARP sur le marché est prévue pour 2021.

Photo de Une : HARP, Vidéo Youtube, chaîne Azul 3D

Source : d’après les travaux de David A. Walker, James L. Hedrick et Chad A. Mirkin publiés dans le journal Science et l’article d’Amanda Morris pour Northwestern University

Quels ont été vos articles préférés en 2019 ?

  • Energie :

Les batteries sodium-ion passent le cap de l’industrialisation

La start-up française Tiamat va commencer la production de petites séries de ses batteries sodium-ion. Alternative aux classiques batteries lithium-ion, cette technologie s’avère aussi, pour de nombreuses applications, moins polluante et plus performante.

A l’heure où les prix Nobel récompensent les concepteurs des piles lithium-ion, la recherche poursuit ses efforts pour faire encore mieux. Notamment en s’affranchissant du lithium dont l’exploitation, le recyclage et la toxicité posent des problèmes éthiques et environnementaux.

Relire l’article

 

  • Entreprises et marchés :

Au secours, la France manque d’ingénieurs !

Le secteur des métiers de l’ingénierie devrait embaucher 50 à 60 000 personnes par an entre 2018 et 2021. Mais, dans la première édition de son baromètre économique, Syntec-Ingénierie note un sous-effectif structurel qui atteint les 4 % et appelle à promouvoir en urgence la formation à ces métiers.

Pierre Verzat,  président du syndicat professionnel des métiers de l’ingénierie Syntec-Ingénierie, commentait ainsi : « Alors qu’elles créent des richesses partout dans l’hexagone, nos entreprises sont confrontées à un défi majeur : il n’y a pas assez d’ingénieurs et de techniciens formés en France ! Cela occasionne pour elles un manque à gagner allant jusqu’à 1 Md d’euros par an ».

Relire l’article

 

  • Environnement :

Ocean Cleanup : un rêve brisé en deux

Le tube flottant de 600 mètres de long de la start-up Ocean Cleanup n’a pas résisté aux vagues successives de l’océan Pacifique. Lors d’une inspection de routine, l’équipe a constaté qu’il avait été déchiré. Pourra-t-on un jour réduire le « septième continent » ?

Fin d’année difficile pour Ocean Cleanup et son jeune créateur, le Boyan Slat, qui promettait « le plus grand nettoyage de l’histoire ». Le 29 décembre 2018, une fracture a été localisée à une extrémité de cette barrière flottante (baptisée Système 001) en forme de U de 600 mètres.

Relire l’article

 

  • Espace

La plus grande carte dynamique de l’Univers : le milliard d’années-lumière enfin atteint !

Une équipe internationale dévoile la plus grande cartographie de l’Univers, montrant les mouvements de la matière noire, dans un rayon d’un milliard d’années lumière autour de nous soit un volume dix fois plus grand que le précédent.

Voilà cinq ans, notre supercontinent de galaxies, appelé Laniakea, était révélé grâce à l’étude des mouvements de galaxies : les flux cosmiques. Ainsi notre Univers proche était-il cartographié de manière précise mais surtout dynamique.

Relire l’article

 

  • Informatique et numérique

Ordinateur quantique : 3 défis technologiques à surmonter

Clément Rinaudo est Expert des technologies quantiques chez Accenture Lab. Il est chargé de recherche autour des technologies quantiques. Il nous détaille les défis technologiques auxquels sont confrontés les chercheurs s’attelant au développement d’un ordinateur quantique performant et stable dans le temps.

Relire l’article

 

  • Innovations sectorielles

CES 2019 : les innovations technologiques à retenir

Pendant trois jours, Las Vegas a été la vitrine du futur plus ou moins proche lors du Consumer Electronics Show : robots sympathiques, voitures sans conducteur, écrans de télévision à forme variable… Sans parler de gadgets.

La ville a aussi été la capitale de la french tech puisque 414 entreprises françaises, dont 376 startups, ont exposé leurs innovations. Cette année, le thème principal a été l’aide à la vie autonome et les maisons intelligentes.

Relire l’article

 

  • Insolite

Le Grand jeu concours 2019 de Techniques de l’Ingénieur

A l’occasion du Grand Jeu concours 2019, Techniques de l’Ingénieur vous propose de tester vos connaissances sur l’actualité qui a marqué cette année. Vous avez jusqu’au 31 janvier 2020 pour tenter votre chance de remporter un casque de réalité virtuelle ou un projecteur portable !

Relire l’article et participer au concours

 

  • Matériaux, biotech & chimie

Les deux tiers des dentifrices contiennent du dioxyde de titane

Selon une étude réalisée par l’association Agir pour l’Environnement, au moins 271 dentifrices commercialisés en France contiennent du dioxyde de titane. En cause, le colorant E171 utilisé dans les dentifrices pour favoriser la blancheur et la brillance. Or, le dioxyde de titane est considéré comme cancérogène possible par le CIRC.

Une information d’autant plus préoccupante qu’en janvier dernier, le gouvernement a confirmé l’interdiction de cet additif de tous les produits alimentaires. Le dioxyde de titane disparaîtra donc de tous les aliments en France dès mi-avril 2019.

Relire l’article

Une nouvelle filière de pyrolyse des plastiques à l’étude

En mai 2019, l’entreprise spécialisée dans le recyclage des emballages ménagers et des papiers graphiques Citeo a sélectionné 30 projets dans le cadre de ses deux appels à projets éco-conception, recyclage et valorisation pour un budget total de 7,5 millions d’euros. Dans ce cadre, Citeo a retenu un projet pour développer la pyrolyse des plastiques. «L’ambition de ce projet est de travailler sur les emballages souples et multicouches qui n’ont pas de solution de recyclage actuellement», explique Sophie Genier, directrice des services recyclage chez Citeo.

Ce projet a l’intérêt d’associer un consortium composé de Total, fabricant de plastiques, de Mars et Nestlé, deux sociétés leaders sur le marché de l’agroalimentaire à la recherche de solutions pour leurs emballages, et de Recycling Technologies, une start-up proposant un procédé innovant. «La technologie de recyclage utilise la pyrolyse à haute température pour transformer des déchets plastiques en une huile qui est ensuite utilisée comme matière première dans la fabrication de nouveaux plastiques», résume Sophie Genier. La start-up dispose d’un premier pilote en Angleterre, capable de valoriser 9 000 tonnes de matières plastiques par an.

La pyrolyse pour une huile qui sert à fabriquer de nouveaux plastiques

«Le projet testera au premier trimestre 2020 différentes typologies d’intrants issus de flux français dans le pilote anglais : des mélanges de films, des mélanges polyéthylène-aluminium issus des briques alimentaires ou encore des emballages souples triés de polyéthylène ou de polypropylène, décrit Sophie Genier. Nous pourrons alors étudier la qualité de l’huile obtenue et évaluer l’intérêt de ce type de technologie pour les différents types d’emballages souples et complexes testés.»

Le consortium définira ensuite une typologie d’intrants idéale pour que l’huile puisse être réintégrée dans la chaîne de production. «Nous pourrons voir s’il y a des éléments comme des additifs dans les emballages qui perturbent le procédé et proposer des axes pour une meilleure éco-conception», propose l’ingénieure.

Une fois les tests préindustriels menés, le projet étudiera enfin l’intérêt économique d’une usine utilisant cette technologie. «Ce projet s’étalera sur environ 18 mois avant que le consortium rende sa décision finale sur l’intérêt de développer une telle filière de recyclage chimique en France», prévient Sophie Genier.

Pourquoi les GAFA veulent-ils faire sauter les banques ?

Google, Apple, Facebook et Amazon, les principaux acteurs IT, rassemblés sous l’acronyme de GAFA, s’apprêtent à transformer le paysage bancaire numérique tel que nous le connaissons.

Google travaillerait sur un projet de banque en ligne. Comme Apple avec Apple Card, le moteur de recherche permettrait aux particuliers d’ouvrir un compte courant. Avec Google Pay, sa solution de paiement sans contact, Google aurait ainsi en 2020 une offre globale.

Qu’il s’agisse de la solution d’Apple ou de Google, le principe de ces «Cards» est le même : les détenteurs d’iPhone, d’Apple Watch ou d’un smartphone Android peuvent régler directement leurs achats chez les commerçants, en appliquant leur appareil sur le terminal bancaire.

Et le paiement mobile séduit de plus en plus ! Selon une étude de Juniper Research, parue en juin 2018, Apple Pay représentait 58 % du marché mondial (avec140 millions de transactions) du paiement sans contact sur mobile.  Google Pay arrive loin derrière avec 16 % de part de marché et  39 millions de transactions la même année. Juniper Research estime qu’en 2020, il y aura 227 millions de transactions avec l’Apple Pay et 100 millions avec la solution de Google.

Concernant les services financiers, la motivation d’Apple diffère un peu des autres GAFA. Son business model repose principalement sur la vente de ses appareils, de chansons et maintenant de SVOD avec le lancement de l’AppleTV.

En s’attaquant au secteur financier, Apple vise toujours le même objectif : inciter ses utilisateurs à acheter ses nouveaux produits ou services et notamment l’Apple Card (sa carte de paiement lancée en août aux États-Unis) après son Apple Pay, sa solution de paiement mobile disponible depuis 2014.

Amazon est aussi les rangs. Mais il reste discret. Initié depuis un an, son projet de banque en ligne resterait encore à ce stade. Le géant du e-commerce n’en est pas à son premier essai. Mais pour l’instant, il se contente de proposer une carte Visa gratuite à ses clients américains et des crédits aux PME.

Pourquoi les projets des GAFA inquiètent-ils le monde des finances ? Principalement, parce qu’ils disposent de deux atouts majeurs pour « faire sauter la banque ».

Leurs atouts majeurs pour « faire sauter la banque »

Premièrement, leurs moyens financiers sont impressionnants. Au premier trimestre de cette année, Apple avait publié un chiffre d’affaires de 84,3 milliards de dollars et un bénéfice net de 19,9 milliards de dollars. En face, le Crédit Agricole SA a fait bondir son bénéfice net de près de 9% au troisième trimestre 2019 à… 1,2 milliard d’euros pour un chiffre d’affaires de 5,03 milliards d’euros.

Deuxièmement, même si les banques disposent de nombreuses informations sur les Français (via notamment leurs filiales immobilières), les GAFA stockent un volume de données sans commune mesure. Ils savent presque tout sur nous ! Ils pourraient proposer des services financiers très personnalisés.

Troisièmement, l’ergonomie de leurs applications Internet et mobiles est leur grande force. Elle n’est plus à démontrer. Il y a fort à parier que ce sera la même chose pour leurs services financiers afin de répondre aux exigences des consommateurs.

«Les consommateurs ne recherchent pas de nouvelles fonctionnalités de paiement, mais plutôt une meilleure expérience de shopping. Et c’est précisément sur ce point que les nouveaux entrants concurrencent les institutions financières», constate le cabinet d’analystes Forrester.

D’ailleurs, Amazon, Apple, Google, Intuit et PayPal ont déjà formé une coalition appelée Financial Innovation Now pour améliorer l’innovation dans l’industrie financière afin d’améliorer l’expérience des usagers.

L’échec de Libra

Mais rien ne dit que tous leurs projets verront le jour et qu’ils seront des succès. La preuve avec Libra dont l’annonce par Facebook en octobre dernier avait secoué le monde feutré de la finance. Mais finalement, «cette devise et cette infrastructure financière mondiales simples, au service de milliards de personnes» ne verront pas le jour au second semestre 2020 comme cela avait été annoncé.

Le monde de la finance s’est montré plus fort. Et les soutiens de Facebook (PayPal, eBay, Mastercard, Visa…) l’ont lâché sans vraiment donner de raisons.

Enfin, les établissements bancaires préparent aussi leur riposte. Début décembre, la Banque de France a annoncé des expérimentations d’une «monnaie digitale de banque centrale» (MDBC) dédiée aux transactions «de gros».

Cloud Gaming : Shadow met “l’ordinateur du pro-gamer dans le cloud”

Techniques de l’ingénieur : Google, Microsoft, Sony… les géants de la tech se sont lancés dans le « cloud gaming », proposant l’accès à des jeux vidéo à distance et ce, sur n’importe quel dispositif. Comment Shadow se positionne-t-il ?

Florian Giraud : Il y a une vraie tendance vers le cloud gaming qui confirme notre intuition initiale : celle que le gaming n’échappera pas à la révolution du streaming malgré les défis technologiques. Aujourd’hui, les grandes entreprises de la tech (Google, Amazon) ou du gaming (Microsoft, Sony) voient aussi l’avenir du jeu vidéo dans le cloud. Elles mettent la lumière sur le cloud gaming et montrent au plus grand nombre qu’il est possible de streamer son jeu sans forcément posséder de machines puissantes… et surtout coûteuses. Leur force de frappe en matière de communication est un accélérateur pour Shadow. Tandis que tous les services s’articulent autour de catalogues restreints, Shadow permet de jouer à n’importe quel jeu, même ceux déjà possédés par le joueur, n’importe où, sur n’importe quel écran, avec la puissance du PC.

Qu’est-ce qui vous différencie ?

Nous ne faisons pas seulement du cloud gaming, mais du cloud computing. C’est-à-dire que nous mettons l’ordinateur dans le cloud. Concrètement, nous prenons les meilleurs composants du moment d’un PC (carte graphique, processeur, disque dur, etc.) et les déplaçons dans nos data centers. L’utilisateur dispose d’un PC complet dans le cloud, avec sa session Windows, son mot de passe, son espace de stockage, etc. qu’il “streame” sur n’importe quel appareil.

Comment Shadow fonctionne-t-il exactement ?

Techniquement, c’est du streaming pur. Sauf qu’au lieu de streamer un film, vous streamez votre ordinateur. Contrairement au streaming classique, il n’y a pas de place pour le préchargement (ou “buffer”) : à chaque instant, vous envoyez des informations à votre ordinateur – via votre souris, clavier, webcam, micro, etc. – et vous recevez le résultat par un flux d’image instantané. Ce besoin de réactivité est un défi, qui atteint son paroxysme dans le jeu vidéo, où les gestes sont si rapides que quelques millisecondes font la différence. C’est pourquoi Shadow a choisi de s’attaquer d’abord au marché du gaming, en faisant le pari que si le service fonctionnait pour les joueurs, il fonctionnerait pour tous ! Premier problème à résoudre : la latence. Si nous atteignons aujourd’hui ce niveau de performance qui fait que les joueurs ne font plus la différence entre un PC local et un Shadow, c’est parce que nous avons développé notre produit pour et avec les gamers, développé notre propre protocole de communication, optimisé l’encodage et le décodage, mais aussi travaillé avec les fournisseurs d’accès à Internet pour optimiser le trafic réseau.

Quel est l’apport de votre solution pour le jeu vidéo ?

Shadow permet de démocratiser l’accès au jeu vidéo en cassant les limites des PC gaming actuels, à savoir le prix et l’obsolescence. Un PC gaming coûte souvent plus de 1500 euros. Quand on regarde l’engouement autour de quelques free-to-play, qui deviennent de véritables phénomènes culturels, on réalise que, si le jeu en lui-même est gratuit, le hardware ne l’est pas. Il est très cher, trop cher pour beaucoup, ce qui empêche une bonne partie des joueurs de rejoindre la partie. De plus, le hardware est de plus en plus cher, mais il devient aussi de plus en plus vite obsolète. Shadow permet donc de disposer d’un ordinateur toujours à jour, sans avoir à se soucier de l’assemblage de ses composants ou de savoir si on pourra faire tourner tel ou tel nouveau jeu.

Vous parlez également de solution écologique…

Notre projet est de centraliser toute la puissance technologique de nos objets dans le cloud, afin de la mutualiser. Très concrètement, cela signifie qu’au lieu de produire 4 ordinateurs utilisés 6 heures par jour, par exemple, nous pouvons n’en produire qu’un seul, utilisé successivement par 4 personnes différentes. Bien sûr, le streaming n’est pas la panacée en matière environnementale. La consommation requise est équivalente, puisque l’énergie qui est utilisée pour les calculs dans les data centers est autant d’énergie en moins utilisée par les joueurs chez eux. Mais nous travaillons pour que cela consomme moins, tout en nous assurant d’ores et déjà que l’énergie utilisée soit verte.

Quel est votre business model ?

Jusqu’à fin octobre, nous commercialisions une offre unique utilisée par plus de 70 000 utilisateurs dans 8 pays, qui constituent le cœur de notre communauté et qui co-construisent avec nous l’avenir du produit. Depuis, nous avons souhaité ouvrir notre solution à un public plus large en proposant trois offres de souscription différentes de 12,99 à 34,99€ par mois, en fonction de l’ordinateur et du stockage dont l’utilisateur a besoin. Dès la première offre, notre promesse est de proposer un ordinateur suffisamment puissant pour chaque sortie de nouveau jeu. La deuxième, est une configuration parmi les plus puissantes (RTX 2080 avec ray-tracing) : seulement 1 % des joueurs sur Steam ont une configuration équivalente ou supérieure. La troisième propose une configuration que tous les joueurs chevronnés rêvent d’avoir sans pouvoir se l’offrir, notamment avec la carte graphique Titan RTX coûtant à elle seule près de 3000 euros.

Comment aider les entreprises à réaliser leur transition écologique ?

Dans un contexte où les préoccupations écologiques vont grandissant, les entreprises se montrent plus soucieuses de verdir leurs pratiques. Cependant, il n’est pas forcément aisé pour elles de déceler les bonnes pratiques. Dans ce paysage, des start-up se sont spécialisées dans l’accompagnement de ces structures. Déclic Écologique en fait partie, et ambitionne de donner les clés de la transition écologique aux dirigeants et salariés. Pour ce faire, cette start-up anime des sessions collaboratives, en faisant appel aux idées de chacun. Tristan Duhamel, fondateur de Déclic Écologique, estime que ces échanges sont essentiels.

Techniques de l’Ingénieur : Comment se matérialise l’accompagnement que vous proposez aux entreprises ?

Tristan Duhamel : Notre structure accompagne les entreprises dans la transition écologique, car il n’est pas facile pour elles de savoir quoi faire, ni par où commencer. Lors de séances d’une demi-journée, nous cherchons et co-construisons des solutions avec les salariés. Pour y parvenir, nous misons sur des méthodes d’intelligence collective. Durant ces réunions, nous nous attaquons à un thème déterminé. Cela peut être comment réduire ses déchets, comment réduire sa consommation d’énergie, ou encore comment passer au zéro déchet. Les groupes de travail sont généralement composés de 20 à 30 personnes venues de différents services : RH, comptabilité, achats ou services généraux.

Une fois les bonnes pratiques identifiées, comment aidez-vous concrètement les entreprises ?

Après ces séances, nous rendons un livrable, qui est une sorte de guide des solutions adaptées. Ensuite, nous pouvons accompagner l’entreprise dans la mise en application de ces nouvelles pratiques. Mais ce n’est pas toujours le cas, cela dépend des besoins et des volontés de la structure.

Quelle est l’ampleur du gaspillage dans les entreprises ? Quel est le poste le plus problématique ?

Parmi les ressources les plus gaspillées, le papier tient une place de choix. On estime qu’un employé génère entre 120 et 140 kilos de déchets par an, dont 80 kilos de papier. Cependant, il serait réducteur de penser qu’économiser le papier prime sur tout le reste. Il est délicat de donner un ordre de priorité aux actions. Les gobelets et le numérique doivent également être au cœur des préoccupations, tout comme le gaspillage d’énergie. Parfois, seuls quelques calibrages suffisent.

Justement, quelles initiatives une entreprise pourrait-elle facilement mettre en place pour réduire son impact écologique ?

Plusieurs actions simples sont à portée de main. Par exemple, paramétrer un photocopieur pour qu’il se mette en veille plus rapidement. Ce mode est bien moins gourmand en énergie. De la même façon, installer des détecteurs de mouvements dans des pièces comme les toilettes est efficace. Nous avons remarqué que la lumière a tendance à rester allumée toute la journée dans les endroits non équipés de tels dispositifs. Supprimer tout le jetable est souhaitable. Il est également bon de rappeler qu’il n’est pas utile de laisser couler un robinet lorsqu’on se lave les mains.

Pouvez-vous établir une typologie des entreprises dans lesquelles vous intervenez ?

Il n’est pas évident de répondre à cette question. Je dirais qu’il s’agit de structures qui veulent répondre à une quête de sens de leurs équipes, mais également de l’opinion publique. De manière générale, nous intervenons auprès d’entreprises qui ont déjà une sensibilité pour la cause écologique. De plus, tendre vers un autre type de consommation peut avoir des intérêts économiques. Tendre au zéro déchet, rechercher l’optimisation de l’utilisation, peut engendrer des économies structurelles.

Diriez-vous que vous êtes satisfait de l’implication des entreprises dans la réduction de leur impact écologique ?

Bien que la prise de conscience aille grandissant, il reste encore des efforts à faire. Dans certaines grandes entreprises, le levier de l’action n’est pas encore assez poussé. La sensibilisation est certes nécessaire, mais l’opérationnel l’est davantage. Le passage à l’acte concret est encore trop timide. Alors comment expliquer cela ? Ne sont-elles pas prêtes à un changement réel ? Font-elles du greenwashing afin de verdir leur image auprès des consommateurs ? Il est difficile de répondre. Dans tous les cas, il faut impérativement mettre les mains dans le cambouis et sortir de la simple sensibilisation. La notion d’urgence n’est pas encore assez mise en avant.

Cybercriminalité : les plus grosses prises des autorités et polices

L’année 2019 a démarré très fort avec l’arrestation en janvier de trois hommes (tous gérants d’entreprises dans le secteur des assurances, dont deux sont millionnaires) dans le Rhône. Ils sont soupçonnés d’avoir escroqué plus de 8 000 Français en se faisant passer pour le support de Microsoft. Une arnaque qui aurait rapporté plus de 2 millions d’euros.

Constatant sur la plateforme en ligne du dispositif Cybermaveillance  de nombreuses plaintes dès décembre 2017,  le parquet de Paris avait ouvert en mai 2018 une enquête.

Le principe est assez simple et n’exige pas de très importantes compétences en informatique. En allant sur des sites anodins, des particuliers, mais aussi des professionnels constatent l’affichage de petits messages leur indiquant que leur ordinateur est infecté ou qu’il est victime d’une « erreur système ».

Pour tromper la vigilance de ces personnes dont la majorité était âgée, ces messages affichent le logo officiel de Microsoft ou de son système d’exploitation Windows. Pour s’en sortir, les victimes étaient incitées à appeler au plus vite un support technique officiel. À l’autre bout du fil, de faux techniciens au Maghreb proposaient une intervention à distance (en réalité, ils ne faisaient rien) facturée de 99 à 500 euros, selon la formule.

Les trois hommes ont été mis en examen, notamment pour «escroquerie et blanchiment en bande organisée» et «introduction frauduleuse de données dans un système de traitement automatisé de données».

Tout repose sur la peur, la panique. Et l’urgence à appeler sans réfléchir. Ces processus malveillants sont connus et exploités par tous les cybercriminels qui inondent le web avec des campagnes de phishing. Mais ce procédé malveillant concerne dorénavant les smartphones. De fausses applications de sécurité vous indiquent que votre téléphone est infecté et que vous devez acheter leur version « professionnelle » (qui n’en a que le nom).

Autre arrestation quelques mois plus tard : en mai, Europol a démantelé un réseau de cybercriminels qui avait dérobé 100 millions de dollars à plus de 41 000 victimes dans le monde en utilisant un logiciel malveillant russe. Cette agence européenne de coopération entre les polices criminelles a indiqué que des poursuites judiciaires ont été engagées contre des suspects en Géorgie, Ukraine, Moldavie et aux États-Unis.

Là aussi, le procédé malveillant était banal : les victimes européennes et américaines pensaient qu’elles cliquaient sur une facture. En réalité, ce document cachait un virus qui récupérait des informations sensibles.

Un réseau de PC zombies

Fin août, le centre de lutte contre les criminalités numériques (C3N) de la gendarmerie nationale a pris des cybercriminels à leur propre jeu. Après avoir infiltré leur serveur, cette cellule spécialisée a pu bloquer à distance les virus implantés sur près de 900 000 ordinateurs par une organisation criminelle.

Là aussi, l’objectif des pirates est connu et récurrent. En infectant des milliers d’ordinateurs, ils constituent une petite « armée virtuelle » appelée dans le cas présent Retadup. C’est ce qu’on appelle un botnet (réseau de machines en français). Ensuite, il suffit d’envoyer un ordre à cette armée de l’ombre pour que tous les ordinateurs se connectent en même temps à un site.

C’est le principe de l’attaque Ddos (Distributed Denial of Service). Une attaque par « déni de service distribué » vise à rendre un serveur, un service ou une infrastructure indisponible en surchargeant la bande passante du serveur, ou en accaparant ses ressources jusqu’à épuisement. Résultat, des services inaccessibles pendant plusieurs minutes, voire une journée !

Un cauchemar pour les responsables de sites de e-commerce. Imaginez une marque connue voir sa boutique en ligne en panne en pleine période de soldes ou à quelques jours de Noël ! Si ce site n’est pas capable de contrer ce type d’attaque, les cybercriminels n’hésiteront pas à lui réclamer une rançon. C’est ce qu’ont fait les pirates qui géraient Retadup. Ce botnet a touché 160 pays, principalement en Amérique du Sud.

Le chantage

En septembre dernier, un jeune informaticien français a été arrêté après une vaste tentative de chantage par email. Toujours les mêmes ressorts psychologiques : faire peur. Il envoyait des milliers de courriels (via lui aussi un botnet avec 2 000 PC) à des internautes, leur faisant croire qu’il avait piraté leur ordinateur et disposait d’images intimes. Pour éviter qu’il les publie, il fallait lui faire parvenir 500 euros en bitcoins.

La police aurait identifié 30 000 victimes environ. Le butin s’élèverait à plus de 20 000 euros.

Ces affaires confirment que les techniques utilisées par les pirates sont toujours les mêmes. Si l’installation d’un antivirus et la mise à jour de son système d’exploitation et de ses logiciels sont indispensables (que ce soit sur PC ou sur smartphone), il y a une règle de base à respecter : soyez vigilant.

Il ne s’agit pas d’être trop parano. Il faut réfléchir quelques minutes avant de cliquer sur une pièce jointe ou d’installer un logiciel ou une application mobile. La précipitation est mauvaise conseillère…

Photovoltaïque : le CEA Liten bat un nouveau record de rendement

Sur la ligne pilote du CEA Liten à l’Institut national du solaire (Ines), à Chambéry, vient d’être produit un lot de cellules au rendement record de 24%, avec un pic de 24,25% certifié par le CalTec pour les meilleures cellules. La voie vers les 25% est plus que jamais à portée… Ainsi que le retour d’une industrie du photovoltaïque européenne.

Un subtil millefeuille

Comme le rappelle le CEA, l’hétérojonction, c’est faire un subtil millefeuille de cellules de matériaux différents (silicium monocristallin et silicium amorphe notamment) contrairement à l’homojonction qui repose sur un seul matériau (silicium monocristallin). L’ajout de couches, dopées P et N+, de silicium amorphe (d’une dizaine de nanomètres), de part et d’autre du silicium monocristallin (dopé N), favorise l’attraction des électrons vers les zones de collecte. Ce dépôt est réalisé en phase vapeur assisté par plasma (PECVD).

Ces couches sont elles-mêmes recouvertes, toujours en phase vapeur, d’un oxyde transparent conducteur qui permet le transport latéral des électrons et améliore le confinement optique des photons. Enfin, les surfaces actives de la cellule sont texturées : des pyramides micrométriques permettent de piéger les photons, qui rebondissent sur leurs faces, pour en capter jusqu’à deux fois plus qu’avec une surface plane.

Ce procédé dispose d’au moins trois grands avantages. D’abord, les cellules sont bifaciales, ainsi, la face arrière de la cellule étant également active, une partie des rayons du soleil réfléchis par le sol peut être captée, permettant ainsi un gain de rendement de conversion de l’énergie lumineuse en électricité autour de 10 %.

Ensuite, alors que toutes les cellules solaires voient leur rendement baisser à mesure que la température du dispositif augmente avec l’exposition au soleil, grâce à l’hétérojonction, le coefficient thermique des cellules est bien meilleur. La «perte» de rendement passe d’environ 0,35% par degré à 0,25% par degré.

Enfin, grâce à des rendements de conversion élevés, l’hétérojonction permet d’utiliser moins de matière (cellule, modules, structures de montage). De même, ces procédés de fabrication ont un moindre impact environnemental. Notamment le procédé s’effectue à 200°C, soit de deux à quatre fois moins que pour les procédés des cellules classiques.

Industrialisation

Le seuil des 24% a été obtenu en prenant toute la surface de cellules de taille industrielle M2 de 244 cm2, précise un communiqué de CEA-Tech/Liten.

Le laboratoire, qui travaille sur le développement de la technologie depuis une quinzaine d’années, a en outre réussi à produire ces cellules avec des équipements industriels sur une cadence de 2 400 pièces par heure. Des résultats obtenus en optimisant notamment le dépôt par PECVD des couches nanométriques de silicium amorphe, en améliorant les couches d’oxyde transparent conducteur tout en réduisant les dommages liés à la manipulation des plaques durant la production, précise le Liten.

Ces travaux confirment le potentiel de la technologie des cellules photovoltaïques à hétérojonction de silicium, tant du point de vue technologique qu’industriel. Les chercheurs du Liten poursuivent leurs efforts pour améliorer l’industrialisation de la technologie (réduction des coûts de fabrication, amélioration de la qualité et de la productivité), et porter le rendement de conversion au-delà de 24%.

D’ores et déjà, les travaux du CEA Liten sont sur le champ industriel, via le lancement par 3Sun, la filiale de l’italien Enel Green Power, d’une usine fonctionnant 24h/24, capable de livrer 200 MWc par an, à Catane. Une usine à 80 millions d’euros, financée partiellement par l’Union européenne dans le cadre du programme Horizon 2020, plus particulièrement le programme Ampere (Automated photovoltaic cell and Module industrial Production to regain and secure European Renewable Energy market), auquel est intimement associé le CEA Liten.

Comme l’a bien résumé, lors de l’ouverture de la conférence européenne de l’énergie photovoltaïque (EU PVSEC) 2019, à Marseille, en juillet dernier, Florence Lambert, directrice du CEA Liten et présidente de ladite manifestation : «le solaire va se généraliser et devenir la principale énergie mondiale. Nous devons avoir la volonté de convertir cette dynamique en opportunité industrielle et en faire de la valeur économique en France et en Europe». Le PV européen en est désormais à un pas.