Recul de 2,5% des rejets de CO2 de la production d’énergie en 2018

Les chiffres de l’office statistique de l’Union européenne montrent néanmoins que la situation des émissions de CO2, provenant du recours aux combustibles fossiles, est particulièrement contrastée en fonction des pays. Trois grands ensembles se dessinent : le premier comprenant onze pays, dont la France, enregistre des baisses des rejets carbonés, le deuxième, voit une stagnation (entre -1% et +1%) et le troisième comptent sept pays pour lesquels les émissions de CO2 progressent.

La baisse des rejets de CO2 est la plus élevée au Portugal (-9,0%), puis viennent la Bulgarie (-8,1%), l’Irlande (-6,8%), l’Allemagne (-5,4%), les Pays-Bas (-4,6%) et la Croatie (-4,3%). La France se classe neuvième avec un recul de 3,5% des émissions de CO2 en 2018.

Côté hausse, c’est la Lettonie qui remporte la « palme », avec un bond de 8,5%, largement dû à une faible hydraulicité et un recours aux centrales au gaz. Mais le pays ne représente que 0,2% des émissions carbonées européens issues des combustibles fossiles de l’Union européenne (à 28 !). Ensuite se succèdent Malte (+6,7%), l’Estonie (+4,5%), le Luxembourg (+3,7%), la Pologne (+3,5%), la Slovaquie (+2,4%), la Finlande (+1,9%).

Ce « bon » résultat ne fait que compenser le très mauvais résultat enregistré au niveau européen en 2017. Cette année-là, les rejets carbonés ont progressé de 1,8%. En France, la situation était pire, puisque les émissions augmentaient de 3,2%. La progression avait été de 12,8% à Malte et de 11,3% en Estonie. Mais ces deux pays représentent respectivement moins de 0,1% et 0,5% des rejets européens…

Six pays portent 70% des émissions carbonées

La France pèse à elle seule 10 % des émissions de CO2 de l’Union européenne, très loin derrière l’Allemagne (22,5 %). L’Italie, la Pologne et le Royaume-Uni sont les trois autres pays dont les émissions européennes dépassent la barre des 10%, respectivement 10%, 10,3% et 11,4%. En y ajoutant l’Espagne (7,7% des rejets en Europe), six pays émettent quasiment 70% du CO2 issu des combustibles fossiles dans l’Union européenne.

Eurostat rappelle dans son communiqué que « les émissions de CO2 contribuent fortement au réchauffement de la planète et représentent environ 80% de l’ensemble des émissions de gaz à effet de serre dans l’UE. »

Ces rejets sont influencés « par des facteurs tels que les conditions climatiques, la croissance économique, la taille de la population, les transports et les activités industrielles. Il convient de noter également que les importations et exportations de produits énergétiques ont un impact sur les émissions de CO2 dans le pays où les combustibles fossiles sont brûlés : par exemple, le charbon importé entraîne une augmentation des émissions, tandis que l’électricité importée n’a pas d’effet direct sur les émissions du pays importateur mais affecte le pays exportateur dans lequel elle a été produite. »

Le recours au nucléaire en France – source peu émettrice de dioxyde de carbone – explique grandement le différentiel avec l’Allemagne, qui a encore largement recours aux centrales au charbon dans sa production d’électricité, même si elle affiche son intention de se passer du charbon à l’horizon 2038. En outre, l’industrie, forte consommatrice d’énergie, est plus développée en Allemagne qu’en France. L’Allemagne avait enregistré un recours d’exportation d’électricité en 2017, alors que c’est la France qui a repris sa position de leader en 2018…

Avec OTONOHM, des batteries commutées sans chargeurs ni convertisseurs

En compétition pour le prix ArianeGroup « Ecologie dans l’industrie », la startup OTONOHM développe une technologie qui permet de supprimer les chargeurs et convertisseurs des batteries pour gagner en performance.

Partant du constat que 30% de l’énergie d’une chaîne d’entraînement sur batterie était gaspillée, la startup OTONOHM a développé une technologie capable de supprimer les chargeurs et convertisseurs ou onduleurs d’une chaîne d’alimentation ou de traction. Le BMS intègre alors les fonctions de charge et de convertisseur et la batterie s’adapte à la tension d’entrée ou/et de sortie.

Cette nouvelle architecture permet de créer des batteries « dynamiques », qui se chargent sans chargeur sur n’importe quelle source (secteur ou renouvelable) et distribuent n’importe quel courant ou tension (AC/DC) directement. Les batteries deviennent multiusage et les pertes en énergie sont donc réduites.

« Les avantages de notre innovation sont multiples : 20% d’autonomie en plus, durée de vie du pack prolongée de 30%, réduction de 40% des émissions de carbone, et nous pouvons utiliser toutes les chimies de cellules, notre technologie n’est que de l’électronique », explique Christophe Piquemal, cofondateur d’Otonohm.

Le prototype fonctionnel est en test depuis deux mois et l’industrialisation vient de commencer.

Holipresse : réutiliser les plastiques usagés pour fabriquer de nouveaux objets

En compétition pour le prix ArianeGroup « Ecologie dans l’industrie », Holipresse fabrique un appareil capable de faire fondre du plastique pour fabriquer des petites séries d’objets.

Alors que des millions de tonnes de déchets plastiques ne sont pas recyclés chaque année, la startup Holimaker a décidé de produire la machine Holipresse capable de réutiliser cette matière. L’appareil permet de faire fondre du plastique et de l’injecter dans des moules grâce à la force manuelle afin de fabriquer des objets en petites séries (500/jour) tout en recyclant les plastiques usagés.

Le fondateur Aurélien Stoky a constaté qu’il existait un manque dans ce secteur. Il explique : « Prenons le cas de mon client OpenFabrick, qui conçoit du matériel pédagogique en plastique. Lorsqu’ils ont voulu produire une petite série de leurs prototypes en plastique pour tester le marché, ils sont tombés sur plusieurs entreprises de plasturgie qui leur demandaient une commande minimale de 3000 pièces alors qu’ils n’étaient même pas sûrs de la conception finale ».

Holipresse permet donc de produire des petites séries et de prototyper des pièces de moulage par injection. Selon le fondateur, elle utilise 20 à 100 fois moins d’énergie que les machines industrielles et elle a l’avantage d’être modulaire : l’utilisateur peut faire évoluer sa machine en fonction de ses besoins techniques et de ses capacités financières. L’appareil sera commercialisé fin 2019.

 

KypSafe : des balises mobiles pour sécuriser les chantiers

En compétition pour le prix ArianeGroup « L’humain au centre de l’usine », KypSafe équipe les techniciens de balises qui les avertissent lorsqu’ils approchent une zone de danger sur les chantiers.

Afin de créer KypSafe, les membres de la startup XP DIGIT sont partis d’un constat : chaque année, de nombreux accidents se produisent sur les chantiers. Ces accidents sont souvent causés par des marquages de sécurité inappropriés, par le non-respect des procédures ou par le manque de sensibilisation au danger.

KypSafe propose un balisage connecté et intelligent destiné à améliorer la sécurité des collaborateurs au travail. Les techniciens sont équipés d’une balise mobile et ils sont avertis par un signal sonore et vibratoire dès qu’ils s’approchent d’une zone de danger.

« Je pense que nous méritons de remporter ce challenge : l’efficacité de KYPSAFE a déjà été prouvée étant donné que la solution est déjà utilisée par plusieurs grandes entreprises, comme ENEDIS. KYPSAFE  est plug-and-play, hautement configurable et parfaitement adapté à de nombreux cas d’usage liés à la sécurité chez ArianeGroup, comme les bancs de test des moteurs ou les tirs de fusée à Kourou », affirme Benoit Bellavoine, le président d’XP DIGIT.

La solution ne nécessite pas d’alimentation électrique, de connectivité, ni de GPS.

Simsoft Industry : un assistant vocal dédié au monde de l’industrie

En compétition pour le prix ArianeGroup dans la catégorie  « L’humain au centre de l’usine », Simsoft Industry propose des assistants vocaux intelligents pour le milieu industriel.

Avec  la volonté de mettre l’intelligence artificielle au service des opérateurs et techniciens, la startup Simsoft Industry propose des assistants vocaux compatibles avec les tâches du monde industriel. Leur innovation  permet d’améliorer les interactions homme-machine grâce à un gestionnaire de dialogue en langage naturel. Les utilisateurs n’auront plus besoin de communiquer uniquement par mots-clés et pourront utiliser leurs propres mots. De même, ils auront les mains libres pour réaliser leurs tâches. Le but : fluidifier les interactions avec la machine, gagner du temps et optimiser certaines actions.

« Le technicien est équipé d’un casque et d’un micro, et interagit avec une tablette ou un PC. Il va dérouler sa gamme, demander des explications, accéder à des photos ou des vidéos, à des animations 3D, à des bases de résolution de problèmes et remonter les incidents qu’il va rencontrer sur le terrain », nous expliquait Philippe Crespin, président et cofondateur de Simsoft Industry lors du Global Industrie.

Cette technologie permettrait également de renforcer la sécurité des opérateurs –les tâches dangereuses seraient notifiées spécifiquement–, d’améliorer la fiabilité des interventions techniques et d’augmenter les performances industrielles des opérateurs.

Castor : un logiciel guide les constructeurs vers l’impression 3D

En compétition pour le prix SKF « Procédés du futur », Castor développe un système de soutien pour décider quelles pièces requièrent l’impression 3D.

Les fondateurs de Castor sont partis d’un constat : les constructeurs attendent très longtemps avant de lancer un produit à cause des temps de production longs et coûteux. Les machines sont souvent lentes et complexes. Bien souvent, les fabricants manquent d’informations concernant l’impression 3D et ignorent que certaines pièces de leurs produits pourraient être produites ainsi.

Castor propose alors un support de décision qui permet aux constructeurs de savoir s’ils peuvent utiliser l’impression 3D à la place des méthodes traditionnelles afin de gagner du temps et de l’argent.

« Le logiciel analyse le BOM (Bill of Material) d’un produit et rend un rapport qui indique quelles parties peuvent être fabriquées par impression 3D, quelles parties ne le sont pas, quels changements peuvent être faits pour les rendre imprimables et quelle est la meilleure technologie pour suivre les exigences du système. Ensuite, nous dirigeons l’utilisateur vers le bureau de service capable de fabriquer ce produit, avec le prix et une estimation des délais », explique  Omer Blaier, le cofondateur de Castor.

La startup s’adresse principalement aux constructeurs industriels qui utilisent des machines complexes. La première version de leur logiciel a été lancée en juin 2018 et est commercialisée aux Etats-Unis et en Israël.

SES-Imagotag : l’affichage digital des étiquettes simplifie le travail en entrepôt

En compétition pour le prix SKF « Procédés du futur », SES-Imagotag propose une gamme d’écrans sans fil e-paper afin de simplifier le travail des opérateurs dans l’industrie.

Si l’industrie se digitalise et s’intéresse grandement aux nouvelles technologies, les fondateurs de SES-Imagotag ont néanmoins remarqué que beaucoup d’entreprises utilisaient toujours le papier pour noter les instructions et communiquer entre opérateurs. Pourtant, les désagréments sont nombreux car les inscriptions sont parfois difficiles à lire et les feuilles peuvent se perdre.

SES-Imagotag a alors créé une gamme d’écran sans fil e-paper afin de remplacer le papier et d’améliorer la communication entre les employés. L’affichage digital sur étiquette est utilisé pour la signalétique dynamique dans les entrepôts. La solution nécessite des écrans et un signal radio.

« Les écrans fonctionnent à partir de piles boutons, ce qui offre une longévité de plusieurs années. Etant sans fil, ils sont faciles à installer. L’infrastructure radio est très légère car SES-Imagotag offre plusieurs possibilités, depuis une radio grande portée jusqu’à de simples dongles à brancher sur vos bornes Wi-Fi existantes. Notre solution est flexible et s’adapte à votre configuration », s’enthousiasme Patrick Chable, cofondateur de la startup.

Cette solution améliore le travail des opérateurs dans les entrepôts grâce à une signalétique plus claire, qui indique les besoins en restockage.

SES-Imagotag travaille avec des clients comme Safran, SKF ou PSA. Sa technologie est aujourd’hui commercialisée en France, Allemagne, Autriche et Suisse.

Cevotec : créer des pièces complexes avec des bandes de fibres composites

En compétition pour le prix SKF « Procédés du futur », Cevotec développe une technologie capable de créer des pièces complexes avec des bandes de fibres composites.

Les fondateurs de Cevotec sont partis d’un constat : la fabrication des pièces en fibres composites est encore manuelle, donc les coûts sont élevés et les temps de production sont longs. Pourtant, les fibres composites permettent de créer des matériaux plus légers, à fort potentiel fonctionnel. Pour répondre à ce besoin, Cevotec a développé une technologie de placement de bandes de fibres.

Avec les séries SAMBA, Cevotec permet la mise en œuvre de plateformes automatisées personnalisables pour les pièces 3D aux géométries exigeantes en fibres stratifiées multi-matériaux et orientations complexes. ARTIST STUDIO est le logiciel associé d’IAO qui permet de créer les pièces stratifiées par bandes fibrées, ainsi que les programmes robots associés. En complément des services de développement qui comprennent la modélisation et la simulation par éléments finis, Cevotec propose la chaine complète de création de valeur, de la conception numérique à l’objet final en fibres.

« Nous avons des projets en cours avec les grandes entreprises de l’aérospatiale pour automatiser la fabrication de structures « sandwich » multi-matériaux, telles que les nacelles, radômes, conduits d’air et autres composants. Le placement de bandes de fibres réduit les temps et les coûts de production de 20 à 40% », explique Thorsten Groene, cofondateur de Cevotec.

La jeune entreprise va livrer ses premiers produits courant 2019.

EMSPROTO : des cartes électroniques assemblées en quelques clics

En compétition pour le prix SKF « Procédés du futur », EMSPROTO allie le chiffrage en ligne et la fabrication rapide de cartes électroniques.

Ingénieurs en électronique, les deux cofondateurs d’EMSPROTO ont remarqué qu’il était encore difficile pour les bureaux d’études de faire assembler leurs cartes électroniques en petite quantité avec une qualité industrielle. Ils ont alors décidé d’associer digital et chaîne de production connectée pour offrir aux ingénieurs une solution alliant le chiffrage et la fabrication de leurs prototypes.

« EMSPROTO s’appuie sur deux grandes innovations : la première, un site web qui permet en quelques clics et en quelques minutes de calculer le coût de revient de n’importe quelle carte électronique. La seconde innovation, c’est notre usine connectée entièrement automatisée qui permet d’assembler n’importe quelle carte électronique avec des délais de réalisation de 1 à 12 jours », explique Pierre Yves Sempere, cofondateur et président de EMSPROTO.

Créée en 2015, la startup travaille aujourd’hui avec plus de 300 clients dont Thalès, Airbus et Alstom. Une nouvelle ligne de production est prévue pour la fin 2019 afin de répondre à la demande croissante.

SolCold exploite les radiations du soleil pour rafraîchir les immeubles

En compétition pour le prix SKF « Matériaux du futur », SolCold développe un matériau nano-technologique pour rafraîchir les immeubles en utilisant la lumière du soleil.

Et si, au lieu de réchauffer, les radiations solaires pouvaient être utilisées pour rafraîchir ? La startup israélienne SolCold est partie de cette idée et a trouvé un moyen de transformer la lumière du soleil en climatisation. Les fondateurs ont développé un matériau nano-technologique qui utilise la fluorescence anti-Stockes, les photons et les phonons.

Ainsi, plus le soleil est fort, plus les espaces seront rafraîchis. Ce matériau pourrait être utilisé comme revêtement pour les voitures, les immeubles ou les avions. La solution a l’avantage de n’utiliser aucune autre source d’énergie que le soleil.

« Nous attendons de cette technologie qu’elle permette de faire d’importantes économies dans les dépenses de climatisation et d’air-conditionné, et qu’elle baisse significativement les émissions de gaz à effet de serre », explique les fondateurs.

Le matériau est encore en phase de R&D. La startup travaille actuellement sur un prototype qui sera disponible fin 2019 pour une commercialisation prévue en 2020.

NanoPrint : des nano-impressions précises pour fabriquer des matériaux flexibles et transparents

En compétition pour le prix SKF « Matériaux du futur », NanoPrint développe une technologie pour imprimer des membranes et des cellules solaires transparentes et flexibles.

Les trois fondateurs de NanoPrint ont remarqué un problème : les imprimantes 3D ne permettent pas une impression de haute précision car elles ne reconnaissent pas les erreurs, ont des irrégularités de température ou débordent. De plus, les nano-impressions sont particulièrement coûteuses.

Ils ont alors développé une technologie de Smart Manufacturing : une imprimante capable de déposer des couches grâce à des nano-gouttelettes chargées. La précision est améliorée et l’impression de couches ultra-fines est possible. L’imprimante est aussi capable de corriger les erreurs.

Cette technologie permet de créer des matériaux flexibles et transparents. Elle peut être utilisée pour fabriquer des cellules solaires, des batteries, des membranes bio-inspirées, des textiles qui intègrent de l’électronique. L’imprimante peut aussi être utilisée pour les métaux et les matériaux organiques, ce qui permet de créer des circuits électroniques sur n’importe quelle surface et de fournir une bonne adhésion.

La solution est en phase de R&D et commence à être développée, notamment chez Huawei.

Carbon Waters, la startup qui développe des dispersions aqueuses de graphène

En compétition pour le prix SKF « Matériaux du futur », Carbon Waters produit du graphène en dispersion aqueuse pour la protection anti-corrosion des surfaces dans des domaines tels que l’aéronautique ou l’électronique.

Créée en 2018, Carbon Waters est une startup de 8 personnes qui développe des dispersions aqueuses de graphène polyfonctionnelles, biodégradables et biocompatibles. Les créateurs de la jeune entreprise sont partis d’un constat : de par sa toxicité, le chrome va bientôt devoir être remplacé dans les traitements anti-corrosion par des solutions plus performantes et respectueuses des nouvelles réglementations européennes.

La startup propose donc d’utiliser le graphène. La forme aqueuse de leur solution permet d’éviter les désagréments du graphène en poudre -problèmes sanitaires et de faibles performances- tout en ayant des dispersions stables, avec un haut niveau de performance du fait de la qualité du matériau produit (1 à 8 feuillets, moins de 0,05% de défauts).

Leurs dispersions aqueuses sont utilisées en tant que traitement de surface ou en tant qu’additif dans des formulations de revêtements anti-corrosion. Le dépôt d’un film homogène, continu et quasi-transparent de graphène protège alors les surfaces de l’eau, des gaz et des acides. Il est adaptable à de nombreux substrats tels que les métaux, les substrats fins ou poreux.

Green Tropism : des spectromètres pour analyser la composition et la qualité de la matière

En compétition pour le prix Atos « Datascience », Green Tropism est une jeune société française spécialisée dans l’édition de logiciels embarqués dans l’univers de la spectroscopie grand public et industrielle.

Green Tropism s’appuie sur des techniques mises en œuvre dans les années 60 : la spectroscopie et le machine learning. Les solutions de logiciels embarqués conçus par GreenTropism marquent une rupture fondamentale dans les technologies de photonique en assurant un niveau de précision incomparable aux analyses de données spectrales et à leurs traitements. En effet, GreenTropism produit des algorithmes (IA, Machine Learning, Deep Learning) pouvant utiliser toutes les données spectrales de spectromètres et imageurs, quelle que soit leur marque, leur gamme spectrale.

La partie Machine learning est assurée par des data scientists qui travaillent avec les géologues et les biochimistes de l’équipe R&D de GreenTropism. Leur maîtrise des rayonnements infrarouge, visibles, UV et laser (LIBS, Raman) leur permet de proposer une plateforme de logiciels et de modèles agnostiques. Ils sont donc adaptables à divers rayonnements et indépendants du spectromètre utilisé.

« Un déploiement sur une usine va contribuer à un déploiement plus rapide sur d’autres usines. Une erreur détectée dans une usine sera reconnue dans une autre avant que cela ne se reproduise », met en avant Anthony Boulanger, CEO de GreenTropism

Les spectromètres ne sont plus dédiés à une ou plusieurs tâches et peuvent être mis à jour à distance. De plus, la technologie GreenTropism s’adapte également à des usages grand public via l’internet des objets, l’électronique et l’électroménager.

Mechanica AI : machine learning et IA au service de l’efficacité de production

En compétition pour le prix Atos « Data science », Mechanica AI propose une solution pour exploiter les données industrielles et améliorer l’efficacité de production.

Certaines décisions industrielles s’appuient sur des règles ou expertises individuelles. Les formules existantes ne permettent pas un contrôle pro-actif et ne peuvent pas rendre compte des écarts. La start-up Mechanica AI aborde ces problèmes d’efficacité avec de nouveaux outils.

L’entreprise fournit des logiciels basés sur l’IA qui sont intégrés aux processus de production existants dans les grandes entreprises afin d’accroître la qualité de la prise de décision opérationnelle. Ces modules utilisent les données accumulées pour fournir des mesures ou des recommandations très précises en temps réel. Cela améliore directement le rendement et diminue l’utilisation de la matière première ou le taux de défauts.

La technologie Mechanical AI combine des méthodes d’apprentissage automatique et des modèles de processus basés sur la physique. Les modèles sont suffisamment robustes pour fonctionner dans un environnement de production réel et apportent une précision accrue grâce à l’utilisation de techniques d’analyse de données avancées.

« Nous pensons qu’il y a un fort potentiel de partenariat avec Atos en raison de leur savoir-faire et leur expertise dans la transformation numérique », souligne Elena Samuylova de Mechanica AI.

Pour les utilisateurs, l’amélioration de l’efficacité industrielle nécessite un investissement important ainsi que des changements de dispositifs, comme l’achat de nouveaux capteurs.

Awen Collective : des logiciels pour réduire les cybermenaces dans les entreprises

En compétition pour le prix Atos « Cybersécurité », Awen Collective propose une suite logicielle qui permet de réduire les coûts des cybermenaces qui impactent les usines et les entreprises.

Le projet Awen Collective est né de la nécessité de garantir un niveau nécessaire de sécurité pour améliorer la structure des réseaux et atténuer les risques. Leur série de logiciels effectue une inspection approfondie sur des protocoles spécifiques afin de collecter autant de données que possibles (fabricant, modèle, réseau).

Le logiciel Dot est un outil de découverte d’intrus spécialement conçu pour être utilisé sur les systèmes OT (ICS, SCADA et IIOT) et prenant en charge les réseaux Ethernet et autres réseaux. Pour améliorer la profondeur et la qualité des données collectées par Dot, la solution utilise des technologies optionnelles d’analyse ciblée, adaptées aux protocoles et aux périphériques présents sur les réseaux. Dot est donc en mesure d’identifier les risques des systèmes, y compris les logiciels ou micrologiciels vulnérables, les problèmes de configuration réseau et périphériques ou les trafics imprévus.

« Atos s’adresse aux secteurs de l’aérospatiale, de l’automobile, de la défense, de la manufacture, de l’énergie, de la santé, des transports et des services publics, qui fonctionnent tous dans des environnements ICS et qui bénéficieraient grandement de la valeur apportée par la solution Dot », souligne l’un des cofondateurs de Awen Collective.

Panga : des réseaux locaux pour transformer les bâtiments et villes en plateforme de service

En compétition pour le prix Atos « Data science »,  la start-up Panga développe des solutions pour les Smart Buildings et Smart Cities à destination des gestionnaires et usagers des bâtiments.

Les bâtiments et les usines sont des structures complexes avec des outils et protocoles multiples qui cohabitent sans aucune interaction. Par exemple, il n’existe pas de lien entre le chauffage et le système de sécurité incendie. L’idée de Panga repose sur la création d’un intranet, ce qui existe déjà pour les réseaux d’entreprises, mais à l’échelle d’un bâtiment, d’un quartier ou d’un campus.

La solution consiste à construire une infrastructure de communication, puis à positionner des Gateway IoT multi-protocoles et multi-interfaces disposant de systèmes de sécurité embarqués, ainsi que des mécanismes de virtualisation pour pouvoir installer des applications pour les usagers. Panga a également conçu le terminal NEHO qui permet d’accéder en temps réel à toutes les fonctions et qui simplifie l’accès pour les usagers.

« Nous pensons que l’optimisation des chaines de production passera forcément par des structures fédératrices où tout sera connecté ensemble. La meilleure approche est basée sur une infrastructure réseau avec des systèmes de traitement en local pour répondre aux futurs challenges de l’industrie 4.0. », souligne Patrick Simon, le fondateur de Panga.

En concevant un réseau central nommé B-NOS (Building Network Operating System), Panga anticipe la transition vers les bâtiments intelligents. L’entreprise propose des services à valeur ajoutée : maintenance prédictive, automatisation des équipements, analyse des données ou suivi des consommations d’énergie. La solution traite localement les données et les préserve, contrairement aux solutions cloud.

Se défendre des attaques d’ordinateurs quantiques avec QuantiCor Security

En compétition pour le Prix Atos « Cybersécurité », QuantiCor Security propose une solution de cybersécurité pour l’ioT qui permet de résister aux attaques d’ordinateurs quantiques.

Les systèmes de sécurité informatique sont actuellement vulnérables aux attaques informatiques d’ordinateurs quantiques. Par exemple, lors d’achats en ligne, les entreprises dépendent surtout des systèmes de sécurité qui garantissent l’authentification et la confidentialité des utilisateurs. Les hackers peuvent donc utiliser les données personnelles à mauvais escient. QuantiCor s’attache à fournir des solutions résistant à l’informatique quantique pour l’IoT.

« Cette solution applique une nouvelle technologie de cybersécurité basée sur les dernières avancées scientifiques », souligne Dr. Rachid El Bansarkhani, cofondateur de QuantiCor Sécurity.

Les certificats de sécurité de chaque appareil IoT doivent être révisés et maintenus périodiquement, ce qui peut être coûteux, complexe et inefficace. QuantiCor résout ce problème avec une infrastructure informatique qui ne nécessite pas de certificats.

De cette manière, de nouveaux appareils peuvent facilement être déployés dans des réseaux IoT dynamiques. Cette solution est adaptée pour sécuriser rapidement et en douceur les données de millions d’appareils.

LED : l’Anses renouvelle ses recommandations sur la lumière bleue

Présentes des phares de voitures aux smartphones, les LED peuvent émettre une lumière intense, riche en lumière bleue, correspondant aux basses ondes du spectre lumineux. Les LED exposent ainsi davantage la population à la lumière bleue que les ampoules à incandescence ou halogènes. Si la lumière bleue est naturellement émise par le soleil et est essentielle au bon fonctionnement de notre organisme en journée, cela n’est plus le cas le soir.

Les principaux troubles induits par la lumière bleue sont des troubles du sommeil, ou un dérèglement du rythme circadien. L’Anses identifie aussi des effets phototoxiques à court terme liés à une exposition aiguë, et des effets à long terme liés à une exposition chronique. Ceux-ci augmentent le risque de survenue d’une dégénérescence maculaire liée à l’âge (DMLA). C’est pour rappeler ces risques que l’Agence nationale de sécurité sanitaire (Anses) a mis à jour ses recommandations faites en 2010. Si la réglementation en vigueur permet d’assurer un contrôle rigoureux sur les produits d’éclairage, cela est différent pour d’autres usages.

Mieux protéger l’ensemble de la population

L’Agence rappelle l’importance de privilégier des éclairages domestiques de type « blanc chaud », avec une faible composante bleue. Elle précise qu’il est essentiel de protéger les yeux des enfants et des adolescents, chez lesquels le cristallin n’est pas encore tout à fait formé. Or, c’est cette partie de l’œil, qui devient mature vers 20 ans, qui permet de filtrer la lumière bleue. Ainsi, les plus jeunes devraient éviter limiter l’utilisation des ordinateurs, consoles, smartphones ou tablettes à la tombée du jour.

Dina Attia, cheffe de projet à l’Anses, explique qu’il n’existe aucune réglementation sur les objets à LED, hors éclairage. Il peut s’agir de phares automobiles, de lampes torches, de décorations ou de jouets. En clair, un jeune enfant peut risquer d’abîmer ses yeux avec un jouet qui émet trop de lumière bleue.

L’Anses rappelle par ailleurs que les moyens de protection utilisés par le public, comme les verres traités, les lunettes de protection ou les écrans spécifiques, ont une efficacité très variable. Elle appelle à établir des normes définissant les critères de performance de filtration de ces équipements.

Faire évoluer la réglementation

Pour l’éclairage domestique, seules les LED répondant aux normes de sécurité photobiologique NF EN 62471 classées dans le groupe de risque 0 (sans risque) et 1 (risque faible) sont commercialisées. Les lumières des groupes 2 (risque modéré) et 3 (risque élevé) sont réservées aux utilisations professionnelles dans des conditions garantissant la sécurité des travailleurs. L’agence propose donc de restreindre la mise à disposition de tous les objets à LED, et non pas seulement l’éclairage, auprès du grand public à ceux de groupe de risque photobiologique 0 ou 1.

Les études montrent également une augmentation de la mortalité et un appauvrissement de la diversité des espèces animales et végétales étudiées dans les milieux éclairés la nuit, y compris par des éclairages à LED. L’Anses recommande donc de diminuer autant que possible la pollution lumineuse pour préserver l’environnement.

Enfin, les lampes à LED peuvent présenter des variations plus ou moins rapides de l’intensité de la lumière qu’elles émettent. Cette modulation varie notamment en fonction de la qualité de l’électronique associée à la LED commercialisée. Elle peut entraîner fatigue visuelle, maux de tête ou encore migraines. L’Anses recommande donc de réduire au minimum ce niveau de modulation temporelle de la lumière émise par tous les objets utilisant des LED.

En France comme dans le reste du monde, la demande en diodes électroluminescentes, LED, a explosé durant ces dernières années. Et la tendance devrait continuer de s’accélérer. Selon un rapport du cabinet de consulting américain Grand View Research, le marché de la LED devrait pratiquement atteindre 109 milliards de dollars à l’horizon 2025. Cela s’explique par le fait que les LED sont plus économes en énergie que les ampoules à incandescence ou les lampes halogènes. Et leurs performances énergétiques leur permettent d’être aujourd’hui utilisées pour de nombreux usages.

Siemens entre dans la quatrième révolution industrielle numérique

Le discours de Joe Kaeser, le PDG de Siemens, à l’occasion de la présentation des résultats le 7 mai, est clair : « Avec Vision 2020+, nous poursuivons la réorientation des activités de Siemens, et les rendons plus agiles et plus réactives. Ces changements jettent les bases d’une réussite économique durable sur des marchés de croissance qui conserveront leur attractivité sur le long terme. Nous offrons également de solides perspectives aux activités qui doivent faire leurs preuves dans le contexte de transformation structurelle en cours ». Et le PDG d’ajouter : « le succès des activités de Siemens de la prochaine génération sera défini par de nouveaux facteurs. A l’avenir, ce ne seront plus l’envergure, la taille et l’approche universelle qui décideront de notre réussite, mais la cohérence, la réactivité et l’adaptabilité. Ce sont ces facteurs qui nous permettront de pérenniser nos activités à l’ère de la quatrième révolution industrielle digitale, car ils sont essentiels pour rester compétitifs. »

Le PDG souligne que Siemens est en position de force pour fixer son nouveau cap et se trouve dans une situation idéale. Siemens veut poursuivre résolument son développement et conforter sa position de leader dans les secteurs de croissance que sont l’automatisation, la digitalisation industrielle et les infrastructures intelligentes.

Ainsi, les divisions Digital Industries (DI) et Smart Infrastructure (SI) constitueront à l’avenir le cœur industriel de Siemens. Ce nouveau centre sera complété par les unités technologiques et de service du groupe et sa participation majoritaire stratégique dans Siemens Healthineers. Siemens Mobility, considéré comme une activité en croissance, sera également renforcé.

La division Smart Infrastructure entend renforcer ses activités produits, particulièrement en Asie, mais aussi développer ses activités rentables en matière de services, et intensifier ses activités dans des domaines tournés vers l’avenir comme les infrastructures de mobilité électrique, les systèmes d’énergie distribués, les bâtiments intelligents et le stockage de l’énergie – en exploitant notamment davantage les solutions de digitalisation. Cette politique devrait générer une croissance annuelle du chiffre d’affaires de 4 à 5 % sur l’ensemble du portefeuille de SI. Dès lors, SI souhaite recruter jusqu’à 6000 nouveaux employés à l’horizon 2023 – surtout dans les services, la recherche et le développement ainsi que la vente. « Dans l’ensemble, avec une croissance accélérée et une structure allégée, nous pensons faire passer notre marge à 13 ou 15 % d’ici 2023 », a expliqué Cedrik Neike, directeur général de SI. Une orientation qui passe notamment par le développement de micro-grids. Siemens a ainsi investi en 2018 dans une start-up new-yorkaise, LO3 (local microgrid), qui vise à utiliser les énergies renouvelables via des solution liées à la blockchain. Et le groupe participe à de nombreux projets de micro-grids notamment dans les îles, comme Les Galapagos. Enfin, Siemens dispose également d’une technologie d’Electrolyse PEM pour fabriquer l’hydrogène, afin d’accompagner la transition énergétique, pour la mobilité et le stockage, avec le power-to-gas.

« Nous avons plusieurs pistes pour accroître notre rentabilité. Nous pouvons engranger des gains de productivité significatifs rien qu’en allégeant notre administration. Les 79 usines de SI dans le monde sont un autre levier d’action. Au cours des trois prochaines années, nous allons comprimer les coûts grâce à des regroupements de capacité et des partenariats », insiste l’ancien responsable de Cisco. Pour atteindre cet objectif, SI prévoit 3 000 suppressions de postes au total dans le monde. Cette mesure générera 300 millions d’euros de charges de restructuration. Au final, SI table sur une augmentation nette de 3 000 emplois à l’horizon 2023.

De son côté, la division Digital Industries a l’intention de consolider ses activités dans la numérisation industrielle et de conforter encore davantage sa position de leader du marché. DI est notamment en avance dans le domaine de l’automation des processus industriels, mais mise également sur la fabrication 3D.

DI vise une croissance 25 % plus rapide que celle du marché (entre 4% et 5% annuellement), qui se traduirait par la création de 12000 nouveaux postes dans le monde, principalement dans la production, la recherche et le développement ainsi que la vente. DI ambitionne d’optimiser sa rentabilité grâce, par exemple, à l’intégration de deux anciennes divisions, à l’amélioration de ses processus internes dans des domaines tels que la logistique, à la simplification du controlling et à une utilisation accrue du propre portefeuille de logiciels industriels de l’entreprise. Ces mesures auront également un impact structurel sur l’emploi, car elles nécessiteront en partie d’autres qualifications. Jusqu’à 4900 postes seront concernés dans le monde. La direction de DI escompte des charges de restructuration de 300 millions d’euros d’ici 2023. L’un dans l’autre, DI table sur une croissance supplémentaire qui générera près de 7000 emplois à l’horizon 2023.

21 mesures pour changer d’échelle le véhicule électrique

En France, plus de 200 000 véhicules électriques et hybrides rechargeables étaient en circulation fin 2018. Au premier trimestre 2019, les immatriculations ont bondi de 36 % par rapport au premier trimestre 2018. Et la PPE porte un objectif de 4,8 millions de véhicules électriques en circulation en 2028. Cela suppose un taux de croissance des immatriculations de 28 % par an pendant 10 ans, calcule l’association Équilibre des Énergies (Eden). Qu’il s’agisse de particuliers ou de gestionnaires de flottes en entreprise, le parcours est semé d’obstacles pour relever ce défi.

L’étude commandée à Wavestone par Bouygues Énergie & Services, EDF, Enedis, Schneider Electric et le groupe Volkswagen France, regroupés au sein de l’association Eden, se démarque par sa méthodologie. Elle s’est attachée à définir des profils d’utilisateurs, puis à identifier les freins qu’ils rencontraient lors de leur parcours d’achat et au cours de l’utilisation de leur véhicule.

Des défis immenses, notamment en matière d’image

Xavier Metz, directeur associé de Wavestone, en retire un enseignement capital. Mettre des millions de véhicules électriques sur les routes est certes un « défi technologique et économique » pour développer des gammes de voitures accessibles, des batteries performantes et réduire les temps de recharge. Mais il ne faut surtout pas sous-estimer que nous faisons aussi face à « un défi sociologique, un défi de marketing, un défi d’usage et un défi de communication« .

Jean-Pierre Hauet, président du Comité scientifique d’équilibre des Énergies, relève ainsi que les utilisateurs potentiels ont « un immense besoin d’information » pour contrer un « certain scepticisme« . Et pour cause : Xavier Metz révèle que les acheteurs potentiels ont bien souvent des représentations erronées. « Il y a un enjeu de communication pour réduire les risques perçus et démontrer les bénéfices du véhicule électrique dans la transition énergétique et en matière de lutte contre la pollution« , prévient-il.

Inventer une expérience propre au véhicule électrique

Pour faire adopter le véhicule, « il faut aller vers des services qui simplifient au maximum la vie de l’utilisateur« , estime Xavier Metz. Il faut que le véhicule thermique soit définitivement plus attractif que le thermique. « Le rêve atteignable d’ici 2030 est de ne plus avoir à se poser de questions pour charger son véhicule parce que c’est le système qui s’en charge automatiquement dès qu’il a accès à une borne« , estime l’expert de Wavestone.

Il faudra toutefois lever les freins sur plusieurs segments du marché. « Il y a des freins tellement importants sur certains segments qu’ils limiteront considérablement le potentiel du véhicule électrique s’ils ne sont pas levés : les logements collectifs, les Français qui n’ont pas de parking, les véhicules de fonctions, les PME... », prévient Xavier Metz. Eden propose plusieurs solutions pour développer une infrastructure de recharge suffisante à tous les niveaux. Elle invite l’État à soutenir la mise en œuvre de ces recommandations portées par les grands acteurs industriels.

Eden prévoit que les tarifs des véhicules électriques deviennent compétitifs en 2030. L’association demande donc de pérenniser les incitations financières à l’acquisition d’un véhicule électrique pour les trois prochaines années. Elle alerte également sur la nécessité de préparer et stimuler dès à présent le marché de l’occasion. Pour sécuriser la valeur de revente, il faudra mettre en place un diagnostic sur les batteries. À ces conditions, Eden voit un parc de 2 millions de véhicules hybrides rechargeables et de 3,2 millions de véhicules électriques à batterie en 2030.

Les chiffres de l’énergie battent des records aux Etats-Unis

Fait historique, les Américains ont dépassé leur record de production, de consommation et d’exportation d’énergie. Cette nouvelle s’explique par le bon état de santé de l’économie américaine, mais également par le boom de la production de gaz de schiste et de pétrole. Les chiffres partagés par l’Energy Information Administration (EIA) montrent que pendant que les importations d’énergie baissent, les exportations augmentent : +18 %.

Ainsi, au cours de l’année 2018, les États-Unis ont produit 28.128 térawattheures (TWh), et en ont consommé 29.593. Le pays s’approche doucement de l’indépendance énergétique. La production augmente plus vite que la consommation : respectivement +8 % et +4 % par rapport à 2017. L’agence américaine déclare que 80 % de l’énergie consommée sur le sol américain est d’origine fossile, tout comme la majorité de l’énergie produite.

L’énergie solaire avance, et le charbon recule

Si l’on ne s’intéresse qu’au pétrole brut et au gaz naturel, ils représentent tous deux 57 % de la production énergétique américaine. Au cours de l’année 2018, la production de pétrole a augmenté de 17%, et la production de gaz naturel de 12 %. Et,  effet lié à la taxation douanière des panneaux solaires chinois, la production d’énergies renouvelables a augmenté de 4 % en un an, se développant essentiellement autour du solaire (+22 %). Si les démocrates remportent l’élection présidentielle de 2020, la feuille de route énergétique américaine pourrait se verdir davantage.

Autre record, mais cette fois-ci à la baisse : la consommation de charbon. Alors que le président Donald Trump a affirmé à plusieurs reprises vouloir relancer la filière, la production d’énergie charbonnière est à son plus bas niveau depuis 39 ans. Elle marque un recul de 3 %. L’année a été marquée par des fermetures de centrales à charbon plus intenses qu’en 2017. Le pays compte 30 % de mines de charbon actives de moins qu’en 2008.

L’indépendance énergétique passe par l’augmentation des émissions de CO2

Les hausses de consommation et de production d’énergie engendrent une augmentation des émissions de gaz à effet de serre. Selon les estimations du groupe de recherche Rhodium, les émissions de CO2 ont augmenté de 3,4 % en 2018.

Les États-Unis sont redevenus les premiers producteurs de pétrole. Ce pic est causé en premier lieu par les transports, puis par la production d’énergie, l’industrie et les bâtiments. C’est la seconde plus forte augmentation en 20 ans, après celle de 2010 à 3,6 %. Cependant, l’EIA prévoit un ralentissement de la consommation dans les prochaines années. À l’inverse, la production devrait continuer d’augmenter, jusqu’en 2042 pour le pétrole, et jusqu’en 2050 pour le gaz naturel. Une mauvaise nouvelle pour la lutte contre le réchauffement climatique.

Des composites céramiques qui se réparent d’eux-mêmes sans traitement thermique

Le matériau que ces chercheurs ont mis au point présente également une activité photocatalytique ainsi qu’une bonne biocompatibilité, ouvrant la voie à de nouvelles applications potentielles.

Les céramiques : des matériaux à la fois résistants et fragiles

Les matériaux céramiques comme l’alumine (Al2O3) sont couramment utilisés dans l’industrie pour leurs propriétés de résistance à l’usure, leur stabilité chimique et leur tenue aux très hautes températures. Néanmoins, les céramiques sont par nature fragiles, ce qui rend les opérations d’usinage délicates. En effet, lorsque des défauts microscopiques apparaissent, la résistance à la rupture de ces matériaux s’effondre, car les contraintes exercées en périphérie des microfissures peuvent irrémédiablement conduire à une propagation fatale.

De multiples matériaux auto-cicatrisants

Cela fait déjà de nombreuses années que le monde scientifique cherche à apporter des propriétés d’auto-réparation aux matériaux. Cependant, s’il existe déjà des polymères, des bétons ou des céramiques capables de se réparer, le processus d’auto-cicatrisation se produit dans un environnement particulier, propre à chaque matériau. L’auto-cicatrisation des céramiques a ainsi été démontrée à de nombreuses reprises, mais l’excellente stabilité chimique et thermique de ces matériaux complique le processus. En effet, le traitement thermique à haute température reste à ce jour la meilleure technique d’auto-cicatrisation des céramiques, ce qui élimine d’emblée une utilisation à température ambiante.

Auto-cicatrisation par anodisation du titane

L’anodisation est un procédé électrochimique couramment utilisé pour créer une couche d’oxyde à la surface de certains métaux tels que l’aluminium ou le titane. L’équipe de chercheurs a donc eu l’idée de concevoir un cermet Al2O3/Ti, le titane sous forme métallique pouvant être oxydé afin de combler les fissures de la matrice en alumine. Ce matériau composite céramique/métal a été élaboré à partir d’un mélange de poudres (α-Al2O3 et TiH2), qui a ensuite subi une étape de frittage à 1500 °C sous atmosphère protectrice (argon).

Le processus de cicatrisation par anodisation a donc l’avantage d’être réalisé à température ambiante, mais dans un électrolyte aqueux contenant de l’acide phosphorique (H3PO4). Le composite Al2O3/Ti est placé en anode, ce qui signifie qu’il doit suffisamment conduire l’électricité. Par conséquent, l’équipe de chercheurs a dû travailler en amont sur la proportion de particules métalliques présentes dans le composite ainsi que sur leur taille pour obtenir une conductivité suffisante.

Des résultats prometteurs…

Pour tester la capacité d’auto-réparation de ces matériaux, les chercheurs ont tout d’abord soumis les échantillons à des essais d’indentation, en suivant la même méthode que pour la mesure de micro-dureté Vickers. Les empreintes obtenues ont la particularité de créer des fissures de manière assez reproductible, la force appliquée étant connue et maîtrisée. Il leur a donc été possible de mesurer l’effet de la taille des fissures sur la capacité d’auto cicatrisation.

Le processus de cicatrisation a par ailleurs été analysé de manière approfondie par microscopie électronique à balayage (MEB), par diffraction des rayons X et la résistance mécanique des échantillons avant et après cicatrisation a été comparée. Les résultats sont concluants : après cicatrisation le matériau retrouve la même résistance à la flexion qu’avant l’apparition des fissures.

… mais il reste du travail à accomplir

Cependant, si l’équipe de chercheurs a réussi à prouver qu’il était possible de réparer des fissures en utilisant le procédé d’anodisation, il leur reste encore à maîtriser certains paramètres. Par exemple, le procédé de cicatrisation par anodisation semble induire une relaxation de contraintes résiduelles, ce qui semble augmenter la résistance mécanique du matériau. Par conséquent, l’équipe de chercheurs souhaite conduire prochainement une étude approfondie des contraintes résiduelles.

Source : https://phys.org/news/2019-02-simple-low-cost-crack-healing-ceramic-based-composites.html#nRlv

Des usines pour capturer le CO2 de l’atmosphère

Sera-t-il bientôt possible de générer des émissions de CO₂ négatives à l’échelle mondiale ? C’est l’objectif de Carbon Engineering. L’entreprise estime qu’elle pourra extraire du CO₂ de l’atmosphère à l’échelle industrielle, à moins de 100 dollars la tonne de CO₂ captée, purifiée et comprimée à 150 bars, dès 2021. Le CO₂ ainsi capturé pourra être séquestré de façon permanente pour avoir des émissions négatives. Il pourra aussi servir à la synthèse de produits chimiques et de carburants synthétiques – de l’essence, du diesel ou du kérosène – en combinaison avec de l’hydrogène obtenu par électrolyse de l’eau alimentée aux énergies renouvelables.

Fin mars, l’entreprise a annoncé l’obtention d’un financement de 68 millions de dollars. Parmi les multiples investisseurs, citons la compagnie pétrolière Chevron, l’entreprise minière BHP et le milliardaire Bill Gates. Avec ce financement, la société prévoit de construire ses premières installations commerciales à échelle industrielle. « Notre technologie éprouvée de captage du CO₂ atmosphérique permet de capturer un million de tonnes de CO₂ par an avec chaque installation commerciale, assure l’entreprise. Cette quantité de CO₂ équivaut aux émissions annuelles de 250 000 voitures en moyenne. »

Vers un carburant atmosphérique ?

Depuis 2015, un démonstrateur permettant de purifier environ une tonne de CO₂ par jour est en activité à Squamish, en Colombie Britannique, au Canada. Depuis 2017, un autre démonstrateur génère environ un baril de carburant par jour. L’entreprise valide actuellement son modèle pour déployer les premières usines commerciales en 2021. Après la Colombie-Britannique et la Californie, l’entreprise projette un marché mondial.

Dans son rapport spécial sur un réchauffement planétaire de 1,5°C, le GIEC appelle à développer les technologies de capture et d’élimination du CO2. Carbon Engineering imagine que ses machines pourraient devenir aussi répandues que le sont actuellement les stations d’épuration dans les pays développés. L’Inde, la Chine, des pays d’Amérique du Sud et d’Europe auraient fait part de leur intérêt, souligne Radio Canada.

Carbon Engineering est en concurrence avec la start-up suisse Climeworks qui compte déjà une quinzaine de démonstrateurs en activité en Europe. Mais à 600 dollars la tonne de CO2 extraite de l’atmosphère, son coût demeure encore prohibitif. Selon Le Temps, l’entreprise espère retirer 1 % du dioxyde de carbone émis dans le monde d’ici à 2025. Elle travaille donc à l’industrialisation de la technologie et à la réduction des coûts pour imaginer une production de masse.

Ile de la Réunion : une vraie autonomie énergétique en question

Fin 2018, le mix de production électrique réunionnais présentait 32 % d’électricité d’origine renouvelable. C’est beaucoup mieux qu’en métropole, qui peine à atteindre les 18 %. Il n’y a pas de réacteur nucléaire sur l’île : l’atome laisse sa place au charbon (38 %) et au fioul (30 %).

Vers l’autonomie énergétique en 2030 ?

La trajectoire de transition énergétique est, comme en métropole, définie par un document de référence appelé Programmation Pluriannuelle de l’Énergie. En résumé, ce document donne des objectifs de développement filière par filière pour aller vers plus d’énergies renouvelables. Côté électricité, la part renouvelable devrait atteindre 50 % en 2023 et 100 % en 2030.

Là où le bât blesse est que la loi prévoit une autonomie énergétique totale, c’est-à-dire autant du point de vue de l’électricité que du transport, de la climatisation et de l’eau chaude sanitaire. Mais sur le terrain, l’île prend uniquement le chemin d’une autonomie électrique, et même d’une autonomie électrique partielle.

Remplacer le charbon par de la biomasse majoritairement importée

Le gouvernement français a pris l’engagement de fermer toutes les centrales charbon en France d’ici fin 2022. L’île de La Réunion n’est pas épargnée. Ce qui est facile en France métropolitaine, où le charbon ne représente que 1,1 % du mix électrique, l’est moins là où le charbon en représente 38 %. L’exploitant Albioma envisage donc de convertir ses deux centrales électriques charbon/bagasse d’une capacité de 100 MW et 111 MW à un mix biomasse/bagasse.

Pour remplacer les 650 000 tonnes de charbon brûlées chaque année à la Réunion, il faudrait trois fois plus de biomasse : environ 2 millions de tonnes. L’ONF a recensé toutes les entrées possibles et le moins que l’on puisse dire est que le compte n’y est pas si l’on ne considère que la biomasse locale. Car, pas question de toucher aux plus de 110 000 hectares d’aires protégées. Seuls 30% des gisements nécessaires pour remplacer le charbon sont disponibles localement, principalement sous forme de bois d’élagage. Pour faire fonctionner les deux centrales à l’avenir, il faudrait donc importer 70% de la biomasse nécessaire. Il s’agirait de pellets industriels, en provenance du Canada, des États-Unis ou du Brésil, ou de plaquettes forestières, en provenance du Mozambique ou de l’Asie du sud-est.

Et si l’on pariait plutôt sur un mix 100% renouvelable ?

 Soleil, vent, géothermie, biomasse, océan… l’île dispose des gisements nécessaires pour développer fortement les énergies renouvelables. Il manque simplement une vision claire, ambitieuse et globale de transition énergétique. « Actuellement, les acteurs étudient comment ils peuvent faire tourner les centrales existantes en important de la biomasse, relève Jérôme Billerey, président de la commission Régions ultramarines du syndicat des énergies renouvelables (SER). Il faudrait plutôt partir des gisements disponibles et voir comment il est possible de construire une stratégie globale et cohérente pour aller vers une réelle autonomie énergétique, incluant l’électricité, l’eau chaude sanitaire, la climatisation et les transports ».

Une option ambitieuse serait de réinventer la production électrique de l’île. C’est ce que vise l’ADEME dans son étude Vers l’autonomie énergétique en Zone Non Interconnectée (ZNI) à l’horizon 2030. L’agence a exploré plusieurs scénarios, dont un ambitieux d’autonomie énergétique en 2030. « Les potentiels ENR locaux sont suffisants pour assurer un mix électrique 100% renouvelable et local tout en satisfaisant l’ensemble de la demande électrique à tout instant – équilibre offre demande –, moyennant un recours significatif à des capacités de stockage », assure l’agence.

Une autonomie énergétique pas tellement plus chère

L’île de La Réunion disposait fin 2015 d’une capacité installée de 1839 mégawatts (MW) dont 463 MW de sources renouvelables. Un potentiel additionnel de plus de 1,5 gigawatt électrique a été identifié dont 61% de photovoltaïque, 14% d’hydroélectricité, 14% de biomasse, 11% d’éolien, 2% de biogaz et 1% de géothermie. Malgré son potentiel et quelques projets en cours, l’ADEME n’inclut pas l’énergie thermique des mers, car elle juge ses prix prohibitifs.

Le scénario d’autonomie énergétique mobilise l’intégralité du potentiel identifié de la bagasse (120 MW), de la biomasse locale (150 MW), du photovoltaïque (1200 MW), de l’éolien (146 MW), de la géothermie (15 MW), de l’hydroélectricité (192 MW), sans importation de biomasse. Elle prévoit aussi 14 MW d’éolien offshore, soit 28 % du potentiel. Les ressources locales permettraient de recharger un parc de véhicules terrestres légers 100% électrique, hors bateaux, avions et poids lourds.

Sur la période 2015-2030, l’ADEME estime que l’autonomie énergétique demandera plus d’investissements (+68%). Toutefois, en référence à l’année 2015 (coût complet 152 €/MWh), le scénario permettant l’autonomie énergétique en 2030 permet une réduction du coût complet de l’énergie de 36 % en 2030. Au bout du compte, sur la période, 2015-2030, il ne coûtera que 10 % de plus que le scénario tendanciel. L’ADEME pointe toutefois « la fragilité d’une telle situation » et appelle à un « important travail de maîtrise de l’énergie notamment sur le secteur des transports » pour assurer cette autonomie énergétique.

Le SER appelle donc à prendre en compte cette étude dans le cadre de la révision en cours de la PPE pour la Réunion. La trajectoire ambitieuse à adopter doit permettre de définir les nouveaux objectifs en matière d’énergies renouvelables aux horizons 2023 et 2028.

L’intelligence artificielle booste les recherches en toxicité

L’outil développé par l’unité « Toxicité Environnementale, Cibles Thérapeutiques, Signalisation Cellulaire et Biomarqueurs » de l’Inserm dirigé par Karine Audouze a fait l’objet d’une description complète dans Environmental Health Perspectives . Testé avec le bisphénol S, cet outil baptisé AOP-helpFinder réalise un scan d’articles scientifiques (lecture automatisée intelligente) à partir de termes clés recouvrant des données biologiques et chimiques. Ces données ont été extraites de la base AOP-wiki, une base qui comporte « des descriptions précises de toutes les étapes biologiques (molécules, voies de signalisation) menant d’une perturbation moléculaire à un effet pathologique comme l’obésité, la stéatose, le cancer, etc. Elle s’enrichit régulièrement avec de nouveaux processus de toxicité » précise Karine Audouze dans le communiqué de presse de l’Inserm. L’objectif de l’outil est de mettre en relation une substance et des processus pathologiques. Pour améliorer les performances de l’outil, de nombreux paramètres enrichissent la recherche de l’intelligence artificielle : quantification des mots repérés, place des mots dans l’article (résumé, hypothèse, conclusion etc.), éloignement des mots entre eux etc.

Un gain de temps, pas un remplacement

L’analyse a révélé une corrélation entre le bisphénol S et le risque d’obésité. Le résultat a ensuite été vérifié manuellement par les auteurs. Pour enrichir les capacités d’analyse de leur outil, les chercheurs ont aussi intégré les données biologiques de la base américaine ToxCast qui référence les effets d’agents chimiques et physique sur différents types cellulaires. Cet ajout a permis de préciser que le bisphénol S favoriserait la formation d’adipocytes (cellules stockant les graisses), entraînant par là un risque augmenté d’obésité. Si cet outil ne peut remplacer de manière formelle les études biologiques et épidémiologique poussées, il permet de cibler rapidement les effets néfastes probables à étudier. L’outil est en outre en libre d’accès sur la plateforme GitHub afin qu’il s’améliore au fur et à mesure de ses utilisations. Il a déjà été testé sur d’autres molécules par les chercheurs de l’Inserm qui travaillent désormais à une version 2.

Diminuer les expérimentations animales

Ce type de recherches entrent dans la grande classe des prédictions mathématiques de la nocivité ou de l’activité en général des substances chimiques. En matière de toxicité, ces méthodes se sont fortement développées avec l’arrivée du règlement Reach. Eviter les expérimentations animales inutiles pour la classification et l’enregistrement des substances constitue encore un de leurs principaux objectifs. Les modèles les plus simples se fondent sur des relations structure-activité et des relations quantitative structure activité (QSAR). Il s’agit d’outils logiciels s’appuyant sur des bases de données qui permettent de prédire certaines propriétés physico-chimiques, biologiques ou environnementales de composés chimiques par rapport aux connaissances déjà acquises sur des structures similaires dans d’autres composés. Avec la gestion du Big Data et les méthodes de machines learning qui se sont développées ces dernières années, on voit désormais apparaître des outils et méthodes dites RASAR (Regroupement de substances et références croisées). L’agence européenne des produits chimiques (ECHA) a d’ailleurs, en 2018, créé un cadre d’évaluation des références croisées (RAAF) pour structurer l’évaluation scientifiques des différentes méthodes utilisées. L’utilisation du regroupement de substances et des références croisées figure parmi les approches alternatives les plus couramment employées pour compléter des données manquantes en vue des enregistrements présentés au titre de Reach. Plus les données de base sont nombreuses et plus la pertinence des références croisées est forte, aussi des chercheurs de la John Hopkins University ont testé des outils tout d’abord sur des dossiers en langage naturel et plus récemment via des outils de lecture automatique intelligente. Ils ont pu tester des milliers de substances à partir de centaines de milliers de données issues de différentes bases de données de produits chimiques. Selon la méthode appliquée, ils ont ainsi pu obtenir des résultats pertinents entre 80 et 95 % pour neuf risques pour la santé.

De nouveaux matériaux catalytiques pour la fabrication de carburants solaires

On appelle « carburant solaire » un carburant synthétique conçu par captation du CO2 de l’air. Le CO2, combiné à de l’eau est ensuite transformé en hydrogène et monoxyde de carbone puis en hydrocarbures à chaîne longue utilisables dans les moteurs. Ce carburant est ainsi qualifié de « solaire », car l’énergie solaire est utilisée comme ressource inépuisable pour « casser » la très résistante double liaison C=O (750 kJ.mol−1). Par conséquent, alors que les émissions de CO2 ne cessent de s’intensifier, on comprend bien l’intérêt du monde de la recherche pour ce sujet.

Le problème de l’empreinte au sol

La communauté scientifique travaille d’arrache-pied au développement de la conversion du CO2 et H2O en O2 et hydrocarbures, par des procédés photocatalytiques c’est-à-dire, en quelque sorte, à la reproduction du processus naturel de photosynthèse. Si les études montrent que cela fonctionne à l’échelle du laboratoire, l’un des plus grands défis concerne l’empreinte au sol de tels dispositifs à l’échelle industrielle. En effet, les photocatalyseurs « classiques » sont des réacteurs bidimensionnels utilisant des couches minces. Une production massive de carburant solaire par ce procédé empiéterait donc considérablement sur la disponibilité de terres non cultivables, une ressource limitée, contrairement à l’énergie solaire.

La solution : des matériaux photoactifs tridimensionnels

Pour résoudre ce problème, le Centre de recherche Paul Pascal (CNRS/Université de Bordeaux) s’est associé à l’organisme public de recherche IFP Énergies Nouvelles. La solution qu’ils ont développée ensemble consiste à remplacer le catalyseur en couche mince par un catalyseur tridimensionnel. Pour cela, ils ont élaboré un matériau monocellulaire agissant comme une éponge photonique : en augmentant considérablement la pénétration de photons au cœur de la structure, ce nouveau matériau concentre ainsi la génération sélective de combustibles comme l’éthane ou le méthane.

Une mousse monolithique élaborée par HIPE

La synthèse de ce matériau requiert plusieurs étapes. Tout d’abord, une mousse à base de silicium a été élaborée par le procédé HIPE (high internal phase emulsion). Puis cette mousse a servi de support à la nucléation hétérogène de nanoparticules de TiO2 et le matériau a été fritté à 400°C pendant une heure pour conduire à la formation d’un matériau monolithique macroporeux.

Les chercheurs ont ensuite testé l’activité photocatalytique de ce matériau. Ils ont ainsi mis en évidence son caractère multidiffusif, les photons restant emprisonnés au milieu de celui-ci. Il en résulte une limitation des réactions non désirées, ce qui favorise la production de méthane (jusqu’à 80%) et d’éthane (18%), deux carburants facilement exploitables.

Des applications dans tous les domaines utilisant des systèmes photoactifs

Le procédé de préparation d’un monolithe à porosité multimodale ainsi que le procédé de réduction catalytique associé ont d’ores et déjà fait l’objet de brevets. Par ailleurs, la solution développée par l’équipe de chercheurs pourrait annoncer l’arrivée d’une nouvelle génération de systèmes photoactifs 3D. Photovoltaïque, photopurification de l’air ou encore photoprotéolyse font ainsi partie des applications potentielles.

Réalité augmentée : le CEA mise sur la projection rétinienne

Les lunettes intelligentes vont-elles un jour se démocratiser ? Depuis l’échec de Google avec ses Google Glass sorties en 2013 et disparues deux ans plus tard, personne n’a trouvé la bonne paire pour un usage grand public.

Ces types de lunettes sont en effet réservé à usage professionnel comme… les Google Glass version 2 (et renommées Glass Enterprise Edition). Il y a aussi Microsoft qui propose son casque de réalité mixte depuis 2015, mais qui était absent sur son stand au dernier Laval Virtual… Dans les deux cas, leur principe est le suivant : elles sont équipées d’une caméra et d’un projecteur affichant un écran en réalité augmentée sur les verres.

Mais depuis quelques années déjà, des études s’orientent vers le développement de divers types d’affichages dont la projection retienne. ​ Le Laval Virtual 2019 a été l’occasion de faire le point sur cette piste. Beaucoup moins encombrante et offrant potentiellement un champ de vision plus large que les lunettes de réalité augmentée actuelles, cette solution a été présentée par le LETI du CEA lors de la conférence Photonics West.

 Film holographique

Il s’agit d’un dispositif de projection qui projette différentes ondes lumineuses sur les yeux à partir d’une surface en verre. Le système optique et l’écran sont remplacés par l’association d’un circuit optique intégré transparent composé d’un réseau de guides d’ondes nanométriques, et d’un film holographique. Ce dernier contrôle les propriétés optiques du faisceau sortant de façon à ce que l’image se forme directement au niveau de la rétine de l’utilisateur.

L’intégration de l’appareil par le CEA-LETI et l’utilisation d’une couche holographique permettent également de créer des verres RA compacts avec un champ de vision plus large que les systèmes existants, tandis que le dispositif de projection rétinienne transparente laisse passer la lumière ambiante à travers l’appareil pour des applications AR améliorées.

Ce projet de recherche s’appuie sur les nombreuses années de développement du CEA-LETI dans le domaine des microaffichages pour les écrans proches de l’œil, tels que les technologies OLED (organic LED technologies) et les dispositifs à cristaux liquides (LCD). Plus récemment, l’institut a fait des progrès significatifs dans le domaine de la fabrication d’écrans LED inorganiques.

Sur le papier, ce concept est tentant… Mais verra-t-il le jour ? Il y a un an, Intel a annoncé qu’il abandonnait Vaunt, ses lunettes à projection rétinienne. Peut-être que Tim Cook, le patron d’Apple avait raison lorsqu’il estimait en 2017 que « la qualité de l’écran ou la technologie d’un champ de vision suffisamment étendu ne sont pas encore au rendez-vous. Nous nous fichons d’être les premiers, nous voulons être les meilleurs et donner aux utilisateurs la meilleure expérience ».

Les fabricants européens veulent perdre moins de granulés de plastique

Selon Eunomia, environ 230 000 tonnes de granulés de plastique rejoindraient les eaux chaque année dans le monde. L’industrie européenne en perdrait pour sa part environ 41 000 tonnes. Ils sont perdus le long de la chaîne de production, des fabricants et recycleurs jusqu’à la livraison aux transformateurs. Les pertes de granulés peuvent survenir à tous les niveaux : tout de suite après leur production, durant le transport ou lors des échanges commerciaux.  Il peut s’agir d’un sac percé, d’une perte de container, d’une fuite d’un camion… C’est pourquoi les producteurs de matières plastiques ont mis en œuvre un programme visant à ne plus rejeter ces granulés dans l’environnement : l’opération Clean Sweep.

Zéro perte de granulés en 2030 ?

Cette opération déployée en Europe veut atteindre l’objectif de zéro perte de granulés d’ici 2030. L’engagement volontaire pour 2030 prévoyait que 100 % des membres de PlasticsEurope participent à l’opération d’ici fin 2018. Selon le rapport 2018 PlasticsEurope Operation Clean Sweep, 45 entreprises, représentant 88 % des membres de PlasticsEurope qui produisent des matières plastiques, sont finalement engagées.

Si l’objectif n’est pas atteint, PlasticsEurope se veut optimiste : les participants représentent 98 % de la production européenne de matières plastiques. « Sur les six entreprises qui n’ont pas encore signé, deux se sont déjà engagées à rejoindre le programme« , assure l’association. « Les sociétés non signataires à ce stade sont essentiellement soit des sociétés de petite taille, soit des sociétés dont l’activité granulés plastiques est minoritaire (essentiellement des chimistes)« , précise Hervé Millet, directeur des affaires techniques et réglementaires de PlasticsEurope.

De nouveaux engagements le long de la chaîne

Le programme est ouvert aux autres entreprises de la chaîne de valeur manipulant des granulés de plastique. Au total, plus de 500 entreprises l’appliquent. « Le nombre de signataires du programme a doublé entre 2017 et 2018, montrant ainsi une prise de conscience réelle de la profession » relève PlasticsEurope.

L’opération Clean Sweep reste toutefois assez simple et peu contraignante. En s’engageant dans le programme, une entreprise s’engage à diffuser et systématiser les bonnes pratiques, définies site par site. Elles consistent globalement à ramasser les granulés lorsqu’un sac se perce, mettre des unités sous vide, installer des collecteurs, sceller les tuyaux pour le chargement des camions et mettre à disposition du personnel des aspirateurs ou des pelles. La société s’engage à former ses salariés, à organiser régulièrement un audit de performance et à encourager ses partenaires à s’engager.

Désormais, le programme doit être déployé jusque dans les ports où s’opère l’exportation des matières plastiques vers les pays étrangers. En octobre 2017, le port d’Anvers, principal site d’Europe où transitent les granulés de plastique et deuxième plus grand port maritime du continent, est devenu le premier port européen à participer à cette initiative. En 2018, Teesport en Grande-Bretagne est devenu le deuxième port à adhérer au programme. La course reste longue pour convaincre les autres, mais PlasticsEurope assure que des discussions sont engagées avec d’autres ports européens, notamment le port espagnol de Tarragone.

Cybersécurité : l’Europe la joue « collectif »

Au cours des dernières années, les attaques directes via des malwares ont régulièrement diminué. Elles ont cédé la place à de nouveaux comportements plus sophistiqués. Mais le poste de travail reste toujours la principale cible. Après avoir réussi à en prendre le contrôle, un attaquant cherchera en effet à étendre son intrusion aux autres ordinateurs pour, in fine, accéder aux documents ou aux informations qu’il recherche.

Conscients que les organisations déploient des solutions de sécurité, les attaquants mènent des opérations plus sophistiquées afin de passer inaperçus. Ils peuvent usurper des applications légitimes, exploiter des failles « zero-day » ou en mener des attaques sans fichier.

Premières mondiales

Face à ces menaces, l’Europe regroupe ses forces à travers le consortium Sparta (fille du dieu fleuve Eurotas). Il s’agit d’un nouveau réseau de compétences en cybersécurité, soutenu par le programme H2020 de l’UE.

Horizon 2020 est le plus grand programme de recherche et d’innovation de l’UE à ce jour avec près de 80 milliards d’euros de financement sur 7 ans (2014-2020), sans compter les investissements privés.

Même si l’imagination des pirates semble sans limites, Sparta a pour objectif de susciter d’importantes découvertes technologiques et des premières mondiales en transférant les meilleures idées des laboratoires de recherche aux marchés.

Pour relever ce défi majeur, ce consortium Sparta, piloté par le CEA (chargé de maximiser les impacts pour la communauté), rassemble un groupe équilibré de 44 acteurs des États membres de l’UE. Il inclut l’ANSSI (Agence nationale de la sécurité des systèmes d’information), l’Institut Mines-Télécom, INRIA, Thales et YesWeHack pour la France.

Des entreprises trop vulnérables

« En mutualisant toutes les expériences et les compétences, les défis et les capacités, Sparta contribue au renforcement de l’autonomie stratégique de l’UE » explique l’ANSSI.

Mais l’innovation et les logiciels ne feront pas tout. C’est une prise de conscience générale qui permettra surtout de relever le défi des cybermenaces. Or, encore trop souvent, les cibles (les entreprises en l’occurrence) restent encore trop vulnérables.

C’est le cas notamment dans l’industrie. «Les systèmes de contrôle (Industrial Control Systems – ICS) sont interconnectés. Les vulnérabilités sont, de ce fait, plus nombreuses, et les cyberattaques passent souvent inaperçues pendant un certain temps », constate Fsecure dans son dernier rapport.

Il y a quelques années, le général Keith Alexander de la NSA indiquait que « 41 % des cyberattaques ciblent les entreprises de l’énergie, particulièrement le pétrole et le gaz ».

Lors du FIC (Forum International de la Cybersécurité organisé à Lille) en 2017, Guillaume Poupard, le patron de l’ANSSI, a même évoqué des pertes humaines.

Dans une interview accordée à Industrie & Technologies, il avait avoué que sa grande crainte était le « sabotage. C’est-à-dire quelqu’un qui voudrait, dans le meilleur des cas, éteindre le système pour l’empêcher de fonctionner. Mais dans le pire des cas, il y a évidemment la volonté de provoquer des catastrophes. Quand on s’attaque au monde du transport, on peut vite avoir des effets absolument dramatiques, y compris sur les vies humaines ».

Montée en puissance du marché des pompes à chaleur

L’étude d’Observ’ER porte sur les pompes à chaleurs (PAC) dans le secteur du résidentiel (jusqu’à 30 kW). La progression des PAC aérothermiques (air/air et air/eau) atteint 18 % au global, mais dans le détail, elle est de 15 % pour les PAC air/eau et 19 % pour les PAC air/air. Ainsi, au total quelques 591 700 PAC aérothermiques ont été installées en 2018, auxquelles il faut ajouter 105 140 chauffe-eau thermodynamiques (CET).

Observ’ER signale que globalement, c’est la relance des constructions neuves, amorcée en 2016 et qui s’est poursuivie jusqu’à la fin du premier semestre 2018, qui est à l’origine de cette nouvelle montée en puissance. Néanmoins, le ralentissement dans le secteur amorcé depuis pourrait impacter les dynamiques de marché en 2019.

Les appareils air/air demeurent les équipements « les plus diffusés avec une activité portée essentiellement par le remplacement d’anciens systèmes de chauffage électrique. Depuis 2017, les appareils air/air ont également profité de la vague de remplacement des appareils équivalents installés suite à la canicule de 2003 », précise l’étude. Les PAC air/air ont ainsi représenté un marché évalué à plus de 498 120 pièces l’an dernier. « Les voyants sont tous au vert pour le segment », insiste Observ’ER. Les PAC air/eau ont également enregistré une bonne année (93 580 pièces, + 15 % par rapport à 2017).

Quant aux chauffe-eaux thermodynamiques, leur progression continue (+25 %), profitant notamment d’une bonne pénétration sur le marché du neuf et grâce aux diverses aides en place, comme le crédit d’impôt dans la rénovation et la RT2012 dans le neuf.

A noter que la RT2012 oriente aussi le marché des PAC aérothermiques vers des équipements de plus petite puissance (5kW et 10 kW), dans la mesure où ils s’adressent à des logements neufs et mieux isolés.

Depuis 2013, ces deux marchés PAC et CET ont progressé de 120 %, indique Observ’ER.

En revanche, côté pompes à chaleur géothermiques, le bilan est inverse. « Les ventes restent à un niveau désespérément bas (3 080 pièces), soit quasiment le même niveau depuis les trois dernières années, et aucun signe de reprise ne semble venir en 2019 », souligne l’étude. En 2013, plus de 8 000 unités avaient été vendues. Pourtant c’est la technologie qui affiche « un bilan énergétique et économique performant sur le long terme », signale le document, concédant que ces équipements demeurent très mal connus du grand public. Les PAC géothermiques sont en outre plus chères à l’achat. Observ’ER signale d’ailleurs qu’elles sont confrontées à la concurrence des autres technologies renouvelables (au premier rang desquelles figurent les PAC aérothermiques), réduisant leur marché à une « niche », celle d’une « clientèle essentiellement constituée de particuliers à fort pouvoir d’achat, très attachés à la géothermie ».

En termes de répartition géographique, Observ’ER constate que l’activité des PAC géothermiques est centrée dans les régions Auvergne-Rhône-Alpes, Bretagne et Normandie (52 % à elles trois), tandis que les ventes de PAC aérothermiques sont réparties de manière relativement homogène sur l’ensemble du territoire. Néanmoins, quatre grandes régions accueillent la moitié des installations aérothermiques : Normandie, Pays de la Loire, Provence-Alpes-Côte d’Azur et Grand Est.