Sur la ligne pilote du CEA Liten à l’Institut national du solaire (Ines), à Chambéry, vient d’être produit un lot de cellules au rendement record de 24%, avec un pic de 24,25% certifié par le CalTec pour les meilleures cellules. La voie vers les 25% est plus que jamais à portée… Ainsi que le retour d’une industrie du photovoltaïque européenne.
Un subtil millefeuille
Comme le rappelle le CEA, l’hétérojonction, c’est faire un subtil millefeuille de cellules de matériaux différents (silicium monocristallin et silicium amorphe notamment) contrairement à l’homojonction qui repose sur un seul matériau (silicium monocristallin). L’ajout de couches, dopées P et N+, de silicium amorphe (d’une dizaine de nanomètres), de part et d’autre du silicium monocristallin (dopé N), favorise l’attraction des électrons vers les zones de collecte. Ce dépôt est réalisé en phase vapeur assisté par plasma (PECVD).
Ces couches sont elles-mêmes recouvertes, toujours en phase vapeur, d’un oxyde transparent conducteur qui permet le transport latéral des électrons et améliore le confinement optique des photons. Enfin, les surfaces actives de la cellule sont texturées : des pyramides micrométriques permettent de piéger les photons, qui rebondissent sur leurs faces, pour en capter jusqu’à deux fois plus qu’avec une surface plane.
Ce procédé dispose d’au moins trois grands avantages. D’abord, les cellules sont bifaciales, ainsi, la face arrière de la cellule étant également active, une partie des rayons du soleil réfléchis par le sol peut être captée, permettant ainsi un gain de rendement de conversion de l’énergie lumineuse en électricité autour de 10 %.
Ensuite, alors que toutes les cellules solaires voient leur rendement baisser à mesure que la température du dispositif augmente avec l’exposition au soleil, grâce à l’hétérojonction, le coefficient thermique des cellules est bien meilleur. La «perte» de rendement passe d’environ 0,35% par degré à 0,25% par degré.
Enfin, grâce à des rendements de conversion élevés, l’hétérojonction permet d’utiliser moins de matière (cellule, modules, structures de montage). De même, ces procédés de fabrication ont un moindre impact environnemental. Notamment le procédé s’effectue à 200°C, soit de deux à quatre fois moins que pour les procédés des cellules classiques.
Industrialisation
Le seuil des 24% a été obtenu en prenant toute la surface de cellules de taille industrielle M2 de 244 cm2, précise un communiqué de CEA-Tech/Liten.
Le laboratoire, qui travaille sur le développement de la technologie depuis une quinzaine d’années, a en outre réussi à produire ces cellules avec des équipements industriels sur une cadence de 2 400 pièces par heure. Des résultats obtenus en optimisant notamment le dépôt par PECVD des couches nanométriques de silicium amorphe, en améliorant les couches d’oxyde transparent conducteur tout en réduisant les dommages liés à la manipulation des plaques durant la production, précise le Liten.
Ces travaux confirment le potentiel de la technologie des cellules photovoltaïques à hétérojonction de silicium, tant du point de vue technologique qu’industriel. Les chercheurs du Liten poursuivent leurs efforts pour améliorer l’industrialisation de la technologie (réduction des coûts de fabrication, amélioration de la qualité et de la productivité), et porter le rendement de conversion au-delà de 24%.
D’ores et déjà, les travaux du CEA Liten sont sur le champ industriel, via le lancement par 3Sun, la filiale de l’italien Enel Green Power, d’une usine fonctionnant 24h/24, capable de livrer 200 MWc par an, à Catane. Une usine à 80 millions d’euros, financée partiellement par l’Union européenne dans le cadre du programme Horizon 2020, plus particulièrement le programme Ampere (Automated photovoltaic cell and Module industrial Production to regain and secure European Renewable Energy market), auquel est intimement associé le CEA Liten.
Comme l’a bien résumé, lors de l’ouverture de la conférence européenne de l’énergie photovoltaïque (EU PVSEC) 2019, à Marseille, en juillet dernier, Florence Lambert, directrice du CEA Liten et présidente de ladite manifestation : «le solaire va se généraliser et devenir la principale énergie mondiale. Nous devons avoir la volonté de convertir cette dynamique en opportunité industrielle et en faire de la valeur économique en France et en Europe». Le PV européen en est désormais à un pas.
Bien que non récent, le cloud gaming est un marché naissant. De nombreuses offres sont désormais disponibles, telles que Nvidia GeForce Now, Blade Shadow, Google Stadia, Microsoft XCloud ou encore Blacknut. Le cloud gaming permet de jouer à un jeu en streaming, sur n’importe quel écran – ordinateur, smartphone, télévision – alors que celui-ci tourne sur des serveurs à distance. Et de s’affranchir ainsi d’une console de jeu (mais pas forcément de sa manette !).
La principale cible de ces catalogues de jeux en ligne sont les “casual gamers”, c’est-à-dire des personnes qui sont venus au jeu vidéo par le biais du smartphone. Et non – ou moins – les “hardcore gamers” qui jouent avec des ordinateurs puissants. C’est en cela qu’il faut “différencier le cloud gaming de Google Stadia et le cloud PC de Shadow” explique Bruno Lakehal, analyste chez Gartner. “La solution de Shadow existe depuis longtemps et est destinée à des joueurs qui ne souhaitent pas avoir un PC puissant chez eux.”
La 5G, un driver du marché
Là où il faut être bon pour ne pas perdre sa clientèle, c’est la latence. “L’expérience utilisateur dans le jeu vidéo est importante, affirme l’expert. Le temps de latence ne peut pas être supérieur à 0,10 seconde, car au-delà, il y aura un délai entre la commande et l’action sur l’écran, et cela sera injouable”. La connexion internet va jouer un rôle important : “Il faut une connexion fibre idéalement, ou ADSL de très bonne qualité. Mais le développement du cloud gaming est de pouvoir jouer “on the way”, que ce soit chez vous ou à l’extérieur. Je pense que la 5G sera sûrement un des drivers du marché. La latence, que vous soyez “casual” ou “pro-gamer”, ne sera pas acceptée”. Les gros acteurs tels que Google et Microsoft ont l’avantage d’avoir des infrastructures puissantes pour faire du cloud gaming.
Quid des blockbusters ?
La question de la disponibilité des blockbusters – les jeux les plus vendus, classés dans la catégorie AAA ou Triple A – sur ces plateformes se pose. “Je ne vois pas le monde du cloud gaming évoluer sans proposer les AAA” affirme l’expert. Un éditeur a d’ailleurs engagé cette démarche à travers un partenariat : Ubisoft a annoncé la disponibilité de son abonnement UPlay+ sur Stadia en 2020. Il sera alors possible à l’utilisateur d’accéder au catalogue de l’éditeur, et aux dernières nouveautés.
Les spécialistes du jeu vidéo dématérialisé devront également investir le marché pour ne pas être dépassés. C’est notamment le cas de Steam qui a annoncé la sortie future de son offre de cloud gaming. “Ces acteurs vont devoir eux aussi passer au cloud gaming, car la boutique en ligne va devenir obsolète, explique l’expert. Il faut qu’ils se positionnent sur le cloud gaming pour ne pas être dépendant des autres acteurs et ne plus avoir la possibilité de vendre leur jeu.”
Troisième divertissement
L’enjeu pour ces acteurs est important, comme l’explique l’analyste chez Gartner Bruno Lakehal : “Le jeu vidéo est le troisième divertissement à la maison après la musique et la vidéo. Le marché va mettre du temps à devenir un “mass market”, peut-être en 2022 ou 2023. Mais on se souvient bien de l’ampleur qu’ont pris les plateformes de streaming, musique ou vidéo, comme Spotify ou Netflix”. Ce nouveau marché va devoir capter les utilisateurs : le temps que ces derniers vont accorder au jeu vidéo est du temps qu’ils ne passeront pas sur la vidéo ou la musique. “Il va y avoir une bagarre transversale entre les acteurs de la musique, de la vidéo et du gaming en streaming” affirme Bruno Lakehal. “L’objectif sera d’aller prendre du temps à l’autre.”
Les insectes sont une source d’inspiration pour la conception et le contrôle de robots volants, nageurs ou encore marcheurs. Une des caractéristiques intéressantes de ces insectes est leur squelette externe, appelé exosquelette, qui remplit différentes fonctions telles que le support structurel, la flexibilité articulaire ou encore la protection du corps. Très complexes, ces exosquelettes sont un défi majeur dans la fabrication de robots inspirés des insectes.
Des chercheurs de l’Université de Californie, à San Diego, se sont intéressés aux méthodes de fabrication de ces exosquelettes et ont fait ce constat : “Les robots hybrides composés d’éléments rigides et souples ont auparavant nécessité l’accès à des imprimantes 3D multi-matériaux coûteuses, des processus de moulage et d’usinage en plusieurs étapes ou un choix limité de matériaux lors de l’utilisation de méthodes de fabrication de qualité grand public”, expliquent-ils dans leur article (lequel vous propose différents visuels issus de l’étude) . Ils ont alors mis au point un nouveau processus afin d’imprimer des composants pour des robots dotés d’une structure exosquelettique. Baptisé Flexoskeleton, ce processus permet la fabrication rapide et accessible de robots hybrides, à la fois rigides et souples.
Une adaptation d’imprimante 3D
Le procédé Flexoskeleton utilise une imprimante 3D à dépôt de matière fondue (FDM) et des matériaux à filament rigide standard ABS et PLA accessibles. “L’avancée fondamentale de notre méthode repose sur l’impression 3D de ces filaments rigides directement sur un film thermoplastique chauffé qui fournit une couche de base flexible mais solide au matériau déposé” expliquent les chercheurs. Plus précisément, les chercheurs collent une fine couche de polycarbonate sur le lit chauffé. “Nous obtenons une très forte adhérence entre le matériau imprimé en 3D et cette couche de base, ce qui permet l’impression de structures flexibles résilientes”. Selon les chercheurs, le processus améliore ainsi la résistance à la fatigue des composants imprimés.
Pour valider leur procédé d’impression, l’équipe de recherche a imprimé un petit robot marcheur à quatre pattes doté d’un flexosquelette, et actionné par 4 micros servos (le modèle Tower Pro SG92R). L’exosquelette lui sert à la fois de protection mais également de transmission mécanique pour apporter la puissance nécessaire aux pattes pour se déplacer. “L’exosquelette est un continuum multi-matériaux dans lequel les tissus rigides et mous sont organisés en arrangements tridimensionnels complexes”, ajoutent les chercheurs. “Leur agencement forme des systèmes mécaniques fonctionnels, comme des ressorts ou des engrenages”. Avec cette méthode d’impression, les chercheurs espèrent permettre la fabrication de nouveaux robots inspirés des insectes.
L’Europe sera-t-elle le premier continent neutre en carbone en 2050 ? Après l’adoption de cet objectif par les chefs d’État et de gouvernement de l’Union européenne, à l’exception de la Pologne, cela pourrait être le cas. C’est en tout cas l’ambition de la Commission européenne à travers son Pacte vert pour l’Europe défendu par sa présidente Ursula von der Leyen. «Il décrit comment transformer notre mode de vie et notre façon de travailler, de produire et de consommer afin de vivre en meilleure santé et de rendre nos entreprises innovantes», défend-elle. «Notre plan établit la marche à suivre pour réduire les émissions, rétablir la santé de notre environnement naturel, protéger notre flore et notre faune sauvages, créer de nouvelles opportunités économiques et améliorer la qualité de vie des citoyens», renchérit le vice-président exécutif Frans Timmermans.
Un Pacte Vert global pour toute l’économie
La promesse : ce Pacte vert pour l’Europe transformera tous les domaines de l’économie. Au programme, une série de mesures par secteur en vue d’atteindre la neutralité carbone en 2050. Sont concernés les transports, l’énergie, l’agriculture et l’alimentation, les bâtiments et l’industrie. Des mesures concernent aussi une meilleure protection du capital naturel et de la biodiversité, ainsi que la diminution des pollutions.
Toutes ces évolutions à venir se dotent d’une stratégie spécifique. En premier lieu, la Commission présentera d’ici mars prochain une loi sur le climat pour inscrire en droit l’ambition de neutralité carbone en 2050. Elle sera complétée d’un plan visant à porter l’objectif de réduction intermédiaire en 2030 à au moins 50 % d’ici l’été 2020. Dès janvier, la Commission proposera la mise en place d’un mécanisme de «transition juste» de 100 milliards d’euros. Il accompagnera et soutiendra les régions les plus exposées aux politiques de conversion, notamment les régions charbonnières.
Des feuilles de routes dans tous les domaines de l’UE
Viendront également une stratégie en faveur de la biodiversité à l’horizon 2030, une nouvelle stratégie industrielle, un nouveau plan d’actions en faveur de l’économie circulaire, une stratégie «de la ferme à la table», des propositions pour un Europe sans pollution et une stratégie de financement vert au troisième trimestre 2020. La Commission installera aussi une «commission géopolitique» visant à inclure les questions climatiques et environnementales dans les accords commerciaux et la coopération bilatérale. Un mécanisme d’ajustement aux frontières européennes est par ailleurs sur la table pour surenchérir le coût des produits importés.
Côté mobilité, la Commission souhaite étendre le système communautaire d’échange de quotas d’émission (SCEQE) au secteur maritime et réduire les quotas gratuits pour les compagnies aériennes. Elle souhaite aussi réviser les normes d’émissions de CO2 pour les voitures et les camionnettes d’ici 2021.
Pour atteindre ces objectifs, la Commission présentera début 2020 un plan d’investissements spécifique. Elle devrait consacrer au moins 25 % de son budget à long terme à l’action pour le climat. La Banque européenne d’investissement (BEI) et le secteur privé viendront en soutien.
Les ONG attendent le détail et veulent aller encore plus loin
Le WWF salue l’accord, mais attend des engagements concrets au Conseil européen de juin prochain. Pour le Réseau Action Climat, «si beaucoup de paramètres restent à définir, le Green Deal identifie les bons chantiers à ouvrir». En particulier, l’ONG demande de mobiliser l’ensemble du budget européen – 1 300 milliards d’euros entre 2021 et 2027 – pour soutenir la transition juste. «Le respect des objectifs climatiques devrait être un critère aussi contraignant que les règles sur la dette et le déficit publics» propose le réseau associatif.
Les ONG s’accordent toutefois sur le fait que l’ambition actuelle pour 2030, à savoir une réduction de 40% des émissions de gaz à effet de serre, est insuffisante. Le Pacte Vert propose de relever cette ambition entre 50 % et 55 %, mais cela resterait insuffisant. En effet, afin de limiter le réchauffement climatique à 1,5°C d’ici 2100, l’objectif de réduction devrait être de -65% en 2030. Les ONG appellent donc l’UE à relever cet objectif d’ici mars 2020, comme le prévoit l’Accord de Paris, pour être leader de la lutte mondiale contre le changement climatique.
«Les objectifs retenus sont incompatibles avec les dernières recommandations scientifiques, estime Clément Sénéchal, chargé de campagne Climat à Greenpeace France. L’Union européenne doit réduire ses émissions de gaz à effet de serre d’au moins 65% d’ici 2030 soit bien plus que la réduction de -50% à -55% proposée. Elle doit atteindre la neutralité carbone en 2040 au plus tard – et non pas en 2050».
Des chercheurs de l’institut Femto-ST (CNRS/Université de Franche-Comté/Université technique de Belfort-Montbéliard/ENSMM) ont façonné des impulsions laser ultrabrèves qui génèrent des faisceaux de Bessel à ultra-haut rapport de forme. Leur système crée un faisceau laser de très haute énergie (jusqu’au niveau du Joule) extrêmement focalisé de 8 mm de long pour quelques centaines de nanomètres de diamètre. Un ratio dix à cent fois plus important que l’état de l’art. Testés sur la découpe de plaques de verre épaisses (entre 1mm et 1cm) par la méthode du « Stealth dicing », leurs travaux publiés dans la revue Applied Physics Letters, permettent aussi d’envisager de nombreuses autres applications industrielles ou de recherche, y compris une amélioration des techniques lasers utilisées dans les accélérateurs de particules.
En attente de progrès
L’industrie du verre cherche aujourd’hui de nouveaux procédés d’usinage du verre qui offriraient à la fois des rendements élevés, une très grande précision et des coûts de production (investissement machine et investissement énergétique) plus faibles que ceux existants. Les applications sont extrêmement nombreuses, que ce soit pour la fabrication de composants électroniques (LEDs), d’écrans de smartphone, de verres de montre que pour des dispositifs pharmaceutiques ou médicaux, ou encore pour l’industrie automobile ou la construction.
Actuellement, les utilisations des lasers pour la découpe du verre sont réservées à des épaisseurs inférieures au millimètre car on ne dispose pas d’une maîtrise suffisante pour les faire pénétrer plus avant dans la matière de manière contrôlée. Au-delà, la découpe se fait généralement au diamant. Mais cette dernière technique est très énergivore et nécessite des post-traitements : sablage et/ou polissage. En outre, la découpe mécanique ou avec certains lasers conventionnels peut être à l’origine d’altérations des propriétés mécaniques ou optiques recherchées.
L’enjeu de la mise en forme des lasers
En vue de pallier ces inconvénients, on a développé la méthode du stealth dicing basée sur les impulsions lasers ultrabrèves. Cette méthode consiste à percer une série de canaux qui suivent la ligne de découpe souhaitée. En appliquant une force mécanique, on induit ensuite une faille qui se propage le long de la série de canaux. Cette méthode permet à la fois une découpe propre, en un seul passage, à des cadences compatibles avec des applications industrielles rentables. En effet, les impulsions lasers ultrabrèves utilisées permettent de créer plusieurs centaines de milliers de canaux par seconde.
Mais attention, pour atteindre ce résultat, il faut mettre en forme ces impulsions lasers. A ce jour, la maîtrise de ce perçage est principalement obtenue en générant des faisceaux de Bessel lors de la mise en forme de ces impulsions. C’est aussi ce qu’a réalisé l’équipe du Pr. Rémi Meyer dans les travaux évoqués ici. Leur technique permet de passer un cap en matière de puissance et de précision jusqu’ici inégalée.
Ces travaux ont été réalisés dans le cadre du projet européen ERC Pulsar « Contrôle des plasmas pour l’usinage par impulsion Ultrabrèves » mené par l’institut Femto-ST et qui vise justement à passer les barrières de l’usinage laser en contrôlant la génération du plasma, son confinement et sa stabilité. Ce projet est doté d’un budget de 2M€ sur 2016-2021.
C’est dans les vieux pots que l’on fait les meilleures soupes. Rapportée à la cybercriminalité, cette expression pourrait être traduite par : c’est avec les vieilles techniques que l’on monte les meilleures arnaques. Constatant que les pièges (phishing, pièce jointe, offre mirobolante…) mis en place pour berner les internautes sur ordinateur ont prouvé leur efficacité, les pirates utilisent les mêmes ressorts pour escroquer ou piéger les possesseurs de smartphone.
Parmi les différentes techniques, la plus simple et efficace consiste à envoyer un SMS demandant à une personne de rappeler un numéro ou de cliquer sur un lien. Les prétextes sont multiples : livraison d’un colis, jeux-concours, offre de remboursement… L’autre piège est le clone d’une application officielle et qui est populaire et qui s’avère être un programme malveillant.
Revente de données personnelles
Quelles sont les principales conséquences ? Premièrement, votre facture téléphonique peut être plus salée que d’habitude, car vous avez rappelé un numéro surtaxé. Si ce n’est pas vous qui le faites, il peut s’agir d’une petite application malveillante (installée à votre insu) qui compose automatiquement ce type de numéros.
Concernant la fausse application, elle récupère et renvoie au cybercriminel vos données personnelles : adresse IP, contacts, numéro de carte bancaire enregistré, habitudes de navigation… Autant de données qui pourront être revendues, utilisées pour faire des achats, usurper votre identité ou encore voler des données confidentielles.
La situation est devenue plus délicate aujourd’hui. Tout le monde ou presque a un smartphone et la majorité y met des données personnelles. Et c’est pire pour les chefs d’entreprise qui stockent (sans toujours en avoir conscience) sur le smartphone des informations sensibles qui peuvent être ciblées lors d’une opération d’espionnage économique.
Que l’on soit un particulier ou un professionnel, il est nécessaire d’appliquer quelques règles essentielles. Première règle d’or : moins vous stockez de données sur un appareil connecté (qu’il s’agisse en l’occurrence d’un smartphone mais aussi d’un ordinateur), moins vous risquez de fuites ou de vol de données.
Ensuite, il est nécessaire de limiter l’accès au mobile en modifiant le code PIN par défaut et en ajoutant un code de verrouillage de l’écran (qui oblige soit à retaper une série de chiffres ou mieux, qui implique la reconnaissance biométrique).
La mise à jour du système d’exploitation de votre smartphone et des applications est fortement recommandée, car elle permet de corriger des failles de sécurité.
Soyez vigilants
Utilisez avec parcimonie le wifi lorsque vous êtes dans un lieu public. Privilégiez la 4G. Si vous avez absolument besoin du wifi, installez d’abord un VPN (Virtual private network) puis connectez-vous à la borne wifi. En « cryptant » (les experts parlant plutôt de « chiffrer ») la connexion, ce type de logiciel empêche qu’une personne malveillante tente de l’intercepter et de récupérer par exemple votre numéro de carte bancaire.
La facilité d’usage (d’aucuns parleront de paresse) est rarement compatible avec la confidentialité. Si vous mémorisez vos mots de passe et identifiants dans le navigateur web de votre smartphone, vous donnez la possibilité à une personne de les utiliser si elle met la main sur votre appareil…
Là aussi, il est conseillé d’utiliser l’authentification biométrique. Utilisez son pouce pour accéder à son compte Fnac ou Cultura est plus sécurisé que de choisir le remplissage automatique avec Chrome par exemple. Assurez-vous de protéger par un mot de passe (ou votre empreinte digitale) toutes les applications qui contiennent des données personnelles, comme les services bancaires, le courriel et vos comptes e-commerce. N’utilisez pas le même mot de passe pour tous vos comptes !
Soyez vigilants : ne téléchargez pas n’importe quelle application. Reste la fameuse question : faut-il installer un antivirus ? Sur les iPhone, la question ne se pose pas. Il n’y en a pas. Apple les refuse. Officiellement, les applications iOS s’exécutent dans leur propre sandbox. Il s’agit d’environnements sécurisés qui isolent les applications et les empêchent de falsifier les fichiers du système d’exploitation. Officieusement, Apple n’aime pas que l’on scanne de trop près son OS.
Il existe donc des antivirus uniquement sur Android. Des dizaines sont disponibles sur le Play Store mais très peu sont efficaces. Beaucoup sont bidons ! Ne choisissez que des éditeurs dont c’est la spécialité comme DrWeb, Kaspersky et FSecure.
Un nouveau ravitailleur Dragon a été expédié par SpaceX vers la Station spatiale internationale (ISS) le 5 décembre dernier. A son bord, près de 3 tonnes de fret dont des expériences scientifiques et techniques. Parmi elles, la combustion confinée (Confined Combustion). L’objectif est d’étudier, dans une soufflerie, le comportement du feu et sa propagation en microgravité. “Sur Terre, les matériaux brûlent plus rapidement dans des espaces plus petits et plus confinés, et cette observation est testée à bord de la Station spatiale internationale” explique Ya-Ting Liao, principal chercheur, sur le site de la Nasa. D’autres facteurs seront également à l’étude tels que l’émissivité et la réflectivité du rayonnement ou encore la conductivité thermique des parois.
Ce n’est pas la première fois que des expériences sur la combustion sont réalisées dans l’espace. Des installations spécifiques, comme le Combustion Integrated Rack (CIR) depuis 2008 ou la Microgravity Science Glovebox, permettent de faire des expériences sans risques pour le vaisseau ou l’équipage sur la Station spatiale internationale. D’autres expériences ont également été menées à l’extérieur de l’ISS : dans le projet Saffire de la Nasa, les chercheurs ont étudié la propagation du feu à bord du cargo inoccupé Cygnus avant sa désintégration lors de sa rentrée atmosphérique. Celles-ci ont montré que “les flammes se propagent plus lentement dans un grand espace confiné que dans un espace plus petit, même si toutes les conditions environnementales sont les mêmes (oxygène, pression, vitesse d’écoulement, etc.)” précise Ya-Ting Liao.
La propagation du feu à bord de l’ISS
Pendant 6 mois, ces nouvelles recherches vont permettre d’étudier la propagation des flammes à bord de la Station spatiale internationale grâce à l’utilisation de la soufflerie (existante) de combustion et de suppression des solides (Burning and Suppression of Solids, BASS) avec quelques modifications (ajout de chicanes parallèles et adjacentes à l’échantillon de carburant). “Les chicanes sont montées sur un rack afin que la distance entre celles-ci puisse être ajustée” précise Ya-Ting Liao dans son article. “Les tests sont effectués dans des flux à faible vitesse (~ 3-10 cm/s) avec différentes distances de chicane. Les tests sont également effectués avec différents traitements muraux”. La Combustion Confinée vise ainsi à étudier la propagation des flammes dans les espaces confinés, en particulier les interactions entre la propagation des flammes et les murs environnants. Ces expérimentations pourraient in fine permettre de mieux concevoir les bâtiments dans l’espace et sur Terre pour prévenir et limiter la propagation des incendies.
Selon Gartner, le marché mondial des services de cloud public devrait augmenter de 17 % en 2020 pour atteindre 266,4 milliards de dollars, contre 227,8 milliards de dollars en 2019. Dans ce marché, les logiciels en tant que services (SaaS) sont le segment le plus important, avec 99,5 milliards de dollars, et le resteront avec une croissance estimée à 116 milliards de dollars l’an prochain. La société de conseil l’explique par l’accroissement des logiciels sur abonnement. Le deuxième segment de marché, celui des services d’infrastructure de systèmes (IaaS), s’élève à 40,3 milliards de dollars en 2019 et atteindra 50 milliards en 2020. Selon les prévisions, IaaS devrait connaître une croissance de 24% sur un an, ce qui représente le taux de croissance le plus élevé de tous les segments du marché.
Cette croissance est attribuée aux demandes d’applications et de charges de travail modernes, qui nécessitent une infrastructure que les centres de données traditionnels ne peuvent pas satisfaire. «L’élaboration, la mise en œuvre et la maturation de stratégies de cloud computing continueront d’être une priorité absolue pour les années à venir», a déclaré M. Nag, analyste chez Gartner. « Le paysage des services gérés dans le cloud devient de plus en plus sophistiqué et compétitif. En fait, d’ici à 2022, jusqu’à 60% des organisations utiliseront l’offre de services gérés dans le cloud d’un fournisseur de services externe, ce qui représente le double du pourcentage d’organisations depuis 2018. »
Prévisions des revenus du service cloud public mondial (en milliards de dollars américains)
BPaaS = processus métier en tant que service ; PaaS = plateforme en tant que service ; SaaS = Logiciel en tant que service ; IaaS = infrastructure en tant que service (Remarque : Les totaux peuvent ne pas correspondre au total en raison de l’arrondissement.) Source : Gartner
Amazon, Microsoft, Google et Alibaba sur le cloud d’infrastructure
Les principaux fournisseurs de cloud public creusent l’écart. Selon le cabinet Synergy Research, Amazon, Microsoft, Google et Alibaba possèdent 72 % du marché mondial dans le cloud public d’infrastructure – Interface en tant que service (IaaS) et Plateforme en tant que service (PaaS) – au troisième trimestre 2019. Une hausse par rapport aux 57 % début 2016. Ils sont suivis par Saleforce, IBM, Oracle, Tencent, Sinnet-AWS et de nombreuses sociétés détenant des parts mineures. Amazon, en tête, maintient sa part de marché autour de 40 %, tandis que Microsoft, Google et Alibaba gagnent de plus en plus de parts.
Les dépenses mondiales totales en IaaS et PaaS publiques ont atteint 20 milliards de dollars au troisième trimestre, ce qui représente plus de 80 % du total des services d’infrastructure cloud. Le reste du marché est composé de services de cloud privé hébergés et gérés, où IBM est le leader du marché et où des sociétés comme Rackspace et OVH occupent une place plus importante. Synergy Research estime que les revenus totaux des services d’infrastructure cloud (y compris les services IaaS, PaaS et cloud privé hébergé) ont dépassé les 24 milliards de dollars au cours du trimestre, avec des revenus pour les quatre derniers trimestres atteignant maintenant 89 milliards de dollars. «Il n’a fallu que huit trimestres pour que les marchés publics d’IaaS et de PaaS aient doublé de taille, et nos prévisions indiquent qu’ils doubleront à nouveau au cours des onze prochains trimestres» explique John Dinsdale, analyste en chef chez Synergy Research Group. «Il est particulièrement intéressant de noter que, alors que les dépenses consacrées au services de cloud public continuent de croître rapidement, les quatre principaux fournisseurs de cloud renforcent leur emprise sur le marché.»
Le réchauffement climatique augmente, et dans le même temps l’oxygène se fait plus rare dans les océans. Dans un rapport – basé sur les travaux de 67 experts scientifiques représentant 51 instituts de 17 pays -, l’Union internationale pour la conservation de la nature (UICN) déclare que le taux d’oxygène dans les océans a baissé d’environ 1 à 2% entre 1960 et 2010. Ce document constitue la plus grande étude scientifique menée à ce jour sur la désoxygénation des océans.
La baisse significative de la teneur en oxygène des océans est une conséquence directe du réchauffement climatique, favorisé par les activités humaines. «La désoxygénation des océans n’est que la dernière conséquence de nos activités à être reconnue» estime l’UICN. Par ailleurs, la raréfaction de l’oxygène dans l’océan n’est pas homogène. À Kiel en Allemagne, une équipe de chercheurs du Centre Geomar Helmholtz pour la recherche océanique explique qu’il y a «de grandes variations selon les différents bassins océaniques et les différentes profondeurs».
Réchauffement climatique et eutrophisation mis en cause
Depuis la seconde moitié du 20ème siècle, environ 93% de l’excédent de chaleur causé par les émissions de gaz à effet de serre a été absorbé par les océans. S’en sont suivies l’augmentation de leur température et leur acidification. Or, il y aurait un lien direct entre la hausse de la température océanique et ce phénomène de désoxygénation. En clair, il s’agit d’une altération des échanges gazeux avec l’atmosphère et d’une réduction de la capacité à retenir l’oxygène soluble. Dans une eau chaude, les gaz sont moins solubles. De plus, cette difficile solubilité défavorise la circulation de l’oxygène vers les profondeurs. Notons que toutes les profondeurs des océans sont impactées.
Le deuxième élément pouvant expliquer la désoxygénation des océans est l’eutrophisation. Elle est liée au ruissellement des nutriments qui proviennent des zones continentales et des dépôts d’azote issus de l’utilisation de combustibles fossiles. L’eutrophisation entraîne la prolifération d’algues, et une hausse de la demande en oxygène par les micro-organismes. C’est ainsi que se développent des zones de minimum d’oxygène (open-ocean oxygen-minimum zones, ou OMZ), dites hypoxiques. Elles se trouvent essentiellement sur la côte Atlantique étasunienne ainsi que dans le nord de l’Europe. La mer Baltique et la mer Noire font partie des OMZ les plus connues. L’UICN rappelle que l’hypoxie anthropique, opposée à l’hypoxie naturelle, peut causer de grave déséquilibres écosystémiques. Et lorsque l’oxygène se fait encore plus rare, il s’agit d’espaces anoxiques
Jusqu’à 7% d’oxygène en moins en 2100
Dans toutes ces zones, les concentrations d’oxygène sont inférieures à 2 mg/L. Dès ce niveau, les poissons ne vivent plus. Or, ces zones côtières sont des terrains de pêche, qui recouvrent donc des enjeux économiques. La désoxygénation actuelle des océans commence à modifier progressivement l’équilibre de la vie, en favorisant les espèces tolérantes à l’hypoxie au détriment des espèces sensibles à celle-ci. À une concentration de 1 mg/L, une grande partie de la faune ne pourrait subsister. Jusqu’à 0,5 mg/L, même les espèces hypoxiques s’éteindraient, et un tapis microbien se formerait. Et en dessous de 0,2 mg/L, c’est l’anoxie, où seuls quelques micro-organismes subsistent. Le nombre d’espaces océaniques anoxiques a été multiplié par quatre depuis les années 1960.
Selon l’UICN, le nombre de zones hypoxiques est sous-évalué dans les tropiques, faute d’études suffisantes. Par ailleurs, il se pourrait qu’une baisse supplémentaire de 1 à 7% du taux d’oxygène dissous dans les océans mondiaux survienne d’ici 2100. Si la tendance suit les prévisions, plusieurs conséquences macabres seraient à craindre. La perte de la biomasse entraînerait des déséquilibres écosystémiques qui porteraient atteinte à la reproductibilité des espèces, et favoriseraient le développement de maladies. De plus, les espèces sensibles, pêchées, et les proies pourraient perdre leur habitat, et voir leur risque de mortalité accru. C’est pourquoi l’ONG appelle à la réduction drastique et rapide des émissions de gaz à effet de serre, et notamment du méthane.
Depuis 2002, les AASQA mesurent les pesticides dans l’air au niveau national. Atmo France est leur fédération nationale et elle a décidé de rendre publiques leurs données. Désormais, tout un chacun peut accéder à cette base nommée PhytAtmo qui compile les mesures réalisées entre 2002 et 2017. Sur la période, pas moins de 321 matières actives ont été recherchées, à travers 6 837 prélèvements, effectués sur 176 sites. Et chaque année, entre 150 et 250 substances actives ont été recherchées. «Au final, ce sont entre 40 et 90 substances actives (herbicides, fongicides, insecticides) qui sont quantifiées annuellement à l’échelle nationale», résume Atmo France. Donc entre 40 et 90 pesticides que nous respirons à des concentrations pouvant atteindre quelques dizaines de nanogrammes par mètre cube.
Une carte de France des pesticides dans l’air lacunaire
Force est de constater que la carte est particulièrement hétérogène et montre les lacunes locales. Les données sont quasiment inexistantes en Normandie, Bourgogne Franche-Comté et en Occitanie. Seules les régions Hauts-de-France, Centre-Val de Loire, Nouvelle-Aquitaine et Auvergne-Rhône-Alpes présentent des mesures relativement réparties sur l’ensemble de leur territoire. Et pour cause, Atmo France explique que les mesures de pesticides dans l’air se font «en fonction des ressources locales et des soutiens financiers mis à leur disposition». La fédération et les associations demandent donc «la mise en œuvre d’un suivi territorial et national pérenne basé sur la mesure et sécurisé dans son financement».
Atmo France montre une forte variabilité spatiale et temporelle des concentrations mesurées. Mais il existe quelques enseignements. Globalement, l’air des villes contient moins de pesticides que les zones rurales situées proches des zones traitées. Par ailleurs, l’air contient plus de pesticides dans les zones viticoles à la fin du printemps et dans les zones de grandes cultures en été. En plus, «la concentration très variable de pesticides dépend des conditions météorologiques locales, de la nature des sols, des caractéristiques physiques et chimiques de la substance active, des équipements utilisés lors du traitement», complète Atmo France.
Entre 2015 et 2017, une pollution récurrente a été observée au niveau national. Elle concerne 5 herbicides, 3 fongicides et 2 insecticides. Parmi eux, citons le lindane, interdit en agriculture en France depuis 1998 et comme anti-poux depuis 2006… Il est classé cancérogène pour l’homme par le Centre international de recherche sur le cancer (CIRC). Pour expliquer la présence d’un tel produit dans l’atmosphère, plusieurs raisons sont avancées : transport via les vents à partir d’autres pays qui autorisent le produit, pratiques agricoles illégales, et longue persistance de ce produit dans l’environnement.
Comment aller plus loin dans sa démarche artistique et donner au spectateur un angle nouveau sur l’œuvre ? Comment apporter du neuf dans la manière d’exposer son œuvre, quand finalement toutes les galeries finissent par se ressembler ? Si la réponse ne se trouve pas au sol, elle se trouve peut-être dans le ciel. C’est ce qu’a pensé Jisbar. Ce jeune artiste peintre parisien de 30 ans a voulu repousser les limites de sa création artistique en envoyant sa version de la Joconde dans l’espace. Le jeune homme a réalisé sa performance le 11 décembre dernier, en voulant rendre hommage à Léonard de Vinci. Le voyage s’est fait à bord d’une nacelle en carbone, spécialement conçue pour l’occasion, et équipée d’un ballon propulsé à l’hélium.
Rebaptisée pour l’occasion « Punk Mona », l’égérie du maître italien a effectué un voyage de trois heures, en direction de l’espace. C’est ainsi que cette Joconde s’est envolée depuis une base de lancement spatiale à Sheffield en Angleterre. Après une phase d’ascension d’une heure, l’œuvre est restée en orbite durant environ une heure et demie, avant de revenir sur Terre. «Mon tableau s’est élevé à 33,4 kilomètres au-dessus du sol, à peine moins que Félix Baumgartner» s’enorgueillit le jeune artiste. En 2012, l’Autrichien avait effectivement réalisé un saut en parachute depuis l’espace, à pratiquement 39 kilomètres d’altitude.
Ingénieurs et météorologues mis en œuvre
«Le lieu d’exposition influe sur la perception d’une œuvre. Et après deux années de tournée mondiale, je commençais à trouver le classique mur blanc de la galerie assez répétitif» confie Jisbar, pour expliquer la genèse de son projet. C’est ainsi qu’est né le projet spatial, appelé «First painting in space». Lors d’un séjour à Bangkok, Kostar, un ami également artiste, a proposé à Jisbar de l’aider à réaliser son projet d’exposition spatiale en le mettant en relation avec la société aérospatiale Sent into space. Cette dernière, spécialisée dans l’envoi d’objets dans l’espace, lui a permis de mettre en orbite sa version miniature de la Joconde, pour environ 10 000€. Pendant six mois, dix-sept personnes ont été mobilisées pour mener à bien ce projet.
Ainsi, ingénieurs, techniciens et météorologues se sont réunis autour de l’artiste pour répondre aux exigences techniques du défi. «En temps normal, la firme britannique est habituée à mettre en orbite des objets comme des smartphones ou des casques, pas des tableaux. Là, le défi était plus difficile, car l’objet plus fragile» déclare l’artiste. Ainsi, toute l’équipe s’est attelée à trouver des solutions pour que le voyage de Mona Lisa ne soit pas stoppé net à cause des conditions climatiques extrêmes. Pour cela, au lieu de travailler sur une classique toile en lin, Jisbar a réalisé sa production sur un support en bois.
De nombreux défis techniques
Les peintures et pastels ont, eux aussi, dû être adaptés. L’artiste a remplacé ses pastels secs par des huiles en stick habituellement utilisées en sidérurgie pour faire du marquage industriel. «L’intérêt majeur de ces huiles est qu’elles résistent à des températures extrêmes, comprises entre -200°F et +392°F, (entre -128°C et 200°C, NDLR)» justifie Jisbar. La peinture a, quant à elle, été boostée par l’ajout d’un liant en vinyle, pour lui permettre de résister à des vents puissants. «La peinture, c’est un pigment et un liant. Cependant les liants qui composent généralement la peinture acrylique n’auraient pas résisté, c’est pourquoi j’ai dû ajouter ce vinyle.»
Autre contrainte : il ne fallait pas que l’objet pèse plus d’un kilogramme. C’est pourquoi Jisbar a dû revoir les dimensions de son tableau. «Je suis habitué à travailler sur des toiles de 1,5x2m ; là le support en bois mesurait 40x30cm. Avec le cadre en bois creusé, l’objet pesait 821 grammes». Une fois achevé, le tableau a été solidifié à l’arrière avec du gaffeur et des cordelettes. La firme Sent into space a ajouté des accroche-nacelles en carbone. En définitive, l’opération s’est parfaitement déroulée. Après ce séjour en orbite, la Punk Mona a rejoint le sol sans le moindre accroc.
« Ce qu’on attendait à Madrid : que tous les pays appellent à relever leur ambition en 2020 », rappelle Lola Vallejo, directrice du programme Climat de l’Institut du Développement Durable et des Relations Internationales (Iddri). Mais après 15 jours de rencontre et plus de 42 heures de retard, les résultats de la COP25 sont loin d’être à la hauteur des enjeux. « Déçu », António Guterres, secrétaire général de l’ONU, estime que « la communauté internationale a perdu une occasion importante de montrer une ambition accrue en matière d’atténuation, d’adaptation et de financement pour faire face à la crise climatique ».
L’ensemble des observateurs s’accordent à regretter le peu d’avancées. L’Iddri voit « un résultat très mitigé » et une polarisation croissante du monde. Il y a désormais deux clans distincts. D’un côté, les pays grands émetteurs et réfractaires à l’action climatique. De l’autre, les pays engagés dans la neutralité carbone pour 2050. Pour réussir la COP26 à Glasgow, les Britanniques devront inclure les collectivités et les entreprises afin de convaincre les pays bloquants et les grands émergents attentistes. Ces derniers comptent notamment le Brésil, l’Australie, les États-Unis et l’Arabie Saoudite. Le manque d’engagements de ces derniers exacerbe la colère des mobilisations citoyennes qui dénoncent l’inaction politique.
Une dynamique renvoyée à la COP26
La COP25 aboutit aux décisions 1/CP.25 et 1/CMA.2 sous le nom du paquet Chili Madrid l’heure d’agir. Le texte appelle à des actions urgentes et reconnaît enfin la nécessité de traiter la lutte contre le changement climatique et ses impacts avec la lutte contre la perte de biodiversité de manière intégrée. Il réaffirme aussi le besoin de réduire d’ici 2020 l’écart entre les efforts d’atténuation déjà consentis par les Parties à l’Accord de Paris et l’objectif de maintenir le réchauffement climatique sous la barre des 2°C.
Pourtant, le texte n’adopte aucune mesure précise. Il ne lance pas un appel clair et universel aux pays pour qu’ils relèvent leurs contributions climatiques avant mars 2020, comme le prévoit l’Accord de Paris. « Le texte des décisions de cette COP25 est très timide, il ne demande pas de manière universelle à tous les pays de relever leur ambition », regrette Lola Vallejo. Par ailleurs, aucun accord n’a été trouvé sur les règles de mise en œuvre des marchés carbone internationaux régis par l’Article 6 de l’Accord de Paris. Il n’y aura pas non plus eu d’avancées sur de nouveaux financements nécessaires à l’adaptation ou à l’atténuation.
Des ambitions difficiles à relever
Seulement 80 pays se sont engagés à revoir à la hausse leurs engagements climatiques pour 2030 d’ici 2020. Ils ne représentent que 10,5 % des émissions mondiales de gaz à effet de serre. Cette liste est à peine plus longue en fin de COP25 qu’au sommet de New-York de septembre 2019. En parallèle, l’Alliance pour l’Ambition Climatique regroupe les pays et les acteurs non-étatiques qui visent à atteindre la neutralité carbone avant 2050. Elle compte 73 pays, 14 régions, 398 villes, 786 entreprises et 16 investisseurs.
« Avec l’absence d’une feuille de route claire pour 2020, de nombreux États, en particulier les plus gros pollueurs, arriveront vraisemblablement les mains vides à Glasgow, pour la COP26, qui doit voir la mise en application de l’Accord de Paris », craint Greenpeace. En particulier, l’Union européenne est attendue au tournant. Dans le cadre de son nouveau Pacte Vert, elle s’est accordée pour atteindre la neutralité carbone en 2050, exception faite de la Pologne. Mais elle devra prendre un objectif ambitieux de réduction de 65% de ses émissions d’ici 2030 et, en particulier, motiver la Chine à prendre des engagements ambitieux. L’espoir se porte désormais sur un leadership Union Européenne – Chine, à la place du binôme États-Unis – Chine qui avait permis l’Accord de Paris en 2015.
Le LIG (Laser Induced Graphène) est, comme son nom l’indique, une méthode permettant de synthétiser du graphène en utilisant un laser. Dans l’étude dont il est question ici, ce procédé a été appliqué à un film polyimide, pour former une mousse conductrice composée de couches de graphène pur.
Un filtre multifonction
Les méthodes actuelles de désinfection, si elles permettent de tuer les micro-organismes, sont en revanche incapables d’éliminer les toxines produites par ces organismes lorsqu’ils meurent. Ce filtre répond à ces deux obligations. En effet, parce qu’il est constitué de graphène pur, il conduit l’électricité. Sous l’effet d’un courant électrique, l’énergie dégagée par effet Joule permet d’augmenter la température du matériau jusqu’à plus de 300 °C. Une telle chaleur est suffisante pour éliminer à la fois les micro-organismes emprisonnés dans le filtre et les toxines qu’ils dégagent.
Utilisation en conditions réelles
Afin de prouver l’efficacité de cette invention, l’équipe dirigée par James Tour a intégré un filtre LIG dans un système de filtration du commerce. Tout d’abord, ils ont démontré que les filtres LIG étaient bien infranchissables pour les bactéries. Les chercheurs ont ensuite comparé le taux de croissance des bactéries entre deux filtres LIG, l’un chauffé, l’autre non. Il est ainsi apparu qu’avec un taux de renouvellement de l’air de 10 litres par minute, au bout de 130 heures le filtre chauffé était parfaitement sain, ce qui n’était pas le cas du filtre non chauffé.
Applications du LIG
Mis à part les applications médicales évidentes, de tels filtres pourraient trouver leur place dans les avions de ligne. En outre, la technologie LIG représente une alternative intéressante aux moyens de production de graphène actuels qui sont complexes, nécessitent des équipements coûteux et utilisent des produits chimiques dangereux.
Hydrogène de France (HDF) annonce « la première usine au monde de fabrication en série de piles à combustible de forte puissance », supérieure à 1 MW. Cette usine innovante de 8 000 m2 devrait être mise en service près de Bordeaux, sur un site qui reste à définir, en 2022. Développée sous la marque HDF Industry, elle aura une capacité de production annuelle de 50 MW pendant ses 5 premières années. Ensuite, elle montera progressivement en capacité pour produire « plusieurs centaines de mégawatts », prévient l’entreprise. Le coût initial d’investissement s’élève à 15 millions d’euros. La plus grande partie concerne le contrat de transfert de technologie avec la société canadienne Ballard Power Systems.
Une première expérience réussie
Les piles à combustible (PAC) qui seront assemblées dans l’usine utiliseront la technologie dite de membrane à échange de proton. Plus précisément, elles renfermeront les stacks (cœur de piles) fournies par Ballard Power Systems développées pour des transports lourds (bus, camions et trains). Cette société a déjà construit sur mesure pour HDF le prototype de PAC de 1 MW du projet ClearGen. Dans ce cadre, la PAC a été installée au cœur de la raffinerie du Lamantin en Martinique pour transformer en électricité le sous-produit hydrogène.
L’assemblage des piles à combustibles de grande capacité n’est pas encore industrialisé dans le monde. Ballard Power Systems produit l’intégralité des membranes (STAC) de ses PAC à Vancouver, au Canada. Le contrat signé avec HDF prévoit la fourniture de ces membranes à l’usine d’HDF. Les piles à combustibles assemblées par unité de 1,5 MW seront compactées dans un container. L’usine créera une « centaine d’emploi en région Nouvelle Aquitaine » et elle « concentrera 70% de la valeur ajoutée en France », promet la société. En industrialisant cet assemblage, HDF vise la réduction des coûts, l’amélioration de leur fiabilité et de leur maintenance.
Stocker les énergies renouvelables intermittentes sous forme d’hydrogène
Avec ses piles à combustibles produites dans l’usine française, HDF vise le marché des grandes installations utilisant l’hydrogène pour stocker l’électricité provenant d’énergies renouvelables dont la production est intermittente, notamment l’éolien et le solaire. « HDF apporte la solution industrielle qui manquait pour développer le stockage massif d’énergie renouvelable, prévient Damien Havard, président et fondateur de HDF. Nos perspectives commerciales sont formidables : c’est la fin de l’intermittence des énergies renouvelables ! ».
En attendant la construction de l’usine dès 2020 et sa mise en service pour 2022, HDF se positionne déjà sur le marché naissant du stockage massif d’électricité sous forme d’hydrogène. C’est le cas, en Guyane, avec un parc solaire doté d’un stockage d’hydrogène dans lequel s’implique l’industriel français. Le nom du projet : CEOG, pour « Centrale Électrique de l’Ouest Guyanais », visant à alimenter en électricité 10 000 foyers à un prix compétitif sur l’île.
HDF commercialise à plus grande échelle sa solution sous la marque de centrales « Renewstable ». Ces dernières captent l’électricité d’origine renouvelable intermittente pour la stocker sous forme d’hydrogène et dans des batteries. La promesse de la société : « produire une électricité stable, 24h/24, pilotable comme une centrale thermique et à un prix compétitif ». Une dizaine de projets Renewstable seraient déjà en phase de développement avancé dans plusieurs pays. De quoi assurer les premiers clients pour l’usine de Bordeaux.
L’année 2019 a été une année riche en événements et innovations scientifiques et techniques. Vous les avez d’ailleurs retrouvées tout au long de l’année dans les articles et livres blancs du Magazine d’actualité.
Pour vérifier que vous n’avez rien oublié, Techniques de l’Ingénieur organise son grand jeu concours !
Participez et tentez de gagner l’un des cadeaux suivants :
1 – Premier lot : Un casque Réalité virtuelle Oculus d’une valeur de 500 euros.
2 – Deuxième lot : Un projecteur sans fil portable Kodak LUMA d’une valeur de 300 euros.
3 – Troisième lot : Une Nintendo Switch Lite d’une valeur de 200 euros.
4 – Quatrième lot : Un Appareil photo instantané Fuji Instax d’une valeur de 150 euros.
Les objets connectés seront, dans le monde entier, au nombre de 200 milliards à la fin de l’année prochaine. L’IoT est entré dans la vie de tout un chacun mais aussi dans la vie des usines. Deux usages différents, une même finalité numérique : la génération d’une quantité de données à traiter toujours plus conséquente.
Le premier défi se situe aujourd’hui au niveau des moyens à mettre en oeuvre pour gérer l’explosion des données générées pour assurer le fonctionnement correct de cette armée d’objets qui ne cesse de grossir. Le second défi, peut-être bien plus difficile à appréhender que le premier, concerne la sécurité. A l’heure actuelle, le constat est dramatique.
Sécurité et transparence des données: aucunes assurances
Une étude menée conjointement par la Northeastern University et l’Imperial College London a fait il y a quelque mois grand bruit à ce sujet. Il s’agit de la plus grande enquête menée sur l’IoT, avec près de 35 000 tests réalisés sur 81 objets connectés parmi les plus populaires: TV connectée, enceintes connectées, caméras connectées… Qu’y apprend-on ? Principalement que les données générées par les utilisateurs d’objets connectés sont valorisées (vendues?) à des tiers, le tout sans aucune transparence et sans aucun consentement.
Sur les 81 objets testés, 72 ont établi un contact avec une entreprise autre que le constructeur, à l’insu de l’utilisateur. Image, son, vidéo, autant de données générées sans qu’on sache exactement ce qu’elles deviennent. L’une des caméras connectées étudiée transférait des données vers pas moins de 52 IP différentes !
Mais ce n’est pas tout. Les données transmises sont rarement chiffrées et constituent une proie facile pour les hackers. Et c’est tout le problème avec la multiplication des données inhérentes à l’avènement de l’IoT. Comment sécuriser convenablement ce flux de data ininterrompu ?
Le moteur principal pour la sécurité de l’IoT reste la responsabilité individuelle
Pour le moment il est admis que les systèmes mis en place pour assurer la sécurité de l’IoT ne sont pas calibrés par rapport à la réalité du péril. Si les objets connectés n’ont jamais été considérés comme sûrs, la rapidité de leur déploiement va multiplier les risques.
Concrètement, quels sont ces risques ? Les techniques de piratage très élaborées (comme l’ingénierie inverse de firmware par exemple) sont assez rares, car elles nécessitent des connaissances techniques pointues et beaucoup de temps. La plupart du temps, le risque d’infection d’un objet connecté va être lié à la faiblesse des outils de sécurité mis en place : les mots de passe et les clés de chiffrement. Les techniques de piratage alors mises en place sont relativement basiques, mais ce sont aussi les plus répandues.
Des solutions simples existent. Si elles ne permettent pas de lutter contre des techniques de piratage élaborées, elles gardent une certaine efficacité contre des procédés malveillants moins sophistiqués. Première solution, les changements de mots de passe. Permettre à un utilisateur de modifier régulièrement les mots de passe de ses objets connectés est un moyen très efficace de lutter contre une grande partie des techniques d’infections.
Deuxième axe de prévention, le chiffrement. Pour le moment, les fabricants rechignent à concevoir des objets connectés dotés de mécanismes sécurisés, comme l’est le chiffrement. Le problème pour généraliser le chiffrement, c’est la gestion et la sécurisation des clés de chiffrement, qui devient un véritable casse-tête à partir du moment où le nombre de périphériques augmente trop rapidement. Cerise sur le gâteau, beaucoup d’objet connectés n’ont tout simplement pas les caractéristiques suffisantes afin de permettre le chiffrement de leurs données.
Au final, il fait peu de doutes que la multiplication des objets connectés va engendrer inexorablement une augmentation importante des vols de données. Et la piste la plus sérieuse pour lutter contre ce phénomène reste la responsabilisation des utilisateurs. Et une prise de conscience quant au destin des données qu’ils créent/utilisent, et à leur valeur marchande. Cette prise de conscience se fait encore attendre, en témoignent le succès d’objets connectés comme le Google Home ou le Amazon Echo, dont les failles de sécurité béantes ont été rapidement mises à jour.
Mais l’espoir demeure. On commence par exemple à voir émerger des groupements de consommateurs, inquiets de la sécurité des objets connectés et exigeant la mise en place de standards de sécurité plus importants pour l’IoT.
Lancé en 2014, le projet Scoop, cofinancé par la Commission européenne, a permis d’implanter une centaine d’antennes spéciales, à un millier d’euros pièce, sur des routes nationales et départementales, offrant un réseau d’environ 500 km de routes connectées en Bretagne et en Loire-Atlantique, un des cinq sites pilotes en France.
Le site de l’Ouest, qui comprend le périphérique de Nantes, est désormais « opérationnel », se félicite Katell Kerdudo, chef du service mobilité-trafic à la Direction interdépartementale des routes (DIR) Ouest, lors de la présentation du projet mardi à Pleumeleuc (Ille-et-Vilaine).
Concrètement, un conducteur, témoin d’un événement sur la route, comme un accident ou la présence d’un piéton, appuie sur un pictogramme de l’écran de l’ordinateur de bord qui est ensuite capté par une antenne et transmis à un CGIT (Centres d’ingénierie et de gestion du trafic) qui diffuse l’information aux autres véhicules du secteur.
L’information peut également venir de l’usage d’un ABS, des antibrouillards ou d’un airbag « ce qui permet de donner l’information aux véhicules qui sont en approche et d’adapter la conduite », explique Mme Kerdudo. Ainsi, les informations peuvent venir de trois sources: le conducteur en tapant sur l’écran digital, les capteurs dans le véhicule ou le gestionnaire routier.
Chaque message est qualifié d’un certain nombre d’étoiles, de un à trois. « Le gestionnaire, la DIR ouest, a la possibilité d’augmenter le niveau de qualité du message ou de l’annuler si c’est une erreur », note Nicolas Desmons, assistant à la maitrise d’ouvrage chez Viveris, qui participe au projet.
– Anonymat garanti –
Mais n’existe-t-il pas un risque d’être envahi d’informations lorsqu’on est au volant ? « Il s’agit d’un potentiel effet pervers », reconnaît M. Desmons. « Mais on a travaillé avec des ergonomes pour avoir une plus-value tout en n’étant pas submergé d’informations », dit-il précisant que la dernière Golf 8 est déjà équipée « d’une technologie de ce type » et que d’autres constructeurs annoncent des équipements de série du système.
Autre préoccupation, la protection des données et leur utilisation. « Elles sont toutes anonymisées et sécurisées », assure Mme Kerdudo. « Le dispositif a été validé par la CNIL pour garantir l’anonymat des différents usagers: on n’aura même pas l’information de la plaque », dit-elle, soulignant que les routes connectées sont « un préalable au déploiement des véhicules autonomes à grande échelle » qui pourrait intervenir dans une quinzaine d’années.
Alors que les objets du quotidien sont de plus en plus connectés, cette technologie a attiré l’attention de la gendarmerie. D’abord « pour lutter contre l’insécurité routière et fluidifier » le trafic, mais aussi diffuser des informations plus larges, comme dans des cas relevant de la sécurité intérieure, par exemple les « alertes attentat » ou les « alertes enlèvement », note le colonel Bertrand De Varine, chargé de mission à la gendarmerie.
« Ce sera un gain de temps pour tout le monde et on pourra agir de manière plus efficace », souligne-t-il.
Autre acteur intéressé par la technologie: la SNCF, qui tente de lutter contre le fléau des accidents aux passages à niveau, qui occasionnent entre 25 et 35 tués lors de 110 à 140 collisions par an.
« Les véhicules connectés peuvent avoir des impacts sur le comportement: ça permet à une personne d’être plus en alerte quand il approche d’un passage à niveau et de mieux adapter la vitesse », souligne Virginie Taillandier, chef de projet du carrefour intelligent au sein du département innovation et recherche de la SNCF.
Pour cette année, nous avons retenu quatre événements majeurs : les 80 ans du CNRS ; l’incendie de l’usine Lubrizol à Rouen ; les marches pour le climat à travers le monde et enfin, le Prix Nobel de chimie 2019 pour l’invention des batteries au lithium-ion.
Les 80 ans du CNRS, acteur incontournable de la recherche en France
Le Centre national de la recherche scientifique a célébré le 19 octobre ses 80 ans d’existence. C’est en 1939 que le Président Albert Lebrun lui donne officiellement naissance. Aujourd’hui, le CNRS est un leader scientifique mondial avec plus de 1 000 laboratoires en France et à l’étranger, 32 000 personnes toutes disciplines scientifiques confondues produisant quelque 50 000 articles scientifiques en moyenne par an.
L’incendie de l’usine Lubrizol à Rouen le 26 septembre 2019
Un incendie s’est déclaré le 26 septembre 2019 dans l’usine Lubrizol à Rouen. L’usine synthétise et stocke des produits chimiques destinés aux additifs pour lubrifiants. Elle est classée Seveso seuil haut (« à haut risque »). 5 253 tonnes de produits chimiques ont brûlé, ainsi que 4 252 tonnes de produits chez son voisin Normandie Logistique. Sur ce dernier site, 1 691 tonnes provenaient aussi de Lubrizol.
Les marches pour le climat s’intensifient à travers le monde
En France, la « Marche du Siècle » pour le climat a réuni quelque 350000 personnes le 16 mars. Le 20e baromètre de l’ADEME sur les représentations sociales de l’effet de serre et du changement climatique montre que les Français placent pour la première fois l’environnement en tête de liste de leurs préoccupations. Et en premier lieu le changement climatique malgré un scepticisme encore répandu.
Prix Nobel de chimie 2019 attribué à John B. Goodenough, à Stanley Whittingham et à Akira Yoshino pour l’invention des batteries au lithium-ion
Parce qu’elles sont légères, rechargeables et puissantes, les batteries Li-ion font dorénavant partie de notre quotidien. On les retrouve aussi bien dans nos téléphones mobiles que dans nos ordinateurs ou dans les batteries des véhicules électriques. Cette année, le prix Nobel de chimie a été décerné à trois scientifiques pour leurs travaux ayant contribué à la naissance de cette technologie. Il s’agit de John B. Goodenough de l’université d’Austin au Texas (USA), M. Stanley Whittingham de l’université de Binghamton, dans l’État de New York (USA) et de Akira Yoshino (Meijo University, Nagoya, Japon).
A tous ceux qui souhaitent un complément d’informations et un éclairage pertinent sur les temps forts de l’actualité technologique et scientifique, Techniques de l’Ingénieur propose une sélection d’articles de fond pour analyser, approfondir et prendre du recul. A retrouver ici, sur abonnement.
« Pour la première fois, un génome humain ancien et complet a été récupéré sur autre chose que des os ou des dents », explique à l’AFP Hannes Schroeder de l’Université de Copenhague, coauteur de l’étude publiée mardi dans la revue Nature Communications.
Cette « source très précieuse d’ADN ancien », en particulier pour les périodes où les restes humains se font rares, n’est autre qu’une pâte, noirâtre, obtenue à partir d’écorce de bouleau chauffée, « plus courante qu’on ne le pense, car elle se conserve assez bien ».
Son atout: avoir, à la préhistoire, été couramment mâchée. En attestent des empreintes de dents souvent retrouvées sur le brai de bouleau.
Le pâte étudiée par des chercheurs de l’Université de Copenhague avait été découverte lors de fouilles archéologiques effectuées par le Museum Lolland-Falster à Syltholm dans le Sud du Danemark.
« Syltholm est vraiment un site unique. Presque tout est scellé dans la boue, du coup, la préservation des restes organiques est phénoménale », explique dans un communiqué un autre coauteur de l’étude, Theis Jensen, également de l’université de Copenhague.
– du canard et des noisettes –
En étudiant l’ADN humain que le brai de bouleau contenait, les chercheurs ont pu établir que la personne qui l’avait mâché était une femme, probablement aux yeux bleus et dont la peau et les cheveux étaient foncés.
Selon l’étude, la machouilleuse était génétiquement plus proche des chasseurs-cueilleurs d’Europe continentale que de ceux de Scandinavie centrale.
Par contre, les chercheurs avouent ne pas savoir exactement pourquoi, il y a 5.700 ans, cette femme a malaxée la pâte entre ses dents.
Si parfois elle servait de colle (la mâcher permettait de la rendre malléable avant utilisation), la pâte a aussi pu être utilisée pour soulager le mal de dents (elle possède des vertus antiseptiques), servir de brosse à dents, de coupe faim ou simplement de chewing-gum.
Les chercheurs en ont également extrait de l’ADN de microbes oraux et de plusieurs agents pathogènes humains. Principalement des espèces sans danger, « mais aussi certaines qui sont potentiellement très pathogènes comme le Streptococcus pneumoniae qui est la principale cause de pneumonie. Nous avons également récupéré l’ADN du virus Epstein-Barr responsable de la mononucléose infectieuse ».
« Cela peut nous aider à comprendre comment les agents pathogènes ont évolué et se sont propagés au fil du temps, et ce qui les rend particulièrement virulents dans un environnement donné », explique Hannes Schroeder.
La « gomme à mâcher » contenait également de l’ADN d’espèces végétales et animales comme celle de la noisette ou du canard laissant supposer qu’ils avaient été mangés peu de temps avant le mâchouillage.
En 2011, l’Inra et le CNRS avaient rendu une première expertise collective concernant les plantes rendues tolérantes aux herbicides (VRTH) sur la base d’expériences en Amérique du nord et du sud. Les VRTH se sont depuis développées en France jusqu’à atteindre 27 % des surfaces de tournesol et 2 % des surfaces de colza en 2017. Soit un total d’environ 190 000 hectares. Dans un nouvel avis, l’Anses a donc décidé de documenter l’utilisation des VRTH en France afin d’analyser les risques agronomiques liés à leur culture.
Des recommandations pour mieux surveiller les VRTH
« Nous avons confirmé le risque de résistance des adventices [mauvaises herbes, NDLR] aux herbicides, un risque d’augmentation de l’utilisation des herbicides et en fin de compte, d’une contamination accrue des milieux par les herbicides », partage Ohri Yamada, responsable de la phytopharmacovigilance à l’Anses et auteur du rapport. « Cet état des lieux inédit met en lumière les limites des données actuelles : les dispositifs de suivis et de traçabilité sont insuffisants ». Dans ces conditions, l’Anses recommande de mettre en place un dispositif de suivi afin de surveiller les éventuels effets indésirables liés à la culture de ces semences.
L’Agence demande la création d’une liste officielle dans les catalogues officiels français ou européen pour identifier les variétés VRTH cultivables. Elle recommande la recherche des résidus d’herbicides associés aux VRTH dans les tournesols et colzas VRTH récoltés, dans le cadre des plans nationaux de surveillance de résidus de pesticides. Enfin, l’agence préconise la mise en place d’une étude spécifique pour vérifier la formation éventuelle de métabolites lors du traitement de parcelles VRTH.
Des VRTH obtenues par mutagenèse aléatoire
La culture des organismes génétiquement modifiés (OGM) obtenus par transgenèse étant interdite en France, tous les VRTH cultivés dans le pays sont obtenus soit par des sélections variétales classiques, soit par mutagenèse aléatoire. La sélection variétale consiste à sélectionner les plantes naturellement tolérantes aux herbicides et à les croiser avec d’autres lignées existantes. « Dans le cas de la mutagenèse aléatoire, on expose les graines à des agents mutagènes pour provoquer des mutations accélérées, détaille Ohri Yamada. On sélectionne ensuite les survivants qui résistent à la famille des herbicides qui nous intéresse. »
« Dans les faits, la cible sur lequel l’herbicide va naturellement se fixer pour tuer la plante est modifiée, poursuit Ohri Yamada. En France, presque tous les VRTH sont tolérantes à la famille des inhibiteurs de l’acétolactate synthase [ACS], une enzyme spécifique des végétaux ». En absence de cette enzyme, les herbicides n’ont donc pas d’impact sur les VRTH, mais vont tuer les adventices.
Une réglementation à mieux définir
Les partisans des VRTH expliquent que dans certaines situations, elles constituent la seule solution technique pour traiter une parcelle sans tuer les plantes cultivées. C’est notamment le cas avec l’ambroisie à feuilles d’armoise en Rhône-Alpes, une espèce envahissante qui se développe dans le tournesol et est très difficile à éliminer des parcelles. En plus, les VRTH permettraient de tuer les adventices, même lorsqu’elles ont levé, ce qui permet de traiter à vue de façon plus précise.
Selon la Réglementation sur les OGM, tous les VRTH obtenus par mutagenèse aléatoire sont exempts d’évaluation des risques avant leur mise sur le marché. Il n’existe pas plus de suivi de l’utilisation de ces semences. En 2015, neuf organisations paysannes et de la société civile avaient porté un recours auprès du Conseil d’État pour mieux encadrer la mise sur le marché des VRTH. Celui-ci a alors invité la Cour de justice de l’Union européenne à se prononcer sur la question. En juillet 2018, elle a rendu un arrêt sur les organismes issus de mutagenèse. Selon elle, les organismes obtenus par mutagenèse constituent des OGM et sont, en principe, soumis aux obligations prévues par la directive sur les OGM. Depuis, le Conseil d’État n’a toujours pas adopté de position officielle sur la manière d’appliquer cet arrêt.
EDF a présenté le 13 décembre le plan «Excell», supposé permettre «à la filière nucléaire d’atteindre le plus haut niveau de rigueur, de qualité et d’excellence», signale le groupe. Un retour de l’excellence supposé, à terme, comme d’ailleurs le fait le rapport Folz, permettre aussi de construire de nouveaux réacteurs en France.
«La mise en œuvre de ce plan sera supervisée par un délégué général à la qualité industrielle et aux compétences qui rapportera directement au président-directeur général d’EDF», indique le communiqué. Excell sera déployé dès 2020, et doté d’un budget spécifique de 100 millions d’euros pour la période 2020-2021.
Renforcer la qualité industrielle
Ce plan repose sur trois grands axes. D’abord, et c’était la première exigence du rapport Folz, un «renforcement de la qualité industrielle ». Le plan prévoit dans ce cadre, une révision en profondeur de la relation « client-fournisseur » pour un partage plus équilibré des risques et des contrats en phase avec les pratiques industrielles. EDF s’engage à faire en sorte que le choix des fournisseurs valorise davantage les critères de qualité. Les fournisseurs seront également mieux associés à l’élaboration des spécifications et à l’analyse de la constructibilité. De plus, un nouveau schéma de qualification des fournisseurs sera déployé pour les projets de construction de nouveaux réacteurs, renforçant les exigences et pouvant être étendu aux entreprises sous-traitantes de rang 2 et au-delà. Enfin, pour les opérations les plus sensibles, «une qualification des procédés de fabrication d’une part, et des outils de traçabilité renforcés d’autre part, seront mis en œuvre, permettant de garantir la qualité des pièces», explique le groupe. En clair, le monitoring des pièces maitresses des réacteurs sera sérieusement renforcé. La mise en œuvre de ce premier axe sera analysée par «le délégué général qualité industrielle et compétences », qui s’attachera à l’étude des dysfonctionnements et garantira la mise en place des meilleures pratiques à EDF, à Framatome (dont EDF est actionnaire majoritaire) et au sein de la filière. Excell précise en outre que «le plan stratégique de Framatome décline ces orientations pour une amélioration de la qualité de ses fabrications». Une réponse aux multiples incidents (notamment l’histoire de la cuve de l’EPR de Flamanville-3) qui ont émaillé les fabrications dans les dernières années dans les usines du fabricant nucléaire.
Renforcer les compétences
Deuxième axe de travail mis en avant par EDF, le renforcement des compétences. Le groupe consolidera les démarches engagées par la filière aux côtés du GIFEN (Groupement français des industriels de la filière de l’énergie nucléaire) avec la création d’une université des métiers du nucléaire dédiée. Par ailleurs, sera créé un outil de gestion des savoirs (knowledge management) afin de capitaliser sur la connaissance et pour la diffuser dans les centres d’ingénierie d’EDF. En outre, au sein de la filière et d’EDF, seront mis en place des parcours croisés ainsi qu’entre les métiers de la fabrication, de la construction et de l’exploitation. Enfin, conséquence directe des malfaçons sur les soudures de plusieurs équipements de l’EPR de Flamanville-3, «la filière nucléaire mettra en place un plan spécifique pour le recrutement et la formation de soudeurs dont la qualification répondra au niveau d’exigence du secteur», affirme le groupe.
Renforcer la gouvernance
Dernier axe de travail, le renforcement de la gouvernance des grands projets nucléaires.
Première décision, pour chaque grand projet, le PDG d’EDF présidera un comité stratégique chargé de valider les données initiales du projet, de définir ses objectifs, ses coûts et ses délais, d’en valider les engagements financiers et d’approuver les principaux contrats. Le conseil d’administration sera tenu informé régulièrement de l’avancement de ces grands projets.
Pour Jean-Bernard Lévy, ce «plan Excell doit permettre de créer les conditions d’un regain de confiance dans la filière nucléaire française et de répondre aux difficultés décrites dans le rapport de Jean-Martin Folz. Notre objectif est de permettre au nucléaire, énergie neutre en carbone, de continuer de jouer pleinement son rôle dans la lutte contre le changement climatique». Excell doit surtout permettre aussi au PDG d’EDF de présenter, comme prévu d’ici à 2021, un plan de relance de construction de réacteurs nucléaires pour remplacer certaines tranches existantes, dès 2035.
Le nouveau règlement sur la protection des données (RGPD) apporte des changements profonds et inédits dans la gestion des données par les organisations. Il n’existe pour ainsi dire aucun texte de loi comparable, aussi bien en termes de portée, qu’en termes de sanctions. Les sanctions en cas de non-respect peuvent aller jusqu’à 20 millions d’euros ou 4 % du chiffre d’affaires mondial de l’entreprise concernée (le plus élevé étant retenu).
Au-delà des sanctions pécuniaires, le RGPD présente d’autres enjeux considérables car il encadre très précisément les données personnelles, connues pour être le pétrole de notre ère. Il est évidemment difficile de nier la place centrale qu’occupent les données dans la création de valeur ; ceci, aussi bien pour le développement de nouveaux services, que pour l’amélioration de services existants. Le RGPD s’applique ainsi à tous traitements de données à caractère personnel (collecte, enregistrement, organisation, conservation…), et peut, dans certains cas, interdire leur mise en œuvre, et même imposer la suppression des données collectées. Par exemple, l’un des principes du RGPD est la limitation de durée de conservation, qui interdit de conserver les données au-delà d’une certaine durée ; elles devront alors être supprimées ou archivées avec un accès restreint.
L’anonymisation des données, seule alternative prévue par le RGPD
Afin d’éviter les contraintes du RGPD sans pour autant se priver des bénéfices des données, la seule alternative prévue par le règlement est l’anonymisation des données. En effet, pour le RGPD, des données anonymes sont équivalentes à des données supprimées, et les principes du RGPD ne s’appliquent plus. Ceci est dû au fait que l’anonymisation transforme des données personnelles en données qui ne sont plus personnelles.
Cependant, la mise en œuvre de l’anonymisation demande de prendre des précautions particulières, dues aux risques importants qui en découlent : l’anonymisation fait encore l’objet de multiples confusions et d’a priori de la part d’une grande partie des acteurs de la donnée. L’histoire fait état de nombreux cas de mauvaises anonymisations qui ont conduit à des atteintes graves à la vie privée des personnes concernées. On peut ainsi citer le cas des données pseudonymisées de taxis Newyorkais qui ont permis d’identifier les clients de bars à strip-tease ; ou encore le cas des données de santé publiées par une agence d’assurances aux États-Unis, qui ont permis en 1997, de réidentifier le gouverneur de l’État du Massachussetts, en retrouvant la maladie dont il souffrait.
Confusion entre anonymisation, chiffrement et pseudonymisation
Il est fréquent de confondre chiffrement et pseudonymisation à l’anonymisation. Si le chiffrement peut être utilisé dans certains cas pour faire de la pseudonymisation, l’anonymisation se base sur des principes complètement différents. La figure ci-dessous illustre le chiffrement de données. Le message « RDV chez moi à 10 h » est chiffré par une clé de chiffrement/déchiffrement que seuls l’émetteur (Alice) et le destinataire (Bob) possèdent. Ce message est ensuite transmis par un canal non sécurisé, mais il est inintelligible à toute personne (Ève) ne possédant pas la clé de déchiffrement.
Ainsi, l’anonymisation est un procédé irréversible alors que le chiffrement et la pseudonymisation sont par définition réversibles, la pseudonymisation étant réversible à condition d’avoir des informations supplémentaires et le chiffrement à condition d’avoir la clé de déchiffrement. On ne saurait donc utiliser le chiffrement ou la pseudonymisation à la place de l’anonymisation car ils permettent de revenir aux données d’origine qui sont identifiables. Cependant, le chiffrement peut être utilisé pour faire de la pseudonymisation dans la mesure où les informations supplémentaires, nécessaires pour identifier les personnes concernées, font référence à la clé de déchiffrement.
Par ailleurs, bien que la pseudonymisation soit insuffisante pour faire sortir les données du champ d’application du RGPD, sa mise en œuvre est encadrée, et nécessite des précautions particulières (Avis du G29 ). Il est par exemple déconseillé d’utiliser des fonctions de hachage « nues » (sans mesure de protection supplémentaire) pour la pseudonymisation. En effet, si la fourchette des valeurs d’entrée de la fonction est connue, il est possible de rejouer ces valeurs afin d’obtenir les valeurs de sortie correspondantes et ainsi, de retrouver les valeurs d’origine à partir des valeurs hachées.
L’anonymisation possède donc des propriétés différentes de celles du chiffrement et de la pseudonymisation. Ces propriétés font de l’anonymisation, la seule méthode permettant de faire sortir les données du champ d’application du RGPD.
Rappel
L’anonymisation (ISO 29100) est définie comme : « le processus par lequel des informations personnellement identifiables sont altérées de façon irréversible de sorte que la personne à laquelle se rapporte l’information ne puisse plus être identifiée directement ou indirectement. »
Le chiffrement (ISO 29100) est « un procédé qui consiste à transformer un message intelligible (appelé clair) en un message inintelligible (appelé chiffré) et d’en assurer le déchiffrement uniquement aux personnes autorisées, détenant un secret (appelé clé de déchiffrement). »
La pseudonymisation (RGPD) est définie comme « le traitement de données à caractère personnel de telle façon que celles-ci ne puissent plus être attribuées à une personne concernée précise sans avoir recours à des informations supplémentaires, pour autant que ces informations supplémentaires soient conservées séparément et soumises à des mesures techniques et organisationnelles afin de garantir que les données à caractère personnel ne sont pas attribuées à une personne physique identifiée ou identifiable. »
La réidentification est définie comme le procédé par lequel une information d’intérêt, contenue dans un jeu de données anonymisées, est associée à une information pouvant identifier directement une personne (ex : nom, numéro de sécurité social, adresse, photo…).
Extrait de Anonymisation des données, une nécessité à l’ère du RGPD par Louis-Philippe SONDECK
Exclusif ! L’article complet dans les ressources documentaires en accès libre jusqu’au 31 décembre !
Thomas Dautieu est directeur de la conformité à la CNIL. Depuis quelques mois, l’irruption de la reconnaissance faciale dans l’espace public et la mise en place de projets (reconnaissance faciale à l’entrée de 2 lycées, technologie ALICEM… ) a permis à la CNIL de poser les contours d’un débat nécessaire autour de l’usage de cette technologie.
Editions Techniques de l’Ingénieur : Fin octobre, la CNIL s’est opposée à l’expérimentation de la reconnaissance faciale dans deux lycées du Sud de la France. Quels sont les critères qui ont orienté ce choix ?
Thomas Dautieu : La CNIL s’est prononcée dans le cadre d’une demande de conseil de la région PACA concernant l’expérimentation d’un « portique virtuel » de contrôle d’accès par reconnaissance faciale à l’entrée de deux lycées de la région. La solution envisagée a fait l’objet d’une analyse d’impact relative à la protection des données par la région et les deux lycées expérimentateurs, dont la version finalisée a été transmise à la CNIL fin juillet 2019. Après un examen attentif du projet, la CNIL a considéré que le dispositif projeté était contraire aux grands principes de proportionnalité et de minimisation des données posés par le Règlement général sur la protection des données (RGPD).
Thomas Dautieu est directeur de la conformité à la CNIL
Les objectifs du dispositif de sécurisation et de fluidification des entrées dans ces lycées pouvaient en effet être atteints par des moyens bien moins intrusifs en termes de vie privée et de libertés individuelles, comme par exemple un contrôle par badge. La CNIL a rappelé que les données biométriques ne sont pas des données personnelles comme les autres, elles ont la particularité d’être unique et de permettre d’identifier un individu à partir de ses caractéristiques physiques ou biologiques et font donc l’objet du régime particulier des données sensibles, justifiant une protection renforcée des personnes.
Les dispositifs de reconnaissance faciale sont par ailleurs de nature à créer un sentiment de surveillance renforcée. La Commission a également rappelé que la perte ou le détournement d’une donnée biométrique faisait peser un risque majeur pour la personne concernée, car cette donnée restait attachée à la personne et ne pouvait être modifiée. Ces risques se trouvent accrus lorsque les dispositifs de reconnaissance faciale sont appliqués à une population vulnérable, notamment des élèves mineurs, dont les données personnelles nécessitent une protection particulière. Au regard de ces éléments, la CNIL a considéré que les dispositifs de reconnaissance faciale envisagés par la Région PACA ne pouvaient être légalement mis en œuvre.
Les tests menés sur la technologie de reconnaissance faciale ALICEM avaient soulevé il y a quelques mois un avis nuancé de la part de la CNIL, notamment sur la problématique du consentement réel du citoyen. Qu’en est-il aujourd’hui ?
Le RGPD établit que, pour être valable en tant que fondement juridique d’un traitement de données à caractère personnel, le consentement doit être éclairé, spécifique, univoque et libre. Dans le cadre d’ALICEM, le caractère libre du consentement soulève des interrogations dans la mesure où le responsable de traitement ne propose aux usagers aucun dispositif alternatif de vérification de l’identité. La personne concernée doit pouvoir disposer d’un contrôle et d’un choix réel concernant l’acceptation ou le refus des conditions proposées et avoir la possibilité de les refuser sans subir de préjudice.
Or, en l’état, si l’usager refuse de procéder à la reconnaissance faciale, il ne peut se créer une identité numérique ALICEM, faute d’alternative à cette vérification d’identité. La Commission a ainsi considéré que la mise en œuvre du traitement de données biométriques devait être subordonnée au développement de solutions alternatives au recours à la biométrie (pour vérifier l’exactitude de l’identité alléguée par la personne créant son compte) aux fins de s’assurer de la liberté effective du consentement des personnes concernées audit traitement.
La Commission a ainsi proposé des solutions alternatives à la reconnaissance faciale pour vérifier l’identité de la personne. Il aurait pu être possible de prévoir une vérification de l’identité en face à face, un déplacement en préfecture, en mairie ou auprès d’un service public accueillant du public, une vérification manuelle de la vidéo et de la photographie sur le titre, un envoi de la vidéo sur les serveurs de l’ANTS avec vérification opérée par un agent ou encore un appel vidéo en direct avec un agent de l’ANTS. Les solutions alternatives proposées par la Commission dans son avis n’ont toutefois pas été retenues par le décret finalement publié le 13 mai 2019. Le Conseil d’État semble ainsi avoir admis la validité du processus tel que proposé par le ministère de l’intérieur et la validité du consentement quand bien même aucun moyen alternatif (en dehors du fait ne pas installer l’application) ait été mis à disposition des usagers.
La création d’une base de données biométriques risque de poser des contraintes de sécurité énormes autour de la protection de ces données. Comment se positionne la CNIL par rapport à la sûreté de ces données biométriques et du défi posé en termes de sécurité ?
La sécurité d’un traitement de données biométriques est un enjeu majeur pour le responsable de traitement, du fait de la particulière sensibilité de ces données. Les caractéristiques biométriques ont la particularité d’être uniques et, pour la plupart, permanentes. Elles sont en effet produites par le corps lui-même et le caractérisent de façon définitive. Les données biométriques peuvent ainsi être utilisées pour suivre et identifier un individu, même à son insu. Contrairement à un mot de passe, ces données peuvent ne pas être communiquées consciemment et ne peuvent pas être modifiées, y compris en cas de compromission.
La CNIL a donc rappelé de manière constante que les traitements de données biométriques doivent être nécessaires et proportionnés au regard des finalités pour lesquelles ils sont mis en œuvre et surtout que les données biométriques doivent être maintenues sous le contrôle exclusif de la personne concernée. Placer la donnée biométrique sous le contrôle de la personne concernée et non dans une base de données permet, mécaniquement, de réduire les risques de mauvais usage, compromission ou détournement de ces données. En pratique, soit la donnée biométrique est enregistrée sur un support individuel remis à la personne (tel qu’un badge) ou conservé en sa possession (sur son appareil mobile), soit elle est stockée en base de données sous une forme le rendant inutilisable sans intervention de la personne concernée, qui dispose d’un élément ou secret permettant de déchiffrer son gabarit. Ce principe de maintien de la donnée sous le contrôle exclusif de la personne concernée répond aux orientations du RGPD, qui impose d’opter pour des systèmes garantissant par défaut et dès leur conception une protection des données optimale.
En termes d’usages de la reconnaissance faciale dans l’espace public, quels sont les critères qui doivent présider au choix de leur mise en oeuvre ?
Les législateurs européen et national ont encadré, plus strictement qu’auparavant, les dispositifs biométriques dans le but d’adapter le niveau de protection des données aux nouveaux usages du numérique. Tout usage, y compris expérimental, de la reconnaissance faciale devra donc respecter ce cadre juridique modernisé (RGPD, Directive Police/Justice). Conformément à ces règles, la nécessité de tels dispositifs devra, au cas par cas, être établie : la reconnaissance faciale ne peut être utilisée sans impératif particulier de forte fiabilité de vérification de l’identité des personnes. Ces textes exigent également de s’assurer de la proportionnalité des moyens déployés et de placer le respect des personnes au cœur des dispositifs, par exemple en recueillant leur consentement ou en leur garantissant le contrôle de leurs données.
C’est en appliquant ces principes que la CNIL a déjà eu l’occasion d’admettre dans leur principe certains usages tout en encadrant leurs modalités pratiques (contrôles aux frontières dans les aéroports), et d’en refuser d’autres (contrôle d’accès d’élèves dans des établissements scolaires). Les cas d’usage de la reconnaissance faciale sont multiples et un raisonnement cas d’usage par cas d’usage s’impose. Ainsi l’hypothèse d’un usage de la reconnaissance faciale sur la voie publique devrait être analysée au regard de la finalité, du but poursuivi qui permettra ensuite de déterminer si les données sont pertinentes, proportionnées, si les durées de conservation sont appropriées, si la sécurité est adaptée, etc. S’il peut exister des cas légitimes et légaux d’usage de la reconnaissance faciale, ils ne doivent pas conduire à penser que tout serait souhaitable ou possible.
Enfin, la problématique du « fichage » à distance est soulevée par les technologies de reconnaissance faciale. Un citoyen peut être filmé et reconnu à son insu. Pourrait-on assister à la fin de l’anonymat dans l’espace public ?
Les systèmes de reconnaissance faciale peuvent facilement s’interfacer avec de nombreux dispositifs de captation d’image qui sont déjà intégrés dans notre quotidien comme les caméras de vidéosurveillance ou de vidéoprotection, les écrans publicitaires, etc. Tous ces objets peuvent potentiellement devenir des supports d’une surveillance régalienne ou privée sans précédent. Il est en effet possible que ces dispositifs de captation d’images, supports potentiels de tout système de reconnaissance faciale, soient couplés à d’autres types de technologies, par exemple, la captation du son, amplifiant encore davantage le degré de surveillance des personnes et des lieux.
Le tournant technologique auquel nous assistons se double d’un changement de paradigme de la surveillance, puisque de nombreux exemples ont permis de constater que l’on passe d’une surveillance ciblée de certains individus à la possibilité d’une surveillance de tous aux fins d’en identifier certains. Ainsi, le changement de nature de la surveillance, devenant indifférenciée, couplé au traitement algorithmique des contrôles réalisés présentent un risque évident d’atteinte à l’anonymat dans l’espace public. Ce sont donc certains de nos principes fondamentaux qui sont susceptibles d’être remis en cause car l’espace public, physique ou numérique, est un lieu où s’exercent de nombreuses libertés individuelles et publiques comme le droit à la vie privée et à la protection des données personnelles, la liberté d’expression et de réunion, le droit de manifester, la liberté de conscience, le libre exercice des cultes.
Elon Musk a toujours vu les choses en grand. Le projet Starlink en est un exemple éclatant. Décliné en détail par Gynne Shotwell, la présidente de SpaceX, devant la télévision américaine en octobre, Starlink veut développer l’accès internet par satellite et le rendre opérationnel n’importe où sur Terre..
Pour l’instant deux lancements (voir la vidéo du dernier lancement ci-dessous) – 60 mini-satellites à chaque fois – ont permis de mettre quelques 115 satellites en orbite. En effet, 3 satellites n’ont pas réussi à se placer et deux ont été retirés.
Chaque satellite pèse 227 kilogrammes pour une taille semblable à celle d’une grosse machine à laver (0,7m x 0,7m x 1m).
24 lancements prévus en 2020
Starlink permettra à la société SpaceX de proposer une couverture correcte d’internet à travers la planète bien avant le placement des 12 000 satellites prévus. D’après la présidente de SpaceX, « Il faudra au moins 24 lancements pour proposer une bonne couverture. Nous espérons avoir procédé à ces lancements avant la fin de l’année prochaine ».
Mais ce n’est pas tout. Le 16 octobre dernier, Gynne Shotwell a également demandé l’autorisation à l’Union Internationale des Télécommunications de mettre en orbite 30 000 satellites (en plus des 12 000 déjà prévus pour Starlink) supplémentaires.
Si cette demande est acceptée, SpaceX va donc placer en orbite 42 000 satellites. Tous ne seront pas nécessaires au fonctionnement de Starlink, et certains seront consacrés à des demandes client spécifiques.
42 000 satellites. Un chiffre tout de même ahurissant, quand on sait qu’aujourd’hui, on compte en orbite environ 2 100 satellites actifs (un peu plus de 4 000 objets en tout orbitent autour de la Terre). Mais qui pourrait rapporter gros. L’objectif à court terme est de s’approprier 3 à 5% du marché mondial de l’internet, soit environ 30 milliards d’euros.
Une certaine dose de scepticisme
Au-delà des chiffres, la mise en place de Starlink, à laquelle nous assistons et qu’on verra encore se développer l’année prochaine, pose des questions.
Celle qui vient le premier à l’esprit concerne l’encombrement spatial. Les astronomes craignent entre autres que les observations par télescope soient plus compliquées, la visibilité étant moindre. Déjà les premières plaintes se sont faites entendre. Au mois de novembre, l’astronome Clarae Martinez-Vasquez, travaillant à l’observatoire interaméricain de Cerro Tololo au Chili, a tweeté : « une énorme quantité de satellites Starlink a traversé notre ciel cette nuit @cerrotololo. Notre exposition DECam a été lourdement compromise par 19 d’entre eux ! Le train de satellites a duré plus de 5 minutes ! ! Assez déprimant… ». D’autres plaintes, émanant d’autres astronomes à travers le monde ont émergées, les mini-satellites d’Elon Musk n’étant in fine pas toujours responsables des manques de visibilité !
Autre problème, le risque de collision entre satellites, qui va mécaniquement augmenter au fur et à mesure des placements de nouveaux satellites en orbite. Cela fait déjà quelques années que la problématique de l’encombrement spatial et des risques de collisions inhérents sont évoqués. Aujourd’hui, même si les estimations varient, on estime que les débris spatiaux sont extrêmement nombreux :
5 000 objets mesurant plus d’un mètre ;
20 000 objets entre 10 cm et 1m ;
150 000 000 de fragments de quelques millimètres.
Alors que penser ? Les satellites de Starlink vont-ils créer un encombrement spatial supplémentaire qui va rendre le risque de collision trop important ? La réponse est non, puisque l’Union Internationale des Télécommunications, qui attribue les orbites aux satellites, a donné son feu vert en connaissance de cause. Notre ciel est-il déjà pour autant encombré par trop d’engins et de débris spatiaux ? La réponse est oui. Au vu de l’autorisation donnée à SpaceX pour la mise en orbite de ses 12 000 satellites, il apparait important de continuer le développement de projets pour “nettoyer” les orbites proches, même si cela n’est envisageable que pour des débris d’une certaine taille pour le moment. Cela fait d’ailleurs plusieurs décennies que des projets de ce type sont mis en place, sans succès caractérisé pour le moment.
Et Elon Musk dans tout ça ? Pour le milliardaire sud-africain, Starlink est une manne financière, qui devrait lui permettre de financer un projet encore plus fou et éloigné de notre vieille terre… il s’agit bien sûr de l’exploration de Mars.
Avec Facebook Pay, le réseau social se transforme en porte-monnaie électronique. Il prend en charge la plupart des cartes de crédit ainsi que PayPal et Stripe (une plateforme de paiement en ligne). Ce service est complètement séparé de Libra et Calibra, la cryptomonnaie (un projet abandonné ou repoussé) et le porte-monnaie numérique de Facebook.
Ce n’est pas la première fois que le réseau social permet des paiements en ligne. « Facebook offre des expériences de paiement fiables depuis 2007 et nous avons déjà traité plus de 2 milliards de dollars en dons depuis que nous avons lancé nos premiers outils de collecte de fonds en 2015 », déclare-t-il dans un communiqué publié mi-novembre.
Mais l’arrivée de ce nouveau service préfigure l’évolution du réseau social vers une plateforme de commerce électronique. Un indice confirme cette stratégie : l’intégration d’Instagram laisse supposer que ce site de partage d’images et de vidéos sera utilisé pour doper les ventes. En un mot, Facebook ambitionne de profiter du social shopping.
« L’année 2020 pourrait bien être celle de l’avènement du social shopping. De plus en plus de clients effectuent des achats directement depuis les médias sociaux au lieu de se diriger vers une application ou une boutique en ligne après avoir découvert un produit sur les médias sociaux », a déclaré Ben Itzhak, CEO de Socialbakers, un cabinet spécialisé dans l’analyse des médias sociaux.
Acheter sur Instagram et WhatsApp
Or, Facebook reste incontournable. Même si les spécialistes du marketing ont augmenté leurs dépenses pour Instagram, plus de 60% de toutes les dépenses publicitaires totales sont toujours affectées au fil d’actualité Facebook. « Le flux Instagram vient en deuxième position loin derrière avec 20 % » selon Socialbakers.
Et la position de Facebook dans le social shopping ne cesse de se renforcer. Après avoir intégré en mars dernier une option d’achat pour un produit présenté sur Instagram, le réseau social a lancé début novembre une fonction de catalogue sur WhatsApp, acquis en 2014 pour 19 milliards de dollars.
Pour l’instant, ce nouveau service reste assez basique, mais il permet aux petites entreprises d’afficher une « vitrine mobile » mettant en valeur leurs produits avec des images et des prix. Actuellement, cette fonctionnalité n’est disponible qu’au Brésil, en Allemagne, en Inde, en Indonésie, au Mexique, en Grande-Bretagne et aux États-Unis. Elle sera déployée dans le monde entier très prochainement.
Logiquement, lorsque l’on évoque les achats en ligne, on pense rapidement à la sécurité et à la confidentialité des transactions. Le discours de Facebook est clair : « achetez tranquillement, nous veillons sur la sécurité ».
Protection des données et Facebook : le flou perdure
Officiellement Facebook Pay sera sécurisé afin de rassurer les internautes . « Avec Facebook Pay, nous continuons à investir dans la sécurité. Nous l’avons conçu pour stocker et crypter en toute sécurité vos numéros de carte et de compte bancaire, effectuer une surveillance antifraude sur nos systèmes afin de détecter toute activité non autorisée et fournir des notifications d’activité de compte. Vous pouvez également ajouter un PIN ou utiliser la biométrie de votre appareil, comme la reconnaissance tactile ou l’identification faciale, pour plus de sécurité lorsque vous envoyez de l’argent ou effectuez un paiement. Facebook ne reçoit ni ne stocke les informations biométriques de votre appareil. »
Le réseau s’est également engagé à ne pas partager l’historique de vos achats aux annonceurs. En revanche, Facebook s’autorise à collecter certaines informations provenant de Facebook Pay afin d’affiner son ciblage publicitaire. Mais sans préciser lesquelles.
Publicité ciblée
Et c’est bien là le problème. Facebook a toujours cultivé le culte du secret et a multiplié les annonces rassurantes, qui se sont révélées fausses quelque temps plus tard. En particulier sur la protection de la vie privée, comme le rappellent le scandale de Cambridge Analytica et le rachat de WhatsApp, pour lequel Brian Acton (cofondateur de l’application) avait d’ailleurs déclaré : « En fin de compte, j’ai vendu mon entreprise. J’ai vendu la vie privée de mes utilisateurs pour un plus grand profit. J’ai fait un choix et un compromis. Et je vis avec ça tous les jours… »
En lançant Facebook Pay et en devenant une plateforme de e-commerce, le réseau social pourrait récupérer encore plus de données personnelles pour mieux les exploiter ensuite via de la publicité ciblée notamment…
Si aucune disposition n’est prise, les progrès faits par la médecine durant ces cinquante dernières années pourraient ne plus avoir d’impact. Selon un rapport «Santé et changements climatiques» publié par la Croix-Rouge, un réchauffement climatique de deux degrés pourrait avoir des conséquences directes sur la mortalité humaine. Ce rapport indique qu’entre 2030 et 2050, 250 000 décès supplémentaires pourraient être enregistrés chaque année dans le monde. «Les effets des changements climatiques sur la santé sont inacceptables, sans équivoque et tout le monde en fait aujourd’hui l’expérience partout dans le monde. Personne n’est à l’abri» alerte Nick Watts, directeur exécutif du Lancet Countdown, cité par l’ONG.
Épidémies et suicides au programme des changements climatiques
Plusieurs causes différentes pourraient être à l’origine de la hausse de la mortalité. La Croix-Rouge considère notamment que «les changements climatiques causeront annuellement 6 000 décès supplémentaires pour cause de malaria à partir des années 2030». La propagation de la dengue, du choléra ou du virus Ebola sera également facilitée du fait de l’augmentation de la capacité vectorielle des moustiques. Et les maladies pourraient ne pas être les seuls facteurs explicatifs de la hausse de la mortalité mondiale. L’ONG rapporte également qu’une hausse des températures moyennes de 1 degré provoquerait une augmentation des suicides de 0,7% aux États-Unis et de 2,1% au Mexique. Cela pourrait s’expliquer par les impacts psychopathologiques causés par des épisodes de catastrophes naturelles.
Le stress de certaines populations mondiales face aux changements climatiques a, par ailleurs, déjà commencé. Le rapport de la Croix-Rouge indiquait que 157 millions de personnes de plus de 65 ans ont été exposées à des vagues de chaleur en 2017, soit 18 millions de plus qu’en 2016 (The Lancet, 2018). Et selon la revue scientifique Environmental Research Letters, près de 5 milliards d’individus vivent dans des régions «où la chaleur extrême est prévisible sur un temps donné». De plus, la Banque mondiale déclare que le réchauffement climatique aurait pour conséquence de plonger 100 millions de personnes dans la pauvreté à l’horizon 2030. En France, 85% de la population se dit inquiète face au phénomène du réchauffement climatique (sondage IFOP, 2018).
L’humanité face à l’enjeu de l’adaptation au réchauffement climatique
Face à ces constats, la Croix-Rouge se demande comment «soigner une humanité à plus deux degrés». Les mesures à mettre en œuvre s’articuleraient autour de plusieurs axes, parmi lesquels : réduire les risques sanitaires liés aux catastrophes, s’adapter aux vagues de chaleur en milieu urbain, prévenir les risques épidémiques, ou encore lutter contre l’insécurité alimentaire et la malnutrition. Le professeur en changements environnementaux et santé publique, Sir Andy Haines, estime même qu’«afin de réduire la probabilité que les impacts des changements climatiques affectent sérieusement notre santé, nous devons mettre en place des mécanismes d’adaptation efficaces et réduire les émissions de gaz à effet de serre». Autre recommandation notoire : financer des programmes d’adaptation sur le long terme.
La Croix-Rouge rappelle également que le GIEC indique que les conséquences du changement ne sont pas proportionnelles au réchauffement climatique. Ainsi, chaque dixième de degré de plus aggrave les conséquences. «De surcroît, chaque dixième de degré supplémentaire amoindrit les capacités d’adaptation des populations» indique le rapport avant de considérer que «la nécessité d’agir est critique». Cela s’explique par le fait qu’au niveau actuel des émissions de gaz à effet de serre, les chances d’endiguer le réchauffement climatique en dessous de 1,5 degré s’élèvent à 50%. C’est pourquoi l’ONG espère une mobilisation forte et internationale. «Construisons ensemble une société et des personnes plus fortes et plus solidaires face aux catastrophes liées aux changements climatiques en France et dans le monde!» enjoint Jean-Christophe Combe, directeur général de la Croix-Rouge française.
Au lendemain de l’annonce du retrait des États-Unis de l’accord de Paris par Donald Trump, le Gouverneur de la Californie, Jerry Brown, et l’ancien Maire de New York, Michael Bloomberg, ont lancé l’initiative America’s Pledge. Cette coalition quantifie les actions des acteurs non étatiques américains pour réduire leurs émissions de gaz à effet de serre et respecter au maximum les objectifs de l’Accord de Paris.
Selon le rapport Accelerating America’s Pledge produit par l’Université du Maryland et le Rocky Mountain Institute, les acteurs non étatiques américains s’engagent ainsi massivement dans la lutte contre le réchauffement climatique. « Les coalitions américaines d’États, de villes, d’entreprises et d’autres acteurs engagés à agir pour le climat à l’appui de l’Accord de Paris représentent désormais 68% du PIB américain, 65% de la population américaine et 51% des émissions américaines, calculent les auteurs du rapport. Si elles étaient un pays, ces coalitions américaines auraient la deuxième économie mondiale en importance – juste derrière les États-Unis eux-mêmes ».
Extrait du rapport Accelerating America’s Pledge
Adopter une stratégie « bottom up »
Au moment où les pays réfléchissent à augmenter leurs engagements pour lutter contre le réchauffement climatique, le rapport propose d’établir une stratégie climatique américaine en utilisant un leadership ascendant. Dans les secteurs économiques clés, les États, les villes et les entreprises adoptent des actions concrètes qui peuvent réduire les émissions américaines à grande échelle. Le rapport calcule ainsi que la réalisation des politiques déjà annoncées par les acteurs non étatiques permettrait de réduire les émissions de gaz à effet de serre de 19% d’ici 2025 par rapport à leur niveau de 2005 et de 25 % d’ici 2030. Cela représente les deux tiers de l’objectif américain dans le cadre de l’Accord de Paris pour 2025. Pour rappel, l’engagement prévoyait une réduction des émissions de 26 à 28% d’ici 2025 par rapport à 2005.
En intensifiant les principales actions en cours au niveau infranational, le rapport prévoit qu’il est possible de réduire les émissions de 37% d’ici 2030. Et en combinant ces efforts avec un nouvel engagement fédéral, le rapport estime que les États-Unis pourraient réduire leurs émissions de 49% d’ici 2030 par rapport à 2005. Il serait alors possible d’atteindre la neutralité carbone en 2050.
Extrait du rapport Accelerating America’s Pledge
Changer d’échelle pour transformer le marché
Pour atteindre ces objectifs, il faudra accélérer la transformation du marché. « Un effort massif sera nécessaire pour déployer les technologies d’énergie propre à la vitesse et à l’échelle envisagées dans nos scénarios, préviennent les auteurs. La transformation de notre politique et de notre économie énergétique nécessitera une large mobilisation des citoyens, une productivité énergétique accrue, une innovation de rupture, de nouvelles structures de marché et des investissements avant-gardistes. »
La NASA, le Search of Extra-Terrestrial Intelligence (SETI) et la start-up norvégienne Ntention se sont associés pour développer un gant connecté capable de contrôler un drone ou un robot. Il pourrait servir à effectuer des missions d’exploration ou à recueillir des échantillons lors de sorties extravéhiculaires.
Le robot inspiré de la nature
Des ingénieurs du Massachusetts Institute of Technology (MIT) se sont inspirés des plantes pour mettre au point un robot à la structure flexible, capable aussi bien de se faufiler dans des zones confinées que de porter des charges lourdes. Fabriqué dans des matériaux rigides qui lui confèrent une grande solidité, il est donc paradoxalement doté d’une certaine flexibilité.
Des briques en terre crue réutilisables
Fabriquées près d’Albi à partir d’un matériau local, ces briques ont l’avantage d’être parfaitement isolantes tant sur un plan sonore que thermique et, en plus, elles sont réutilisables !
Etienne Gay a conçu une machine capable de sortir 600 000 briques en terre crue par an. Il lui suffit de mélanger de la terre avec un peu d’eau et de chaux pour obtenir une brique écologique, performante et réutilisable après destruction.
Un bras robotique imprimé en 3D
L’entreprise hollandaise MX3D présente un bras robotique imprimé en 3D à partir d’acier inoxydable. Ces derniers ont optimisé l’ensemble du design afin que le bras soit le plus léger possible. MX3D a ensuite utilisé sa technologie WAAM pour créer l’ensemble. Ils ont ainsi obtenu une pièce qui pèse 73 kilos soit 50% de moins que l’originale
Recycler du plastique pour la mode
Depuis 2014, un groupe d’étudiants cambodgiens des Beaux-arts utilisent la mode et la haute couture pour sensibiliser au problème du recyclage et de la surconsommation des plastiques à usage unique. Ils composent des robes et des ensembles originaux à partir de matériaux recyclés ou utilisés dans la vie courante : sacs de riz ou de ciment, cartons, papier journal, capsules, pailles, verres ou sacs en plastique à usage unique.
Le robot qui trie les déchets
Cinq ans après la fermeture de sa division robotique, Alphabet, Google a décidé de s’attaquer à un sujet d’actualité : le tri des déchets, avec un robot spécialisé. Doté d’un bras mécanique au bout duquel a été fixée une pince, ce robot se déplace à l’aide de ses roues. Son visage, qui n’est pas sans rappeler celui de Wall-E, le petit robot du film d’animation de Pixar, est équipé de caméras de vision.
La course à la collecte des données dans les entreprises, pour les analyser afin d’en exploiter la valeur, est ancienne. Mais aujourd’hui, l’adoption de technologies analytiques ainsi que de process efficaces de collecte devient la norme.
Ainsi toutes les entreprises développent des projets autour du big data. Collecte de data, exploitation, analyse, sécurité, internet des objets, maintenance prédictive… les biais de valorisation des données sont nombreux. En plus du big data, des projets incluant de l’intelligence artificielle pour développer des modèles de maintenance prédictive se multiplient.
On s’arrêtera plus particulièrement sur le développement des technologies analytiques autour des données, puisque c’est l’usage le plus répandu et le plus transversal pour les entreprises. Pourquoi ? Parce que tout indique que les entreprises qui consacrent des moyens importants à l’exploitation des données relatives à leur activité obtiennent rapidement un retour sur investissement. Les entreprises qui choisissent de ne pas investir sur leurs données perdent de l’argent, et pas qu’un peu. Selon une étude menée par le cabinet américain Forrester, au niveau mondial, entre 2018 et 2020, les entreprises qui exploitent le big data devraient générer 1 200 milliards de dollars de plus que les autres.
Développer des stratégies spécifiques
Aujourd’hui les entreprises françaises ont entamé leur transformation numérique. Mais ces dernières restent à la traîne sur le marché mondial. Principalement par la faute de stratégies encore très floues.
C’est ce que démontre notamment une étude réalisée par IDC en début d’année : si les directions métiers (en France) s’intéressent toutes au big data (elles sont même plus d’un quart à vouloir implémenter des modèles prédictifs basés sur de l’IA à court et moyen termes), ces dernières déplorent un manque de stratégie globale autour de l’exploitation des data.
Premier écueil, l’approche en silo. Les entreprises, soucieuses de la sécurité de leurs données, ont souvent tendance à travailler en silo, c’est-à-dire à rendre imperméables entre eux le traitement des données d’un département de l’entreprise à l’autre. Cette stratégie, qui a démontré son efficacité au niveau de la protection des données, est cependant un frein important pour le développement de stratégies d’exploitation des données. Principalement parce qu’en traitant des gros volumes de données séparément, parfois même en faisant appel à des équipes différentes, les entreprises diluent l’efficacité de ces procédés analytiques.
Les modèles prédictifs déjà adoptés à l’échelle mondiale
C’est d’ailleurs pour cela que les deux années à venir seront capitales pour les entreprises françaises à ce niveau. Il s’agit de prendre le bon wagon. Lesquelles seront capables d’améliorer suffisamment l’organisation autour du traitement des données pour les exploiter avec de la plus-value ?
Trois pistes sont aujourd’hui suivies conjointement dans les entreprises pour relever ces défis, à la demande des directions métiers : une meilleure prise en compte de leurs attentes, la capacité à repenser l’organisation (de tout ce qui touche aux données dans l’entreprise) pour en améliorer l’efficacité, et la nécessité de disposer des compétences de spécialistes de la donnée.
Cette dernière piste est fondamentale, puisque si beaucoup d’entreprises françaises ont investi et recruté des data analyst/scientist pour faire du big data une source de plus-value à part entière, d’autres structures rechignent encore, et confient le traitement des données de l’entreprise aux services informatiques. C’est vrai en particulier pour les entreprises de moins de 500 salariés.
Si aujourd’hui environ 50% des entreprises françaises de plus de 500 salariés déclarent utiliser le big data, seulement 9% (chiffres étude IDC) ont recours aux modèles prédictifs. Modèles qui s’avèrent déjà à ce jour capitaux pour anticiper les tendances à venir, anticiper les délais, les coûts… D’où l’importance pour les entreprises de développer des plateformes dédiées au big data.
Sous forme de nanofils monocristallins, le nickel se comporterait comme un matériau à magnétostriction géante. Un tel matériau pourrait servir dans la fabrication de biocapteurs ou d’ordinateurs quantiques.
La magnétostriction
La magnétostriction est une propriété que possèdent certains matériaux ferromagnétiques. Ce terme désigne aussi bien la capacité des matériaux à se déformer sous l’influence d’un champ magnétique que l’inverse : la production d’un champ magnétique sous l’effet de contraintes mécaniques.
Les matériaux magnétostrictifs connus sont généralement séparés en 2 groupes : d’un côté les métaux (Fe, Co, Ni) et alliages, de l’autre les composés de terres rares. Si le nickel est le premier matériau étudié dans les années 60, les propriétés magnétostrictives qui lui sont normalement attribuées sont en revanche assez médiocres.
Comment caractériser la magnétostriction des nanomatériaux ?
Ces nouveaux travaux démontrent que sous forme nanométrique, les monocristaux de nickel se comportent comme des matériaux à magnétostriction géante. Quelles sont les raisons d’une découverte si tardive ? Jusqu’à récemment, on ne savait pas caractériser de manière satisfaisante l’effet magnétostrictif des nanomatériaux. En effet, les techniques d’observation non destructives telles que le MEB et l’AFM ne conviennent pas, car elles donnent une information en surface. Le MET ? Cette technique permet de caractériser la structure cristallographique, mais présente l’inconvénient d’être destructive.
En revanche, le BCDI (Bragg Coherence Diffraction Imaging) est une méthode de caractérisation récente qui utilise des algorithmes de reconstruction pour obtenir des images 3D à partir d’un synchrotron. Elle permet de visualiser les champs de contraintes dans des cristaux dont la taille est inférieure à la longueur de cohérence (ce qui est le cas des nanomatériaux) et avec une résolution spatiale de taille nanométrique.
Transformer les données de microscopie en images 3D grâce au big data
Avec l’aide du big data, le BCDI permet aux chercheurs d’obtenir plus d’informations sur les matériaux étudiés. D’ailleurs, le nickel n’est qu’un exemple, ce qui est intéressant ici, c’est la méthode employée. Ainsi, selon le professeur associé Edwin Fohtung, qui a dirigé cette étude au RPI, cette nouvelle approche pourrait ouvrir le champ à de nouvelles découvertes concernant tout un panel de matériaux solides. Par ailleurs, cette technique non destructive permettrait également de mieux comprendre les tissus et cellules vivantes en les observant dans leur état naturel.