Un procédé plus souple pour la synthèse de nanomatériaux 2D

Les nanomatériaux étudiés par cette équipe sont composés de disulfure de tungstène (WS2), de la famille des dichalcogénures de métaux de transition (TMDs). Ces matériaux, de par leur structure lamellaire peuvent ainsi être considérés comme les analogues inorganiques du graphène, avec des propriétés au moins aussi intéressantes.

Un procédé polyvalent et pilotable

Les travaux réalisés par le Dr. Zichen Liu au cours de sa thèse ont conduit à découpler le procédé de croissance des nanomatériaux en deux phases distinctes, selon le mécanisme décrit à la figure 1. En effet, si le procédé de croissance habituel de WS2 par CVD permet d’obtenir toutes sortes de nanomatériaux en contrôlant les paramètres de déposition, il conduit à la formation d’une seule morphologie à la fois. Le découplage intentionnel, réalisé en apportant une quantité insuffisante de soufre a ainsi permis de créer des phases WO3-x intermédiaires.

Formule de synthèse du WS2 et découplage en 2 phases distinctes (University of Bath)

Une structure inédite et des applications diverses

Dans la grande famille des matériaux 2D, le WS2 attire l’attention des chercheurs à travers le monde en raison de son énorme couplage spin-orbite (spin-orbit splitting). Cette propriété est particulièrement intéressante pour concevoir des matériaux optiques ou encore dans le domaine de la spintronique. Cependant, parmi les nombreuses morphologies de WS2 synthétisées par l’équipe de chercheurs, la plus intéressante semble être celle qu’ils ont nommée “field of blades”, un maillage qui a démontré des propriétés optiques extrêmement puissantes. En effet, cette structure totalement inédite possède par exemple des effets optiques non linéaires tels que la génération de seconde harmonique qui permet de doubler la fréquence d’une source laser.

Par ailleurs, cette morphologie, parce qu’elle présente une très grande surface effective pourrait trouver des applications dans de nombreux autres domaines, comme les technologies de détection.

Corinne Jouanny : « La performance d’une entreprise s’améliore quand il y a des femmes dirigeantes »

Pour leur 9e édition, les Ingénieuses 2019 ont choisi pour marraine Corinne Jouanny, une figure importante de l’engineering en France. Vice-présidente du groupe Altran en charge de la technologie et de l’innovation pour l’Europe, elle insiste sur l’importance de la mixité en entreprise, sur son incidence sur le fonctionnement de la société et le déroulement des projets d’innovations. Elle a cofondé le réseau international « Women in Engineering » afin de promouvoir le travail des femmes scientifiques tout en inspirant les plus jeunes.

Pourquoi avez-vous accepté d’être la marraine de l’édition 2019 des Ingénieuses ?

Tout d’abord, Altran est l’un des plus gros recruteurs d’ingénieurs en France donc nous avons beaucoup de partenariats avec les écoles et nous connaissons bien les Ingénieuses. Ensuite, de manière personnelle, je me définis comme femme, scientifique, leader et militante positive pour la mixité. Il y a une culture très française qui consiste à dépeindre les situations de manière terrible. Mais même si elles le sont – quand on regarde les chiffres au-delà du domaine scientifique, l’égalité hommes-femmes est toujours un combat-, je n’oublie pas que si nous sommes à nos places actuellement, c’est grâce aux générations de femmes et d’hommes qui se sont battus avant nous. Je ne veux donc pas seulement dénoncer des situations et faire des constats, mais incarner un militantisme optimiste. J’ai compris au fil de ma carrière que nous avions besoin de témoignages et de role model pour faire avancer les choses.

Qu’avez-vous pensé des finalistes et lauréates de cette édition ?

Elles sont toutes bluffantes, autant les écoles et le personnel enseignant que les élèves et ingénieures. Les étudiantes notamment ont des projets originaux et réalisent énormément de choses en parallèle de leurs études avec des projets associatifs et humanitaires. Je trouve cela extrêmement positif et motivant de se retrouver ainsi avec d’autres femmes et hommes qui disposent de la même passion, du même optimisme, avec la volonté de faire qui est la base de notre métier d’ingénieur. Être la marraine d’un tel événement m’apporte une reconnaissance qui me donne énormément d’énergie.

Comment agissez-vous pour favoriser la mixité en entreprise ?

Il y a 6 ans, j’ai cofondé le réseau international « Women in Engineering » à destination des femmes en entreprise. Toutes ont la même problématique : elles sont dans des organisations avec peu de femmes et encore moins de femmes dirigeantes. Notre objectif consiste à montrer l’intérêt de la diversité de genre en entreprise sur deux sujets : la performance de l’entreprise et l’innovation. Beaucoup d’études montrent que la performance est améliorée en fonction du nombre de femmes dirigeantes. Nous tenons néanmoins à ce que notre réseau reste inclusif pour éviter d’opposer le féminin et le masculin. Ainsi, nous faisons en sorte que 20% d’hommes soient présents lors de nos meetings.

Comment les femmes dirigeantes améliorent-elles la performance de l’entreprise ?

Dans le cadre de « Women in Engineering », nous avons réalisé une étude qualitative en 2014 sur la mixité, la performance, l’entreprise et l’innovation. Nous avons étudié les caractéristiques des leaders féminines et il s’est avéré qu’en général, les femmes ont une méthode de management plus inclusive et qui porte plus d’attention aux interactions entre les personnes. Cette méthode est très importante aujourd’hui car pour développer une technologie comme une voiture autonome par exemple, il faut réunir des spécialistes de la mécanique, des sciences sociales, du digital, du télécom, de l’informatique etc. Or chacun a une manière variée d’appréhender les sciences. Le mode de management inclusif permet de mieux gérer ces différents aspects.

Qu’apporte la mixité aux projets d’innovations ?

Intégrer la notion de genre fait progresser l’innovation et apporte davantage d’inclusion et d’accessibilité aux produits et services que l’on conçoit. Aujourd’hui, lorsque l’on réalise une innovation, le biais de genre fait que notre produit peut véhiculer des stéréotypes. Par exemple, les essais de médicaments sont majoritairement réalisés sur des souris mâles afin que les résultats soient plus lisibles. Lors de la commercialisation, il y a donc davantage de risques pour les patientes que pour les patients. Autre exemple dans le secteur automobile, les ceintures de sécurité ne sont pas adaptées aux femmes enceintes. Ces biais sont également présents dans l’informatique, comme l’ont analysé Aude Bernheim et Flora Vincent dans « L’intelligence artificielle, pas sans elles ! ». Elles expliquent que coder, c’est comme écrire un texte donc l’intention et la manière d’aborder le projet vont directement dicter la conception. La mixité des équipes d’innovation permet alors d’éviter les biais et les stéréotypes. Enfin, l’égalité hommes-femmes bénéficie autant aux deux sexes. Si les femmes peuvent accéder à des carrières scientifiques, les hommes ont également la possibilité de faire d’autres choix de carrières, de demander des congés parentaux et de baisser la pression concernant l’implication au travail.

Une famille de comètes relance le débat sur l’origine de l’eau sur Terre

Une équipe internationale, associant des chercheurs du CNRS au Laboratoire d’étude du rayonnement et de la matière en astrophysique et atmosphères (Observatoire de Paris – PSL/ CNRS/Sorbonne Université/Université de Cergy-Pontoise) et au Laboratoire d’études spatiales et d’instrumentation en astrophysique (Observatoire de Paris – PSL/CNRS/Sorbonne Université/ Université de Paris), a cependant établi qu’une famille de comètes contient de l’eau similaire à l’eau terrestre : les comètes hyperactives. Cette étude, publiée dans la revue Astronomy & Astrophysics le 20 mai 2019, s’appuie en particulier sur des mesures de la comète 46P/Wirtanen par SOFIA, l’Observatoire stratosphérique pour l’astronomie infrarouge de la NASA.

Selon la théorie dominante, la Terre se serait formée par la collision de petits corps célestes, les planétésimaux. Comme ils sont pauvres en eau, cette dernière a dû être apportée soit par un planétésimal plus gros, soit par une pluie de plus petits objets tels que les astéroïdes et les comètes.

Pour remonter à la source de l’eau terrestre, les chercheurs étudient les rapports isotopiques, en particulier le rapport deutérium sur hydrogène (D/H) de l’eau, le deutérium étant une forme d’hydrogène plus lourd. À l’approche du Soleil, les glaces d’une comète se subliment, formant ainsi une atmosphère de vapeur d’eau qui peut être analysée à distance. Or les rapports D/H de comètes mesurés jusqu’ici étaient en général compris entre deux et trois fois celui des océans, ce qui signifierait que les comètes n’ont apporté qu’environ 10 % de l’eau sur Terre.

Lors de son passage près de la Terre en décembre 2018, la comète 46P/Wirtanen a pu être analysée grâce à l’observatoire volant SOFIA, embarqué à bord d’un Boeing. Elle a été la troisième à présenter le même D/H que l’eau terrestre. Comme les deux précédentes, elle appartient à la classe des comètes hyperactives qui, à l’approche du Soleil, libèrent plus d’eau que ce devrait permettre la surface de leur noyau. L’excès est produit par des particules riches en glace présentes dans leur atmosphère.

Intrigués, les chercheurs ont déterminé la fraction d’activité de toutes les comètes dont le D/H est connu, c’est-à-dire la fraction de la surface du noyau nécessaire pour produire la quantité d’eau présente dans leur atmosphère. Résultat, on observe une corrélation inverse entre cette fraction d’activité et le D/H de la vapeur d’eau : plus une comète tend vers l’hyperactivité (fraction d’activité supérieure à 1), plus son D/H diminue et s’approche du D/H terrestre.

Les comètes hyperactives, dont la vapeur d’eau provient en partie de grains éjectés dans leur atmosphère, ont donc un D/H équivalent à celui de l’eau terrestre, contrairement à celles dont le halo gazeux n’est produit que par la glace de surface. Les chercheurs suggèrent que les rapports D/H mesurés dans l’atmosphère de ces dernières ne sont pas forcément représentatifs des glaces présentes dans leur noyau. Si cette hypothèse est vraie, l’eau de tous les noyaux cométaires pourrait en fait être très proche de celle sur Terre, ce qui rouvre le débat sur l’origine de nos océans.

Source : CNRS

Campus de l’Espace : un lieu historique pour la finale du Challenge Industrie du Futur

Le 6 juin prochain, la finale du Challenge Industrie du Futur se déroulera au Campus de l’Espace, à Vernon. S’étendant sur environ 70 hectares, le parc technologique accueille des entreprises, des startups et un centre de formation pour les ingénieurs. Marc de Ferrière, chargé de mission du cluster Campus de l’Espace, nous raconte l’histoire de ce lieu qui soutient l’innovation depuis sa création.

Qu’est-ce que le Campus de l’Espace ?

Le Campus est un parc dédié aux hautes technologies tournées vers l’industrie du futur. Cet espace accueille des entreprises innovantes dans leur secteur, comme Safran, ainsi qu’une pépinière qui accompagne les startups. Depuis septembre 2018, il accueille l’ITII Normandie, un centre de formation pour les ingénieurs en alternance. 250 alternants viennent sur le Campus avec une partie de leur temps en formation et l’autre en entreprise. Notre objectif est d’ouvrir le Campus à davantage d’écoles, d’industriels ainsi qu’à des laboratoires de recherche.

Quelle est l’histoire de ce lieu ?

Le Campus était initialement un laboratoire militaire spécialisé en balistique et en aérodynamique, qui a fermé au début des années 2000. Situé sur le plateau de l’espace à Vernon, ce parc accueillait des chercheurs du programme européen Ariane qui travaillaient sur la création d’une fusée. Des infrastructures ont été construites pour loger les ingénieurs et leur famille. Depuis 2014, le lieu a été racheté par une société publique locale dont les actionnaires sont la ville de Vernon, l’agglomération Seine Normandie et le département de l’Eure, afin de le reconvertir en campus technologique. Une partie des logements est maintenant mise à disposition des étudiants qui vivent sur le Campus.

Comment le Campus de l’espace s’investit pour l’innovation ?

D’abord, à travers la quinzaine d’entreprises qui sont présentes sur le Campus. Safran par exemple utilise les toutes dernières technologies pour fabriquer ses moteurs ; ArianeGroup vise à appliquer les modèles de l’industrie 4.0 pour être plus compétitive et moins chère. Ensuite, nous avons un incubateur afin de faire venir et accompagner les startups qui répondent aux besoins de nos industriels. Ainsi, nous mettons nos moyens et nos infrastructures à disposition pour mettre en œuvre le 4.0 au Campus.

Pourquoi le Campus de l’Espace est partenaire du Challenge ?

Pour perpétuer l’esprit de challenge et d’innovation qui nous habite depuis la création de ce lieu. Quand ArianeGroup, Atos et SKF nous ont parlé de ce Challenge, nous avons tout de suite rebondi et proposé nos infrastructures. Nous remettrons également le Prix Coup de Cœur avec Techniques de l’Ingénieur afin de donner l’avis du public de cette finale  sur les technologies proposées par les startups.

 

Photovoltaïque : l’hétérojonction dans les starting-blocks industriels

Le Laboratoire d’Innovation pour les Technologies des Energies Nouvelles et les nanomatériaux (Liten) du CEA travaille depuis plus de 15 ans sur la technologie hétérojonction de silicium pour développer des cellules photovoltaïques à haut rendement. Début 2019, le CEA annonçait ainsi un nouveau record certifié, de 23,9 %, sur la globalité de la surface d’une cellule de taille standard (244cm2) avec une métallisation réalisée par sérigraphie classique. La cellule a été fabriquée sur la ligne pilote du CEA basé à l’INES (institut national de l’énergie solaire). Par ailleurs, le CEA a aussi annoncé la fabrication d’un module hétérojonction d’une puissance de crête de 348W en partenariat avec l’industriel suisse Meyer Burger, spécialiste des technologies solaires. Les cellules à hétérojonction présentent de nombreux avantages en termes de fabrication, de rendement et de cycle de vie qui suscitent aujourd’hui l’intérêt de plusieurs industriels.

Haut rendement, fabrication simplifiée

Les cellules à hétérojonction de silicium sont constituées d’un cœur de silicium monocristallin de type N dopé au phosphore et rendu semi-conducteur. A partir de cette base, les étapes de fabrication sont limitées et simplifiées : gravure par bain chimique pour former des pyramides sur les wafers, nettoyage, dépôt par plasma de couches nanométriques de silicium amorphe, puis d’une couche de silicium amorphe dopée N sur une face et dopée P sur l’autre face. Le process s’effectuant à 200°C (beaucoup moins que les autres process utilisés pour la fabrication de cellules photovoltaïques qui nécessitent des étapes à des températures de 400°C voire 800°C). Il reste ensuite à déposer un oxyde transparent conducteur sur les deux faces et sérigraphier un motif de lignes métalliques pour la collecte des charges électriques. Les cellules ainsi fabriquées sont donc quasiment symétriques et permettent des applications bifaciales (récupération de la réflexion de la lumière en sous-face des modules avec amélioration du rendement de 8 à 15%). Ces cellules sont aussi plus efficaces qu’une cellule standard quand la température s’élève (elles perdent 0,25 % par degré contre 0,35 % pour une cellule classique). Par ailleurs, l’analyse de leur cycle de vie est aussi meilleure : moindre empreinte écologique et énergétique, meilleure recyclabilité. Seule la présence d’Indium, une terre rare chère pour le moment, est un frein, mais les quantités mises en jeu restent modestes comparées aux secteurs de la télévision ou de la téléphonie et les gisements mondiaux sont encore peu exploités. Du point de vue de la fabrication, le CEA a réussi à fabriquer des cellules 5 busbars avec une cadence de 2400 cellules/heure permettant d’envisager réellement des concrétisations industrielles.

Des configurations et des couplages à explorer

Afin de produire des solutions photovoltaïques à haut rendement, les cellules à hétérojonction de silicium ont été assemblées en module complet grâce à un partenariat entre le CEA et Meyer Burger. Un module de 120 cellules a réussi à atteindre 348W de puissance nominale (en comparaison, les meilleurs modules du marché utilisant 60 cellules présentent des puissances de l’ordre de 320W). Pour profiter des atouts de l’hétérojonction, Charles Roux, chef du laboratoire CEA-Ines Grenoble, explique dans les colonnes de Bâti Actu qu’une installation avec des panneaux placés verticalement et orientés Est-Ouest pourrait permettre de profiter de deux pics de production (à 10h et à 16h) pour compléter une installation classique orienté sud (pic à midi) et ainsi lisser la production sur la journée. Par ailleurs, le couplage avec d’autres technologies comme les cellules photovoltaïques avec contacts en face arrière, ou les cellules à pérovskites, permet d’envisager des rendements de 32 %. Cependant, pour les cellules à pérovskite (qui captent le spectre dans l’ultra-violet et le début du visible, et sont donc complémentaires de l’hétérojonction qui capte dans le spectre visible et l’infra-rouge), il faudra encore attendre qu’on réussisse à les produire sur des surfaces plus importantes et qu’on assure leur stabilité dans le temps.

Des projets industriels en vue

Le modèle et le coût des cellules à hétérojonction pourraient rapidement devenir compétitifs, surtout pour des usines de grande envergure. Ils font déjà l’objet de deux projets industriels en Europe. En Italie, tout d’abord, où la société 3Sun, filiale d’Enel Green Power, a lancé l’an dernier la reconversion de son usine de panneaux photovoltaïques de Passo Martino pour en faire le premier site de production de modules avec des cellules solaires bifaciales en technologie à hétérojonction dans le monde. L’investissement total de 100 millions d’euros est partiellement cofinancé par le programme européen Ampere (Automated photovoltaic cell and Module industrial Production to regain and secure European Renewable Energy market) auquel participe le CEA. Le plan de montée en puissance de l’usine prévoit d’atteindre une capacité de production de 200MWc au 3e trimestre 2019. Vingt millions d’euros du budget ont été alloué à la création d’un campus de recherche et d’innovation de plus de 100 000m2 autour des énergies renouvelables et des nouvelles technologies (IoT, IA, réalité virtuelle, big data, automatisation…). Côté français, Recom-Silia a annoncé début mars 2019 (interview actu-environnement) un projet d’une usine de grande envergure (1GW) à Lyon dont la production concernerait notamment des modules à hétérojonction.

En savoir plus

Visuel d’illustration de l’article : ©CEA

TOP 5 : les articles les plus lus #mai2019

L’impression 3D devient plus rapide grâce à la lumière

Les procédés de fabrication additive, aussi connus sous le terme “impression 3D” pour le grand public, ont de nombreux avantages, mais ils ont également un gros défaut : ils sont lents. Des chercheurs auraient réussi à accélérer considérablement l’impression 3D plastique en utilisant des sources lumineuses.

 

En Islande, des scientifiques minéralisent le CO2

Les scientifiques islandais développent un système de minéralisation du dioxyde de carbone. Cette technique, qui séduit la communauté scientifique, permet d’accélérer un processus que la nature met plusieurs millénaires à effectuer.

 

Un métamatériau acoustique révolutionnaire

Quel est le point commun entre un avion, un drone, une climatisation et un examen IRM ? Réponse : le bruit.

 

L’intelligence artificielle booste les recherches en toxicité

Des chercheurs de l’Inserm viennent de présenter un outil informatique permettant d’identifier des effets toxiques de substances chimiques à partir d’études déjà publiées. S’appuyant sur des méthodes d’intelligence artificielle, il vient illustrer les avancées que l’IA a permises dans ce domaine ces dernières années.

 

RGPD : une mise en conformité loin d’être généralisée

Exécutoire depuis un an, le RGPD oblige les entreprises à revoir leurs méthodes de traitements des données personnelles et à renforcer leur sécurité informatique. Mais peu d’organisations peuvent affirmer qu’elles sont en conformité. Quand certaines n’ont encore rien fait…

Par I. B.

Retrouver la confiance dans les agences d’évaluation des risques

« Les agences effectuent un travail considérable mais encore perfectible », résume Philippe Bolo, co-rapporteur du nouveau rapport de l’OPECST. Pour perfectionner le fonctionnement des agences et reconquérir la confiance, l’étude fait 13 propositions selon quatre axes : renforcer les capacités d’évaluation des risques réglementés par les agences, améliorer la transparence des travaux d’évaluation, conforter les agences dans leur rôle d’expertise des risques et rendre l’évaluation des risques accessible et compréhensible.

 Durant 15 mois, les quatre rapporteurs ont analysé le fonctionnement des agences d’évaluation des risques et des dangers qui peuvent frapper les citoyens français et européens. Ce rapport résultait d’une double saisine, de la commission des Affaires économiques et de la commission des Affaires européennes de l’Assemblée nationale, suite au contexte polémique de la réautorisation du glyphosate, après les avis divergents du CIRC et de l’Efsa. Le CIRC classait alors le glyphosate comme cancérogène probable, alors que l’Efsa estimait qu’il était « improbable que le glyphosate fasse courir aux humains un danger cancérogène ».

Une analyse sur trois grandes agences en Europe

L’étude s’est concentrée sur le fonctionnement et les missions de l’Efsa, de l’Echa et de l’Anses. Elle constate qu’il existe une grande confusion dans le public autour de la question des risques. « Il y a une différence fondamentale entre ce qui est un danger et un risque, précise Anne Genetet, co-rapporteure de l’étude. Par exemple, le soleil est un danger, il devient un risque à partir du moment où on décide de s’y exposer sans protection pendant plusieurs heures ».  Selon les rapporteurs, le CIRC s’est ainsi concentré sur la question du danger causé par toutes les formulations contenant du glyphosate (indépendamment du degré d’exposition), alors que l’Efsa a analysé les risques encourus pour la santé humaine ou l’environnement de la substance pure (combinant danger et exposition).

 Les agences ne font ni tests, ni études, elles analysent les données fournies par des entreprises, et des études universitaires, avant de faire des recommandations aux politiques. Les agences les analysent en vérifiant qu’elles répondent à des standards internationaux, établis notamment sous l’égide de l’OCDE, en particulier le respect de bonnes pratiques de laboratoire (BPL) ou de bonnes pratiques d’évaluation (BPE). Ainsi, les tests de toxicité et d’écotoxicité doivent répondre à des lignes directrices pour avoir des données standardisées et permettre la comparaison entre études. Les rapporteurs proposent de donner la capacité aux agences de lancer leurs propres études pour avoir leurs propres données.

Assurer l’indépendance des experts

« Le grand problème identifié est la sélection des experts, notamment sur l’indépendance vis-à-vis des entreprises qui fournissent l’essentiel des données scientifiques analysées par les agences », relève Pierre Ouzoulias, co-rapporteur de l’étude. La politique d’indépendance vis-à-vis des possibles conflits d’intérêts des experts varient suivant les agences. Il faut les harmoniser et mieux contrôler les déclarations d’intérêt des experts.

La différence entre « lien d’intérêt » et « conflit d’intérêt » est souvent ténue.  « Il est de plus en plus difficile de trouver des experts libres, indépendants des firmes, car on demande aux scientifiques d’aller chercher des fonds auprès d’entreprises privées pour financer leurs recherches », note Pierre Ouzoulias, autre co-rapporteur. Pour rétablir la confiance, le rapport recommande donc de développer une recherche indépendante sur fonds de l’Etat. Il faudra aussi donner un plus grand accès aux données fournies par les firmes, comme la Justice européenne l’a réclamé en mars 2019 pour Bayer. La transparence passera par un meilleur accès aux données, que cela soit pour les agences ou le public.

Mieux communiquer avec le grand public

Le grand public veut avoir des agences qui portent une parole scientifique fiable. Il souhaite qu’elles résistent aux pressions politiques et à celles des acteurs économiques. Si les agences arrivent à appréhender les risques aigus, il faut qu’elles parviennent à mieux appréhender les risques diffus et les risques émergents, notamment les effets cumulés ou cocktail, à long terme.  Il faut également qu’elles proposent des alternatives à l’expérimentation animale et qu’elles encouragent la mise à jour régulière des lignes directrices pour les rendre plus contemporaines avec les évolutions réglementaires. Le rapport dresse plusieurs propositions dans ce sens.

Par ailleurs, la réglementation demande des réévaluations régulières. Cela fait partie de la vigilance mise en œuvre après la mise sur le marché de produits. L’étude propose d’améliorer la surveillance après mise sur le marché avec le lancement d’études épidémiologiques et une meilleure biosurveillance.

Enfin, les avis rendus sont souvent compliqués à comprendre pour le grand public. Il faut favoriser la compréhension par les citoyens de l’évaluation des risques et des dangers en simplifiant les messages. Le rapport recommande donc que les agences expliquent tout simplement mieux leur travail et les résultats obtenus pour mieux appréhender les risques.

CCPA : La Californie aura bientôt son RGPD version light

Alors que le RGPD est exécutoire depuis le 25 mai 2018 en Europe, les États-Unis se préparent – doucement – à renforcer les droits des citoyens. En janvier 2020, le  California Consumer Privacy Act (CCPA) entrera en application en Californie.

C’est une version light de notre règlement européen puisque le CCPA ne s’applique qu’aux entreprises californiennes dont le chiffre d’affaires est supérieur à… 25 millions de dollars et aux data brokers (spécialisés dans la revente de données personnelles). Rappelons que sur le vieux continent, toutes les entreprises européennes doivent se mettre en conformité.

Autre différence, le texte européen prévoit une gradation des sanctions en cas de non-conformité et/ou d’atteinte à la protection des données. Elles peuvent atteindre jusqu’à 4 % du chiffre d’affaires annuel global de l’entreprise ou 20 millions d’euros (le montant le plus élevé étant retenu).

Mauvais élèves

En Californie, les amendes seront appliquées par infraction (jusqu’à un maximum de 7 500 $ par infraction). La différence fondamentale concerne la conformité. En Europe, une entreprise peut être condamnée même si elle n’a pas été victime d’une fuite de données. Le CCPA ne sanctionnera qu’à partir du moment où une violation aura été constatée. Autre différence, les consommateurs américains peuvent poursuivre l’entreprise pour violation.

Néanmoins, le CCPA représente une première étape vers une meilleure protection des citoyens. D’autres États pourraient instaurer une réglementation plus ou moins similaire.

Mais comme en Europe, les entreprises californiennes traînent des pieds. Selon une étude de Trustar, une minorité d’entreprises sont d’ores et déjà en conformité.

Cependant, certaines entreprises américaines n’attendent pas d’être victimes d’une fuite de données pour entamer leur mise en conformité. Ces « bons élèves » californiens sont ceux qui sont déjà sensibilisés à ces problématiques.

21 % des entreprises qui ont travaillé sur la conformité avec le RGPD sont conformes avec le CCPA, comparativement à seulement 6 % pour les entreprises qui n’ont pas travaillé sur la conformité avec le texte européen.

Dans la majorité des cas, l’objectif principal des Californiens est de répondre aux exigences des partenaires et/ou des clients. Selon l’enquête de Trustar, un tiers mentionne le risque d’amendes ou les recours collectifs comme principal facteur de risque. Enfin, 18 % estiment qu’elle pourrait avoir un impact négatif sur leur réputation.

Un jeu vidéo pour aider la recherche sur Alzheimer

Comment nous orientons-nous dans l’espace ? Pourquoi est-ce que je me perds tout le temps alors que mon ami jamais ? Plus généralement, pourquoi le sens de l’orientation varie-t-il tant au sein de la population ? Est-ce lié à des caractéristiques innées, génétiques, ou bien modulé par des facteurs culturels ? Pour répondre à ces questions, Antoine Coutrot, chercheur du CNRS au Laboratoire des sciences du numérique à Nantes (CNRS/Ecole centrale de Nantes/Université de Nantes/IMT Atlantique) et ses collègues anglais de l’University College London et de l’University of East Anglia ont développé un jeu vidéo qui a jusqu’à présent rassemblé 4 millions de joueurs. Les stratégies mises en place pour réussir les différentes quêtes proposées par le jeu représentent aujourd’hui l’équivalent de 10 000 ans de données recueillies en laboratoires par des moyens expérimentaux traditionnels.

Mais comment être certain que la réussite des joueurs dépend bien de leur capacité à s’orienter dans l’espace et non de leur habileté à utiliser un téléphone portable ou de leur habitude à jouer aux jeux vidéo ? Pour confirmer leur hypothèse de départ, les chercheurs ont d’abord comparé les performances d’orientation de volontaires, hommes et femmes de tous âges, dans le monde réel et dans le monde virtuel, à Paris et à Londres. Leurs résultats, publiés dans un premier article dans PLOS ONE, valident leur hypothèse : les performances d’orientation virtuelle et dans le monde réel sont fortement corrélées.

Une fois établi l’intérêt du jeu vidéo pour l’évaluation de capacités d’orientation, les scientifiques ont ensuite comparé les performances de joueurs de Sea Hero Quest à celles de personnes non démentes mais ayant une plus grande probabilité de développer la maladie d’Alzheimer car porteurs de l’allèle 4 du gène APOE1. Pour ces derniers, testés en laboratoire, les scores à des questionnaires neuropsychologiques classiques sont normaux. Cependant, la comparaison de leurs performances à celles de joueurs de Sea Hero Quest de même âge, sexe et pays a mis en évidence des changements dans les habitudes de navigation avant même l’apparition des symptômes cliniques de la maladie d’Alzheimer.

Ces résultats démontrent pour la première fois comment l’évaluation cognitive numérique à grande échelle pourrait être prometteuse pour la détection précoce de la maladie d’Alzheimer et aider au dépistage personnalisé de cette maladie chez des individus n’ayant pas encore de symptômes cliniques.

Source : cnrs

Les compagnies aériennes compensent trop peu leurs émissions

Voyager en avion est devenu l’un des gestes les plus conspués par les défenseurs de l’environnement. Responsable chaque année d’environ 2 % des émissions de gaz à effet de serre dans le monde, le transport aérien se voit régulièrement décrié au détriment d’autres modes de transport. Selon les chiffres de l’Ademe, un voyage en avion émet 144,6 grammes de CO2 par voyageur et par kilomètre, là où le voyage en TGV n’en émet que 3,2. Autre problème, l’empreinte carbone des déplacements en avion n’est que très rarement compensés. Une mauvaise habitude que les compagnies aériennes combattent peu.

Seuls 1% des voyageurs compensent leurs trajets aériens

Selon une étude de la BBC, moins de la moitié des plus grandes compagnies aériennes mondiales offre la possibilité à leurs passagers de compenser leur empreinte carbone. Cependant, la faute ne repose pas seulement sur ces firmes. Lorsqu’une compensation financière est proposée aux passagers, seul 1 % de ces derniers l’acceptent. Donc, si le geste de compensation carbone n’est pas encore ancré dans les pratiques des compagnies aériennes, il ne l’est pas non plus chez les passagers. Pourtant, la somme n’est pas très élevée pour des vols courts. Ainsi, pour un aller-retour Paris-Athènes, les passagers pourraient compenser leurs émissions en payant environ 4,5 € de plus sur leur billet d’avion.

Afin d’établir ses conclusions, la BBC a approché 28 compagnies aériennes, et très peu ont accepté de communiquer sur les chiffres réels de leurs compensations carbone. Selon elles, les chiffres étaient trop bas pour pouvoir être communiqués. Dans le même temps, l’association nationale du transport aérien (Iata) regrette que la compensation carbone ne soit pas plus répandue, et reconnaît qu’il est essentiel que l’industrie aérienne s’engage dans la lutte contre le réchauffement climatique. « Nous recommandons vivement à tous les passagers d’utiliser des projets de haute qualité pour compenser leurs propres émissions de CO2 en tant que contribution individuelle à la lutte contre le changement climatique » explique Michael Gill, directeur de la Iata.

Compenser les émissions carbone pour financer des projets verts

Les compagnies qui permettent à leurs clients de compenser le carbone émis durant leurs voyages investissent dans des projets de plantation d’arbres, ou encore d’installation de panneaux solaires. Le changement de comportement s’enclenche très lentement dans le secteur. L’accélérer est essentiel lorsque l’on sait qu’un aller-retour Paris-Johannesburg émet autant de CO2 qu’une maison pour se chauffer durant un an, soit environ 3,7 tonnes de CO2.

Mais le passager peut décider aussi de compenser seul ses émissions. C’est ce que proposent les plates-formes Myclimate, Climat Mundi ou encore Calculateur CO2, qui estiment le bilan carbone émis par un voyage et proposent un montant compensatoire. Ainsi, un voyage aller-retour entre Paris et New York d’une distance de 11.700 kilomètres émet 2,2 tonnes de CO2. Pour pallier ces émissions, la plate-forme propose au voyageur de payer 52 €. Il lui est également proposé de financer l’obtention de fours pour des femmes au Kenya, ou même d’aider des paysans nicaraguayens à reboiser leurs terres.

La taxe carbone, de spectateur à acteur imminent en Europe !

En 2018, les émissions couvertes par le Système Communautaire d’Echange de Quotas d’Emission (SCEQE) ont diminué de 3,5 % par rapport à 2017. « Les baisses d’émissions dans le secteur de l’électricité sont le facteur décisif de la réduction globale », notent les auteurs d’une étude du cabinet de conseil Independant Chemical Information Service (ICIS). La baisse demeure en effet marginale pour les secteurs industriels. En parallèle, le prix du carbone est passé de 7 € par tonne en janvier à 25,5 € la tonne de CO2 équivalent à la fin décembre 2018.

Les auteurs ont analysé les facteurs à l’origine de la baisse des émissions. Et selon eux, « le prix du carbone n’a joué qu’un rôle minime dans la baisse des émissions ». Elle s’inscrit dans une dynamique « plus durable », en lien avec « trois grandes tendances depuis 2013 ». D’abord, la production d’électricité à partir de lignite diminue progressivement en Allemagne et en Pologne. Ensuite, le recul du charbon sur les six grands marchés, à l’exception de la Pologne. Et enfin, la hausse de l’électricité à base de gaz sur tous les marchés entre 2015 et 2016, bien que l’évolution soit plus hétéroclite depuis. Ainsi, il ne semble pas que les pays aient brutalement remplacé le charbon par le gaz. Les auteurs estiment que la baisse des émissions est avant tout due à « une augmentation continue de la production d’électricité à partir de sources renouvelables ».

Un bouleversement en perspective

Avec le marché européen du carbone, qui va s’appliquer sur la période 2021-2030, le volume des permis d’émettre mis aux enchères va considérablement diminuer. Avec la réserve de stabilité du marché (MSR), les choses vont changer entre 2019 et 2025. En absorbant les excédents de permis de CO2 accumulés par le passé, le marché va réduire « en moyenne 29% des enchères au niveau annuel, avec les effets les plus importants se produisant entre 2019 et 2021 », prévoient les auteurs. L’effet premier sera d’encourager directement la réduction des émissions en absence de quotas suffisants pour couvrir la demande. Le rapport prévoit ainsi un prix du carbone à plus de 40 € la tonne de CO2 en 2023.

Si des baisses d’émissions seront entraînées par des instruments politiques, comme la fermeture prévue des centrales à charbon, les subventions aux énergies renouvelables ou les politiques d’efficacité énergétique, « les prix du carbone détermineront quand et à quelle vitesse ces nouveaux investissements auront lieu ». En d’autres termes, les prix du carbone seront le catalyseur de la transition.

Des modifications importantes du marché à attendre

L’effet principal sera une augmentation des prix de l’électricité, en particulier dans les pays dépendant le plus des énergies fossiles comme la Pologne et l’Allemagne. Les prix sur le marché spot pourraient passer de 3 5€ par mégawattheure en 2018 à plus de 60 € en 2025 en Allemagne et en France. Ils atteindraient près de 70 € en Allemagne et plus de 70€ au Royaume-Uni et en Italie.

Les plus importants changements sont attendus au Royaume-Uni. Le rapport estime que le pays pourrait diminuer sa production électrique de 21 % entre 2019 et 2025 en raison de prix élevés du carbone. Le pays préférera importer l’électricité du continent plutôt que de produire avec des centrales au gaz. Les importations y augmenteraient alors de 200 %.

Les lauréates du concours Ingénieuses 2019

La remise des prix du concours Ingénieuses 2019, organisée par la CDEFI, s’est déroulée à l’espace Van Gogh de la maison de la RATP. Techniques de l’Ingénieur, partenaire de l’événement et membre du jury, vous présente les lauréates des différents prix récompensant les femmes ingénieurs :

● Prix de l’école la plus mobilisée : L’ENSI Poitiers – école nationale supérieure d’ingénieurs de Poitiers

● Prix du projet le plus original : IMT Mines Albi-Carmaux

● Prix pour l’enseignement de l’égalité femmes/hommes : Esigelec

● Prix de l’élève-ingénieur France : Sarah Cromer, élève-ingénieur en 4e année à l’ESTACA, en filière automobile.

 Prix de l’élève-ingénieur Maghreb : Meriem Bakri, élève-ingénieur en 5e année à l’ESI d’Alger, en informatique, dont la spécialité porte sur les systèmes d’information et technologique.

● Prix de la femme ingénieur : Elisabeth Eude, chef de produit sénior pour les équipements de téléphonie mobile 5G au sein de l’entreprise Nokia. Elle est diplômée de l’INSA (Institut national des sciences appliquées) de Rennes, option Génie Physique et opto-électronique.

Techniques de l’Ingénieur est fier d’avoir participé à l’opération 2019 et vous proposera dans les jours à venir une couverture plus poussée de l’événement.

AI Paris 2019, le salon dédié aux applications de l’intelligence artificielle en entreprise

AI PARIS 2019 a pour ambition de présenter les opportunités, perspectives, technologies de l’intelligence artificielle. L’événement, en partenariat avec Techniques de l’Ingénieur, propose des conférences et ateliers.

Près de 80 speakers aborderont de sujets tels que :

  • L’intelligence artificielle et le futur du travail
  • L’intelligence artificielle au service de la prédiction des cancers
  • La montée en compétences : entre formation, recrutement et pénurie de talents… comment doter votre entreprise des meilleurs atouts pour exceller dans sa stratégie IA ?
  • La logique de co-construction et la stratégie par les cas d’usages

Une quarantaine d’ateliers sont également organisés, dans un esprit de networking.

La partie « salon » permettra à la centaine d’exposants de présenter leurs innovations.
Enfin, sur place, aura lieu le vote du public pour le lauréat des AI Paris Awards, qui récompense l’innovation des projets d’AI des startups.
Inscription AI Paris Cliquer ici

RGPD : une mise en conformité loin d’être généralisée

Rome ne s’est pas faite en un jour. Avec ces 99 articles, le RGPD représente un chemin de croix pour de nombreuses entreprises. Et il faudra là aussi plusieurs années avant que ce règlement ne devienne une « norme ». Complexe à comprendre et nécessitant des adaptations particulières, il exige une profonde évolution des mentalités de tous les services d’une entreprise.

Mais la situation évolue très lentement. Certes, le RGPD a eu le mérite de provoquer une prise de conscience plus ou moins forte, tant de la part des entreprises que des consommateurs, sur les enjeux de la protection des données personnelles. Un récent baromètre CNIL/IFOP indique ainsi que 66% de la population française se dit aujourd’hui plus sensible au sujet qu’avant la mise en vigueur du règlement.

 La CNIL plus sévère

Excepté des entreprises appartenant à des secteurs très réglementés, « la majorité des PME et des TPE que je côtoie ou pour lesquelles j’interviens sont très loin de la conformité », avoue un DPO (Data Protection Officer ou délégué à la protection des données).

Or, cette politique de l’autruche ou ce « retard à l’allumage » n’est certainement pas la bonne méthode. Pour deux raisons principales. Premièrement, les plaintes déposées auprès de la CNIL ont fortement augmenté (plus de 11 000 l’année dernière). Deuxièmement, la CNIL va se montrer plus sévère. Dans un entretien accordé à La Tribune, la nouvelle présidente de la Commission nationale de l’informatique et des libertés (CNIL), Marie-Laure Denis, a déclaré qu’il faut « désormais, faire preuve de davantage de fermeté. Notre action de régulation ne sera efficace que si nous actionnons à parts égales les deux leviers à notre disposition, c’est-à-dire la pédagogie d’un côté, et le contrôle avec éventuellement des sanctions de l’autre ».

Mais en se focalisant uniquement sur les sanctions, de nombreuses entreprises se sont dit qu’elles ne risquaient rien, la CNIL se concentrant sur les grands groupes et les GAFAM (Google, Amazon, Facebook, Apple et Microsoft) pour montrer l’exemple. Et l’actualité des sanctions leur a donné raison. En janvier dernier, la CNIL a prononcé une sanction de 50 millions d’euros à l’encontre de la société GOOGLE LLC en application du RGPD pour « manque de transparence, information insatisfaisante et absence de consentement valable pour la personnalisation de la publicité ».

Attention aux CNIL européennes

Un an après, « nous restons en France dans une logique de « pas vu, pas pris » et on attend de voir comment la CNIL va réagir », constate Maître Anne-Sophie POGGI, Avocate à la Cour spécialisée en droit de la donnée.

Mais les entreprises ont tort de croire que les sanctions ne peuvent venir que de la CNIL. Premièrement, une CNIL italienne ou allemande par exemple peut demander des comptes à une entreprise française si elle a reçu des plaintes de citoyens italiens ou allemands. Le RGPD est en effet un règlement européen qui protège tous les citoyens de l’UE ! Deuxièmement, le donneur d’ordre français (ou, là aussi, européen) d’un sous-traitant français peut aussi exiger que celui-ci prouve sa conformité sous peine de perdre ce contrat…

Le RGPD instaure en effet une coresponsabilité entre les entreprises et leurs sous-traitants. Une entreprise peut donc mandater un cabinet spécialisé pour réaliser des audits RGPD et de sécurité (les deux étant liés, contrairement à ce que pensent à tort de nombreux professionnels) afin de vérifier que les données personnelles qu’elle leur confie sont bien protégées…

Les entreprises sont loin d’en avoir fini avec le RGPD. Ce n’est que le début !

Revue du web #122: les 5 vidéos les plus étonnantes du mois

Particles : un nouveau système robotique collaboratif

Et si, au lieu de construire un robot complexe, on développait plutôt un écosystème de robots basiques ? Le secret : l’esprit d’équipe.

 

Airwood : le bois gonflable

Un ébéniste français de l’Atelier de recherche et de création en ameublement (ARCA) a créé un matériau particulièrement étonnant…

 

RoCycle : le robot qui a développé un nouveau sens…

Le MIT a réussi à mettre au point un robot qui possède le sens du toucher. Grâce aux capteurs placés dans sa main, il est capable de reconnaître différents matériaux et de les trier !

Boston Dynamics : Handle a bien progressé !

Charger et décharger des marchandises n’a plus aucun secret pour Handle de Boston Dynamics. Un avenir tout tracé ?

 

SpaceX va lancer une voile solaire

Le 22 juin, LightSail 2, un satellite à voile qui pèse à peine 5 kg, va avoir la lourde tâche de prouver qu’il peut voguer dans l’espace grâce à l’énergie du Soleil.

 

Par I. B.

Athena X-IFU : un instrument révolutionnaire pour comprendre l’Univers

Après plus de 4 ans d’études, à l’issue d’une évaluation rigoureuse, l’Agence spatiale européenne (ESA) et le Centre national d’études spatiales (CNES), viennent de confirmer la faisabilité de cet instrument unique au monde

Placé au foyer du télescope spatial Athena (Advanced Telescope for High ENergy Astrophysics) de l’ESA, le spectromètre X-IFU (X-ray Integral Field Unit) permettra d’observer ces phénomènes de l’Univers chaud et énergétique, dans le domaine des rayons X : une fenêtre d’observation accessible uniquement depuis l’espace. X-IFU embarquera des technologies innovantes lui conférant des performances exceptionnelles qui permettront de mesurer l’énergie des rayons X avec un niveau de précision sans précédent et de déterminer les conditions dans lesquelles ils sont émis. Les scientifiques pourront alors explorer les amas de galaxies en déterminant la température, la vitesse, la composition chimique du gaz, ou encore suivre la matière engloutie par les gigantesques trous noirs situés au cœur des galaxies les plus massives.

Véritable pièce maîtresse du télescope spatial Athena, X-IFU promet des avancées majeures dans le domaine de l’astrophysique des hautes énergies.

La mission Athena est la seconde mission de classe L (Large) sélectionnée par l’ESA en juin 2014 dans le cadre de son programme scientifique Cosmic Vision. Le télescope spatial Athena sera lancé au début des années 2030 et succédera aux deux observatoires spatiaux dans les rayons X actuellement en fonctionnement : XMM-Newton (ESA) et Chandra (NASA).

Source : cnrs

Nanotechnologies pour la thérapeutique et le diagnostic

Les recherches menées à l’interface de la physique, de la chimie et de la biologie ont abouti à la conception des systèmes de vectorisation submicroniques capables de transporter in vivo des molécules biologiquement actives, ou des agents de contrastes au plus près de leur cible (tissulaire, cellulaire ou, même, moléculaire). Bien que futuristes, les avancées réalisées avec ces systèmes dans le domaine de la thérapie ont dépassé le stade de la simple curiosité de laboratoire puisqu’elles ont déjà donné lieu à la mise sur le marché de nouveaux médicaments pour le traitement de cancers et de certaines maladies infectieuses.
Le succès apporté par les méthodes d’administration des principes actifs à l’aide des nanotechnologies peut être expliqué par une rupture par rapport aux méthodes classiques d’administration des molécules actives. En effet, ces technologies apportent les outils parfaitement adaptés pour effectuer les sauts technologiques qu’il était nécessaire de réaliser pour administrer des molécules d’intérêt thérapeutique de nouvelles générations présentant des difficultés majeures pour leur administration in vivo.
Dans le domaine de l’imagerie médicale par IRM, scintigraphie et échographie, les nouveaux agents de contrastes issus de ces technologies offrent des perspectives immenses pour l’amélioration de ces techniques utilisées dans le diagnostic. Des produits de contraste destinés à l’IRM sont déjà sur le marché depuis plus d’une dizaine d’années. La découverte récente des quantums dots ouvre la voie pour développer de nouvelles techniques d’imagerie basées sur la photonique.
Nous pouvons remarquer que les développements de ces technologies pour des applications dans le domaine de la santé sont excessivement rapides. Ils sont accompagnés d’une évolution accélérée du passage du concept à la réalité de l’application. Une part de ces développements rapides peut être attribuée à la flexibilité qu’offrent ces technologies. En effet, il est possible de modifier et d’adapter les systèmes pour ajuster leurs propriétés aux plus près de celles répondant aux exigences des pathologies auxquels ils sont destinés. Dans ce contexte, il peut être souligné que les polymères prennent une place de plus en plus importante car il est théoriquement possible de les doter de fonctionnalités remarquables grâce à la parfaite maîtrise de leur synthèse.
De nouvelles innovations sont déjà bien avancées. Parmi les plus ambitieuses, citons le développement des nanotechnologies plurifonctionnelles permettant de combiner dans un objet unique un agent de diagnostic et un agent thérapeutique capables d’être libérés sur commande au niveau de la cible biologique.

Vers une approche de la santé radicalement nouvelle

L’éventail de possibilités qu’offrent les nanotechnologies dans le secteur de la santé permet d’imaginer une approche de la santé complètement différente dans le futur. Pour plusieurs raisons.

L’application la plus prometteuse, qui est aussi celle sur laquelle le plus de recherches sont menées actuellement, est l’adressage des molécules médicamenteuses. En clair, l’utilisation de nanoparticules permet de cibler les traitements médicamenteux dans des zones précises du corps humain, améliorant l’efficacité des traitements et limitant les effets secondaires pour les patients.

Mais les applications les plus prometteuses ne s’arrêtent pas aux traitements: les secteurs de la prévention et de la détection des dysfonctionnements de notre corps vont voir leur champ d’action évoluer. En effet, les recherches actuelles font appel à des nanorobots, capables d’évaluer – 24h/24 – l’état de santé d’un patient et d’agir (c’est-à-dire de libérer des substances dans l’organisme) en cas de détection d’une anomalie (une maladie par exemple) pour mettre en oeuvre une réaction programmée.

Programmation de nanorobots

Ces nanorobots pourraient être introduits dans le système cardiovasculaire pour une durée déterminée, au cas par cas.

L’utilisation de nanorobots programmés pourrait également permettre aux chirurgiens de mettre en évidence et de soigner (au niveau moléculaire) des maladies comme Parkinson ou Alzheimer.

Un autre secteur de la santé, peu développé aujourd’hui, pourrait bénéficier des nanotechnologies: c’est celui de la régénération cellulaire. La création de nanomatériaux capables de stimuler la régénération de tissus biologiques et notamment cartilagineux, laisse entrevoir des pistes prometteuses dans le traitement de l’arthrite, par exemple.

Ces nanomatériaux permettraient également la culture in vitro d’organes ou de biomatériaux favorisant la régénération osseuse.

Enfin, un secteur qui pourrait voir sa dimension évoluer dans les années qui viennent est celui des implants. Tout d’abord pour une question de taille. Les nanomatériaux offrent la possibilité d’équiper le corps humain d’implants miniaturisés, et avec des propriétés de biocompatibilité et d’intégration dans les tissus très améliorées par rapport à ce qui se fait aujourd’hui.

La facilité avec laquelle certaines nanoparticules passent les barrières membranaires (peau, poumons, appareil digestif), offre des possibilités de diffusion et d’absorption qui facilitent leur usage.

Développer un nanorobot universel

C’est ce qu’on constate pour les nano-applications: ces dispositifs miniatures introduits dans le corps humain permettent le traçage, le diagnostic ou la distribution d’un médicament sans manipulation ou exposition du patient. Et c’est là que se situe un enjeu majeur des prochaines années.

Est-il possible de développer un nanodispositif unique et universel qui permettra de suppléer l’imagerie médicale, et d’adapter une réponse en fonction d’un diagnostic qu’il aura préétabli ?

Au-delà des dangers liés à l’exposition à des nanoparticules, les promesses des nanotechnologies pour notre santé posent la question suivante. Comment va s’établir la frontière entre la préservation de la santé d’un côté, et l’amélioration de nos capacités existantes d’un autre côté ?

Cette question fait déjà l’objet de nombreuses réflexions éthiques. Bien que pour le moment la question principale reste celle des coûts et de la difficulté à généraliser les techniques développées pour le moment.

Les nanotechnologies: une arme décisive pour guérir les cancers ?

Nul besoin d’énumérer les chiffres qui font du cancer la maladie du siècle. Malgré la quantité de fonds investis depuis plusieurs décennies, l’efficacité de la prévention et du traitement des cancers reste à améliorer. Au minimum. Et pour cause: Aujourd’hui, un homme a une chance sur deux de développer un cancer au cours de sa vie. On descend à une chance sur trois pour les femmes.

La chimiothérapie constitue à l’heure actuelle le traitement le plus efficace et le plus répandu.

Le problème, c’est qu’elle délivre des substances dans l’organisme qui détruisent les cellules cancéreuses en affaiblissant considérablement l’organisme.

C’est la que la recherche sur les nanotechnologies pourrait changer la donne, en permettant d’adresser les médicaments directement aux cellules infectées, via un procédé de vectorisation. Le traitement gagne en efficacité et surtout, le patient ne souffre pas des effets secondaires induits par la chimiothérapie classique.

Comment se réalise cet adressage ? En grande partie grâce aux conditions d’environnement différentes entre une cellule saine et cancéreuse. En effet, au niveau d’une tumeur, l’environnement est plus acide qu’autour de cellules saines. Les cellules tumorales sont aussi constituées de marqueurs biologiques spécifiques, qui permettent le ciblage.

Aujourd’hui, trois nanoparticules constituent d’excellents candidats pour le transport des molécules médicamenteuses: les liposomes, les nanocapsules et les nanosphères.

Les promesses des nanoparticules d’or

On utilise également des nanoparticules d’or, qui peuvent remplir plusieurs fonctions.

La première et la plus prometteuse des applications à base de nanoparticules d’or est la photothermie. L’idée est d’injecter des particules d’or dans la circulation sanguine du patient. Ces nanoparticules vont préférentiellement se fixer sur les cellules cancéreuses. Ensuite, on applique sur les nanoparticules une lumière laser à une fréquence précise, ce qui les échauffe. Cet échauffement créé des lésions irréversibles au niveau de cellules tumorales et donc leur destruction. Ce type de traitement permet d’atteindre des zones sensibles (cou, cerveau, poumons) avec une efficacité sans commune mesure avec les chimiothérapies actuelles.

Seconde application, dont nous avons parlé plus haut: le transport de molécules thérapeutiques. Recouvertes de molécules permettant un adressage le plus précis possible, les nanoparticules d’or transportent les médicaments jusqu’aux cellules tumorales. Après chauffage au laser, les nanoparticules larguent leur contenu médicamenteux. Cette technique n’a pour le moment été testée que sur des cellules de culture et des animaux, avec succès.

Enfin, les nanoparticules d’or sont l’objet de recherches pour l’aide à la radiothérapie. La radiothérapie consiste à bombarder les cellules tumorales de rayons ionisants pour détruire leur ADN. Les nanoparticules d’or, en s’accumulant sur les cellules cibles, vont multiplier l’effet des rayons ionisants, améliorant l’effet de la radiothérapie localement, en l’occurence au niveau des tumeurs.

Même si les promesses engendrées par les applications potentielles autour de l’utilisation des nanoparticules d’or sont nombreuses, ce n’est pas demain que ces dernières seront généralisées dans les hôpitaux, puisque les phases de recherche sur ces techniques ne sont pas encore terminées.

La médecine, cocon de l’innovation nanotechnologique

Les quantum dots

Le quantum dot ou boite quantique est une nanostructure de semi-conducteurs. Ces nanocristaux présentent des propriétés de fluorescence qui intéressent les chercheurs, pour l’imagerie cellulaire notamment. En effet, ils émettent un signal très lumineux et stable dont la couleur varie en fonction de leur taille. Aussi, ces quantum dots ont la capacité d’émettre dans l’infrarouge, ce qui permet la visualisation de tissus très profonds.

Bio-puces à ADN

La bio-puce à ADN est un ensemble de molécules d’ADN fixées en rangées ordonnées sur une petite surface qui peut être du verre, du silicium ou du plastique. Autour de ce concept, un ensemble de techniques font l’objet de recherches: l’idée est d’analyser à la plus petite échelle possible les cellules ainsi que les protéines. Les chercheurs développent également en parallèle des biopuces à ADN des puces à cellules et des puces à protéines.

Dans la même veine, les nanoparticules fonctionnalisées permettent le marquage biologique – in vivo et in vitro – d’autres objets biologiques.

Enfin, ces nanostructures sont également des sondes à l’échelle de l’ADN, participant ainsi au développement exceptionnel que connaît la génomique, le diagnostic génétique ou immunologique.

L’imagerie moléculaire

Cette technique pourrait permettre de déceler les tumeurs à un stade impossible à imaginer aujourd’hui. En effet, l’imagerie optique de fluorescence permet d’envisager le ciblage et la détection précise d’organes ou de cellules spécifiques, comme des cellules cancéreuses.

Autre application de cette technologie, le guidage des biopsies ainsi que de certains gestes chirurgicaux.

On estime qu’avec des nanoparticules de 5 à 10 nanomètres il sera bientôt possible d’explorer les cellules avec une finesse jamais atteinte.

Les implants

Les nanotechnologies permettent la mise au point d’implants miniaturisés qui donnent à ce dernier un champs d’action nouveau.

Prenons l’exemple récent d’un pansement articulaire mis au point par une équipe de chercheurs de l’Inserm. Ces derniers ont développé un implant ostéoarticulaire capable de régénérer une articulation endommagée. Comme un pansement. Il se compose de deux couches successives:

  • La première sert de support comme dans un pansement classique, elle est composée de nanofibres de polymères et de petites vésicules contenant des facteurs de croissance en quantités similaires à celles que nos cellules sécrètent elles-mêmes.
  • La seconde est une couche d’hydrogel chargée d’acide hyaluronique et de cellules souches provenant de la moelle osseuse du patient lui-même, ce sont ces cellules qui, en se différenciant en chondrocytes (cellules qui forment le cartilage) vont régénérer le cartilage de l’articulation.

On imagine bien la révolution que cette technologie pourrait constituer pour le traitement des maladies articulaires.

Bien d’autre innovations, et notamment le développement des nanobiotechnologies, laissent entrevoir aux chercheurs des avancées importantes. On peut citer par exemple la Résonance Plasmonique de Surface (SPR), pour mesurer les interactions moléculaires, ou encore la PCR, qui permet la quantification d’acides nucléiques.

Nanotechnologies et agroalimentaire: ça s’emballe !

Le contrôle de la matière à l’échelle du nanomètre a permis de faire émerger les propriétés inconnues jusqu’alors de certains matériaux. Mais l’utilisation des nanomatériaux dans l’agroalimentaire, porteuse d’espoir, induit des problématiques sanitaires et environnementales.

Les nanoparticules sont utilisées depuis longtemps par le secteur agroalimentaire, soit parce qu’elles sont naturellement présentes dans certains aliments (le lait par exemple), soit en tant qu’additifs (c’est le cas de la sillice). Pour autant, les applications commerciales des nanotechnologies dans les aliments sont aujourd’hui rares. Notamment parce que les normes de mise sur le marché restent drastiques, en Europe en tout cas, comme le précise le ministère de l’agriculture : « Les denrées alimentaires nanoparticulaires ou contenant des nanoparticules sont considérées comme des nouveaux aliments, du fait que le procédé de production n’est pas couramment utilisé et qu’il entraîne des modifications significatives dans la structure des aliments. Ces denrées sont donc soumises aux exigences de la réglementation européenne relative aux nouveaux aliments et aux nouveaux ingrédients alimentaires (règlement (CE) n° 258/97 – remplacé par le règlement (UE) 2015/2283 en 2018). Ces denrées ne peuvent être mises sur le marché sans obtention d’une autorisation, autorisation donnée suite à une évaluation de ces denrées ».

Pour autant le potentiel pour l’alimentation est énorme. Les possibilités pour améliorer notre nutrition prouvées. Par exemple, on sait que le corps absorbe plus facilement les nutriments, vitamines, enzymes lorsqu’ils sont encapsulés. On imagine facilement à quel point la mise en place des ces technologies sur le marché révolutionnera notre façon de nous nourrir, et de nourrir la planète.

En ce qui concerne les emballages, la réglementation est différente: « Pour les matériaux au contact des denrées alimentaires, le règlement (CE) n°1935/2004 prévoit que tous les matériaux utilisés respectent le principe d’inertie. De plus, pour les matières plastiques en contact avec les denrées, la réglementation précédente est complétée par un règlement dédié (règlement (UE) N° 10/20111) qui prévoit des exigences supplémentaires. Les constituants des plastiques – dont les constituants nano- doivent être autorisés, et des limites de migrations vers l’aliment sont fixées ». Dans le cas des emballages, il y a nécessité de respecter un équilibre entre la toxicité du produit et sa vitesse de diffusion dans la nourriture. Classique. Mais les possibilités qu’offrent les nanotechnologies pour révolutionner le secteur de l’emballage font l’objet de recherches et des applications sont déjà sur le marché.

Les emballages «améliorés»

Aux Etats-Unis par exemple, certains fabricants de bière incorporent dans les matériaux des canettes des nanoparticules qui permettent à la fois d’empêcher que du gaz ne s’échappe de la canettes ou que de l’air n’y rentre. Cette technique permet de préserver la saveur de la bière qui fait la qualité du produit. On parle d’emballage amélioré.

On utilise également beaucoup les nanoparticules d’argile, qui présentent des propriétés – imperméabilité à l’air et à l’humidité – idéales pour améliorer la qualité des emballages et in fine la préservation des aliments. On évalue le “gain de perméabilité” de l’emballage à 75% quand on y ajoute des nanoparticules d’argile.

Question solidité, ce sont les nanotubes de carbone qui ont la côte. Ils renforcent la solidité de l’emballage en améliorant ses propriétés élastiques.

Les axes d’améliorations sont nombreux, mais on peut dégager trois tendances :

  • L’amélioration de la solidité des emballages;
  • Recherche de légèreté des emballages;
  • Résistance à la chaleur, à l‘humidité et à l’air.

Aussi, ces innovations pourraient s’inscrire dans une démarche plus durable. En effet, une meilleure résistance des emballages permettrait d’en produire des plus fins, et donc d’économiser sur la matière première et sur les coûts de transport et de stockage. De plus, l’amélioration de la qualité des emballage permettrait de se passer des habituels processus de fabrication secondaires aujourd’hui utilisés, et qui sont très énergivores et polluants.

Les plus belles innovations du salon Vivatech

Promu comme le rendez-vous mondial des start-up et de l’innovation, rien de moins, le salon Vivatech, dont la quatrième édition s’est achevée samedi dernier, a rencontré un vif succès : d’après le décompte officiel, 124000 visiteurs se sont rendus à la Porte de Versailles à Paris durant ces trois jours. Soit une hausse de 24% de la fréquentation. Mais un événement aussi dense, accueillant plus de 13000 start-up, aurait mérité une organisation spatiale plus logique. N’aurait-il pas été préférable que les produits et solutions présentés soient regroupés par thématique technologique (IA, robotique…) ou secteur-métier (santé, fintech, énergie, transport…) ? Au contraire, Vivatech laissait l’impression d’un dédale, sans fil rouge, où de grands groupes ayant déjà peu en commun (LVMH, Citroën, Google, Engie et tant d’autres) battaient pavillon à côté de régions françaises désireuses de montrer les «poulains» qu’elles soutiennent. Pour les visiteurs, la lisibilité était loin d’être optimale, et certaines start-up n’ont peut-être pas obtenu la visibilité qu’elles cherchaient. Les organisateurs auront le temps, d’ici à l’an prochain, de réfléchir à quelques aménagements au profit de tous.

Les solutions : neuf innovations à retenir

Pour le transport

  • Aeromobil, le véhicule hybride air/sol

La plupart des salons ont leur lot d’attractions spectaculaires et l’Aeromobil fait assurément partie de celles-là. Inventée par la société slovaque du même nom, cet engin long de près de 6 mètres roule sur les chaussées traditionnelles mais peut aussi déployer ses ailes et emprunter la voie des airs, à la manière de la fameuse Citroën de Fantomas. Le passage d’une configuration à l’autre s’opère en trois minutes. L’Aeromobil bénéficie d’un habitacle fabriqué en fibres de carbone et d’un réservoir de 90 litres, offrant une autonomie de 100 km en mode routier et de 750 kilomètres en mode aérien. C’est la quatrième version d’un projet débuté en 2010 et disponible en pré-commande, à un prix voisin de 1,5 million d’euros.

  • Urmo, le gyropode pliable

D’origine allemande, Urmo est un gyropode qui se veut pratique : il se plie et se déplie en deux secondes. Une fois plié, il se transporte à la main, grâce à la poignée centrale, ou se range facilement dans un coin. La version finale, dont la commercialisation est prévue d’ici à la fin de l’année, devrait accuser un poids de 7 kg seulement. La batterie se recharge en 45 minutes et assure 20 kilomètres d’autonomie (en fonction du poids de l’utilisateur, du dénivelé du parcours, etc.). La vitesse de pointe est annoncée à 18 km/h. Les pneus, en caoutchouc souple, ont l’avantage d’être increvables.

  • Hyper poland, le train à hyper-vitesse en trois étapes

Issue des universités de Varsovie et de Wroclaw, l’entreprise polonaise Hyper Poland élabore des techniques pour améliorer graduellement la vitesse du transport ferroviaire, jusqu’à envisager les 1200 km/h, la valeur-étalon du projet Hyperloop de SpaceX. Première étape : la modernisation de la voie ferrée existante, par l’ajout de rails magnétiques et de moteurs linéaires, pour l’obtention d’une vitesse de 300 km/h. Deuxième étape : «tuber» cette voie ferrée pour maintenir une atmosphère à basse pression, afin de doubler la vitesse. Troisième et dernière étape, la plus complexe : construire une nouvelle infrastructure pour multiplier à nouveau les performances par deux. La dernière levée de fonds (plus de 200000 € via financement participatif) servira à développer des prototypes, avant la mise sur le marché prévue en 2022.

Pour préserver l’environnement

  • Showair, le lampadaire qui purifie l’air

Pour s’implanter dans la Smart City, la société parisienne Tohar a mis au point le lampadaire autonome Showair. Celui-ci est équipé de capteurs pour mesurer l’indice de particules fines (PM10/2.5), d’un écran tactile pour informer les passants et d’un système de filtration voire d’humidification en option (par récupération d’eau de pluie) pour assainir l’air. L’énergie, stockée dans une batterie, provient d’un panneau solaire de 50 ou 160 watts, selon la version du lampadaire (4,5 ou 7,5 mètres), qui alimente également l’éclairage LED de 35 lux. Les collectivités intéressées peuvent acquérir directement Showair ou opter pour la location avec option d’achat ou longue durée. Tohar est en discussion avec la mairie de Bondy (Seine-Saint-Denis).

  • b:bot, le broyeur de bouteilles plastiques

Conçue par la start-up Greenbig, la machine b:bot collecte, trie et broie les bouteilles plastiques en vue de leur recyclage. Chaque bouteille déposée est analysée par l’intermédiaire d’un lecteur de code-barres et d’une série de capteurs qui détermine sa taille, son poids, etc. Elle est ensuite déchiquetée et stockée dans le bac adapté à la nature du plastique : incolore ou coloré. Quelque 75 kg de matière peuvent ainsi être recueillis, soit l’équivalent de 3000 bouteilles. Le produit ainsi obtenu est mieux valorisé dans les filières de recyclage (600 € contre 200 € la tonne) et les coûts seraient divisés par trois, comparés à ceux d’une classique solution de compactage. A titre incitatif, des bons d’achat ou des points sur la carte de fidélité sont délivrés. Seize machines seront déployées d’ici à juin dans des super et hypermarchés d’Ile-de-France, de Normandie et des Hauts-de-France.

  • Hydraloop, le recyclage des eaux grises

Œuvre d’une entreprise néerlandaise, Hydraloop désinfecte les eaux grises du foyer, typiquement les eaux provenant de l’évacuation de la douche et de la baignoire, en vue de les recycler dans la chasse d’eau, la machine à laver ou l’arrosage du jardin. Selon le fabricant, qui se base sur une consommation quotidienne de 133 litres par personne, 63 litres pourraient ainsi être recyclés. Ce traitement des eaux usées fait l’économie d’un filtre et repose notamment sur des processus de décantation, un bioréacteur et des ultra-violets. Deux versions sont disponibles, avec ou sans collecte des eaux de la machine à laver. L’installation d’Hydraloop s’envisage dans un projet résidentiel neuf ou une grosse rénovation.

Pour améliorer le quotidien

  • Trooper, l’assistant-robot des horticulteurs

Les horticulteurs et les pépiniéristes gèrent des parcs de plusieurs milliers de pots qui, selon la saison, doivent être resserrés, éloignés les uns des autres ou transférés sur un autre lit de production. Ce sont des tâches laborieuses que le robot Trooper, réalisé par Instar Robotics, se propose d’accomplir à la place du personnel saisonnier. Ce robot de 40 kg, tout-terrain, est muni d’un préhenseur, pour se saisir des pots (10 kg max), et d’un magasin interchangeable où il stocke les pots temporairement en vue de les déplacer d’un point à l’autre. Il navigue grâce à l’action combinée du GPS, d’un Lidar et d’un accéléromètre et met en œuvre des algorithmes de «machine learning» pour affiner la détection d’objets. La batterie, interchangeable à chaud pour la continuité de service, assure une autonomie entre 8 et 10 heures. Objectif : déplacer 250 pots à l’heure. Trooper sera expérimenté en conditions réelles à partir d’octobre, avant sa commercialisation prévue l’an prochain.

  • HMT, l’exosquelette qui répartit les efforts

Travailler les bras en l’air finit par être éprouvant, à plus forte raison pour les techniciens et ouvriers dont le métier les y contraint. C’est pour les soulager que la start-up HMT (Human mechanical technologies) a créé ce dispositif d’assistance physique, qui répartit la charge et les efforts sur le bas du corps. La sollicitation des épaules serait ainsi de 30 à 40% moindre. Cet exosquelette est passif (sans moteur) et fabriqué en aluminium, par souci de légèreté. Il est actuellement testé à Moissac (Tarn-et-Garonne) par les techniciens d’Enedis et se montre utile pour les opérations de maintenance sur les lignes à haute tension et pour la préparation de nouveaux chantiers. HMT cible d’autres filières, comme l’industrie pharmaceutique, l’aéronautique et le BTP.

  • Urgo Night, pour réapprendre à dormir

Mieux dormir, ça s’apprend. Plus exactement, cela nécessite de préparer son cerveau, un rôle attribué à ce casque et à son application mobile, développés par le groupe Urgo. Le principe consiste à stimuler la production des ondes cérébrales qui favorisent l’endormissement et protègent le sommeil contre les perturbations extérieures. Le casque, qui ne se porte pas la nuit, est l’instrument de mesure qui permet d’estimer les progrès. En fonction de ces données, l’application mobile propose quant à elle une série d’exercices personnalisée. A raison d’un entraînement régulier de trois sessions par semaine, les premiers résultats positifs se feraient sentir au bout de trois mois. Technique courante utilisée dans certains centres spécialisés du sommeil, le «neurofeedback» devient ainsi accessible au grand public. Des essais cliniques d’Urgo Night ont débuté en France et aux Pays-Bas, avant le lancement commercial l’an prochain.

L’impression 3D devient plus rapide grâce à la lumière

À l’origine, on considérait l’impression 3D comme une excellente technique de prototypage “rapide” et de production de pièces plastiques en très petite série. Mais les choses évoluent très vite dans ce domaine : il existe désormais des imprimantes 3D industrielles capables d’imprimer non seulement des polymères, mais aussi des métaux, des céramiques et même des composites, bref toutes sortes de matériaux dont la liste ne cesse de croître.

Impression 3D : une famille nombreuse

La famille des procédés de fabrication additive est déjà extrêmement fournie : frittage laser à partir de poudres polymères (SLS), métalliques ou céramiques, polymérisation d’un gel polymère, dépôt de fils fondu (FDM)… la liste est longue. Mais ces procédés ont tous un point commun, ils ne sont pas réellement de l’impression 3D, mais plutôt un empilement de couches 2D. Cette caractéristique a deux inconvénients : d’une part l’adhérence entre ces couches est rarement excellente et d’autre part cet empilement successif prend énormément de temps.

Comment gagner en rapidité d’impression ?

Plutôt que d’imprimer couche par couche, la solution idéale serait donc de créer directement la pièce en trois dimensions. Plus facile à dire qu’à faire ! C’est pourtant ce qu’a réussi à réaliser une équipe de chercheurs de l’université du Michigan. Leur méthode d’impression consiste à solidifier une résine liquide photopolymérisable contenue dans une cuve. Le fond de la cuve est rendu transparent grâce à une vitre qui laisse passer la lumière créée par deux sources lumineuses de longueurs d’onde différentes (cf. Figure ci-dessous).

Schéma de principe du procédé d’impression 3D par photopolymérisation /photoinhibition (Université du Michigan, licence CC BY-NC)

Ces deux sources lumineuses ont ainsi deux fonctions opposées : alors que la première longueur d’onde a pour rôle d’initier le processus de polymérisation de la résine, la deuxième source lumineuse sert à inhiber la polymérisation autour de la vitre. C’est donc grâce à cette deuxième source que le procédé reste sous contrôle et c’est à elle que l’on doit l’originalité de cette technique.

Vers l’impression 3D en continu

Une telle technique laisse enfin entrevoir la possibilité de faire passer la fabrication additive au stade de production industrielle, c’est-à-dire en continu. Pour prouver que cet objectif n’était pas hors de portée, les chercheurs ont d’ailleurs publié la formule permettant de calculer la vitesse maximum d’impression en continu de leur système. Cependant, la vitesse théorique est difficilement atteignable en pratique à cause de la persistance de radicaux inhibiteurs et de la forte viscosité de la résine. Néanmoins les travaux qu’ils ont réalisés sont plutôt encourageants puisqu’ils ont tout de même réussi à imprimer des motifs simples à une vitesse linéaire de 2 m/h.

Fabrication additive volumétrique par reconstruction topographique

Cette équipe n’est pas la seule à travailler sur l’impression 3D volumétrique. En effet, des chercheurs de l’université de Californie, à Berkeley, sont en train de développer un procédé utilisant la lumière d’un projecteur contrôlé par ordinateur. Cette fois-ci il s’agit de projeter des images en deux dimensions à travers un gel photosensible dans une cuve en rotation. L’avantage de cette technique est de s’affranchir du problème de la viscosité de la résine liquide, puisqu’il n’y a pas d’autres mouvements mécaniques que celui de la rotation de la cuve. Par conséquent, cette autre technique permet d’utiliser des matériaux à viscosité très élevée, jusqu’ici inutilisables par les procédés classiques.

Le domaine de l’impression 3D est en perpétuelle évolution et ces deux exemples prouvent que les capacités des machines qui seront commercialisées dans le futur n’ont pas fini de nous surprendre.

Image de une : © YouTube, Michigan Engineering

En Islande, des scientifiques minéralisent le CO2

Les scientifiques islandais expérimentent une nouvelle façon de limiter les émissions de CO2 dues aux activités humaines. Pour cela, ils captent le CO2 en sortie des usines pour le stocker dans de la roche. Nommée CarbFix, l’expérimentation est menée par des chercheurs basés dans le massif volcanique Hengill, non loin de Reykjavik, la capitale du pays. Plus précisément, il est question d’injecter le dioxyde de carbone dans du basalte, une roche très poreuse. Une telle opération mènerait alors à la pétrification du CO2.

La séquestration du dioxyde de carbone est un phénomène qui existe dans la nature, mais qui est très lent. L’opération peut effectivement prendre des millénaires. C’est sur ce point que les scientifiques ont réalisé une prouesse technique : ils ont recréé ce processus en seulement deux ans. « Grâce à cette méthode, nous changeons radicalement l’échelle du temps », déclare la géologue Sandra Ósk Snaebjörnsdóttir. De son côté, le géochimiste Sigurdur Gislason, participant à l’essai pilote, se félicite des résultats obtenus. Interrogé par l’AFP, il explique qu’« il s’agit de la forme la plus stable et sécurisée de stockage du CO2 ».

Minéraliser le CO2 : une piste sérieuse

La solution islandaise serait très avantageuse et efficace car une fois stocké, le CO2 ne pourrait pas s’échapper du basalte. Une autre option possible pour stocker le CO2 aurait été de l’envoyer au fond des océans. Dans ce cas, le dioxyde de carbone pourrait également se pétrifier, mais le processus prendrait plusieurs centaines d’années. Or, le temps presse. C’est pourquoi le GIEC (Groupe d’experts intergouvernemental sur l’évolution du climat) prône le développement du stockage du CO2 dans les sous-sols terrestres pour espérer limiter le réchauffement climatique à +1,5°C maximum d’ici à 2100.

Depuis 2007, des ingénieurs de Reykjavic Energy et des chercheurs du CNRS, ainsi que des universités de Columbia et d’Islande, travaillent de pair pour mener à bien ce projet. Le dioxyde de carbone que ces scientifiques ont réussi à stocker dans le basalte provient de la centrale géothermique de Hellisheidi, au sud-ouest de l’Islande. Il a été acheminé via des pipelines jusqu’au massif de Hengill. Le CO2 est alors dissous dans de l’eau, puis injecté dans du basalte enfoui à un kilomètre de profondeur. C’est la réaction chimique entre le gaz et le calcium, le magnésium et le fer contenus dans le basalte, qui permet de parvenir à la solidification du CO2. Une fois le processus terminé, les petits cristaux calcaires blancs apparaissent dans le basalte sombre, preuve du succès de l’opération.

Quelques ombres viennent cependant ternir le tableau. Bien qu’ingénieuse, cette solution est très gourmande en eau. En effet, pour injecter dans la roche une tonne de CO2, il faut utiliser 25 tonnes d’eau désalinisée. De plus, en l’état actuel, cette solution de séquestration géologique du CO2 ne permet pas d’être considérée comme une option d’envergure pour lutter contre le dioxyde de carbone. Aujourd’hui, CarbFix permet de diminuer de 30 % les rejets de CO2 dans l’atmosphère de la centrale géothermique. Mais ces 12.000 tonnes de dioxyde de carbone enfouies dans le basalte sont encore dérisoires, ne serait-ce que par rapport aux émissions annuelles des volcans islandais. Chaque année, ils émettent jusqu’à deux millions de tonnes de CO2.

Challenge Industrie du Futur : les votes sont ouverts !

Le Challenge Industrie du Futur a pour objectif de favoriser le lancement de solutions innovantes dans l’industrie 4.0 et d’accroître le potentiel technologique de l’usine de demain.
Organisé par ArianeGroup, Atos, SKF en partenariat avec Techniques de l’Ingénieur, ce challenge est aussi pour vous l’occasion de découvrir les 20 solutions innovantes proposées par les finalistes et surtout de choisir celle qui vous semble la plus prometteuse.

Les 20 finalistes ont été sélectionnés parmi les 200 candidatures venues du monde entier, dans les 7 thématiques suivantes : la cybersécurité, la data science, l’usine connectée, l’humain au centre de l’usine, l’écologie dans l’industrie, les matériaux et les procédés du futur.

Le 6 juin, la grande finale permettra à ces startups de pitcher devant un jury composé des dirigeants d’ArianeGroup, Atos, SKF, du Campus de l’Espace et de Techniques de l’Ingénieur. Ils annonceront les 5 lauréats qui se verront décerner 5 prix distincts.

En avant-première, vous pouvez donc découvrir leurs présentations (lien ci-dessous) et voter pour votre « Coup de cœur ». Les votes sont ouverts en ligne jusqu’au 5 juin.  Ils seront complétés par ceux du public assistant aux picths lors de la finale, le 6 juin sur le Campus de l’Espace.

A l’issue de cette finale, le lauréat de la catégorie « Coup de coeur » recevra le prix « Techniques de l’Ingénieur – Campus de l’Espace », lors d’une cérémonie en présence de Sébastien Lecornu, Ministre auprès de la ministre de la Cohésion des territoires et des Relations avec les collectivités territoriales.

Retrouvez les liens vers les articles et vidéos sur tous les finalistes :

Prix Atos :

Cybersécurité :

  • Awen Collective (GBR) : Suite logicielle permettant de réduire les coûts des cyber menaces impactant les usines et les infrastructures nationales critiques.
  • QuantiCor Security (DEU) : Solution de cybersécurité pour l’IoT permettant de résister aux attaques d’ordinateur quantique.

Datascience :

  • GreenTropism (FRA) : Composants logiciels et algorithmes basés sur l’intelligence artificielle indépendants des capteurs pour analyser la composition et la qualité de la matière en temps réel.
  • Panga (FRA) : Building Network Operating System dédié à la gestion des bâtiments & infrastructures, basé sur une architecture en Edge & Swam Computing.
  • Mechanica AI (NL) : Exploitation des données industrielles pour améliorer l’efficacité de la production grâce au machine learning et à l’intelligence artificielle

Prix SKF

Matériaux du futur :

  • Carbon Waters (FRA) : Dépôt de graphène pour améliorer la résistance à la corrosion, la régulation thermique ou la conductivité électrique.
  • NanoPrint (DEU) : Dépôts de couches nanométriques de molécules de matériaux conducteurs détectant et corrigeant les matériaux en surfaces.
  • SolCold (ISR) : Revêtement de nano matériau régulant naturellement la température sans apport d’énergie.

Procédés du futur :

  • Cevotec (DEU) : Solution de placement automatique de bandes de fibres composites en 3D sur des surfaces complexes.
  • Castor (ISR) : Outil d’aide à la décision pour la conception de pièces réalisées en impression 3D ou en usinages conventionnels.
  • EMSProto (FRA) : Plateforme web associée à une ligne de production pour le chiffrage et le prototypage rapide de cartes électroniques.
  • SES Imagotag (FRA) : Venant du monde du retail, l’affichage digital sur étiquette est utilisé pour la signalétique dynamique dans l’entrepôt & pour l’information au poste de travail.

Prix ArianeGroup

L’écologie dans l’industrie :

  • Holipresse (FRA) : Holipresse est une machine modulaire permettant de fondre du plastique et de l’injecter dans des moules grâce à la force manuelle afin de fabriquer des objets en petites séries à partir de plastiques broyés (recyclage) ou en granulés.
  • Otonohm (FRA) : Une solution dédiée aux professionnels pour charger & alimenter les appareils électriques, intégrant les fonctions de charge et de convertisseur. Une batterie s’adaptant à la tension d’entrée ou/et de sortie, voulue plus légère et mobile.

L’humain au centre de l’usine :

  • Simsoft Industry (FRA) : Assistant vocal intelligent dédié à l’industrie, qui met en œuvre des technologies de synthèse et de reconnaissance vocale, de dialogue, d’intelligence artificielle, de rendu graphique 2D et 3D, de fouille de données .
  • KypSafe (FRA) : Une solution connectée et intelligente permettant de géolocaliser et prévenir, en temps réel, les techniciens dès qu’ils se trouvent dans une zone de danger potentiel ou non-autorisée.

L’usine connectée :

  • InBolt (FRA) : Module intelligent, à mettre sur chaque outil de serrage (clés, tournevis), capable de se repérer et de proposer automatiquement les consignes de serrage adaptées.
  • WH Monitoring (FRA) : Solution permettant de mesurer en 4D et d’interpréter les vibrations , pour la maintenance prédicitive, le design et l’opérabilité des structures.
  • CoreTigo (ISR) : Solution de communication sans fil sécurisée entre capteurs, actionneurs et unités de mesure, basée sur le protocole IO-Link Wireless.
  • Saagie (FRA) : Solution bout-en-bout qui orchestre des technologies Big Data pour automatiser le déploiement d’applications analytiques et d’IA à grande échelle.

Un nouvel herbicide d’origine naturelle

Ce composé est produit par les hépatiques, des plantes (mousses) qui pourraient l’utiliser dans leur compétition vis-à-vis des autres espèces végétales. Il pourrait être exploité par l’Homme pour son effet herbicide. Ces résultats sont publiés dans la revue Chemistry A European Journal le 29 avril 2019.

La chimie de synthèse a permis de rendre la radulanine A facilement disponible pour les scientifiques alors qu’il aurait été plus difficile de l’extraire en grande quantité à partir de la source naturelle. Pour identifier son effet, les chercheurs et chercheuses l’ont placée dans le substrat de culture de plantules d’une plante modèle considérée comme une mauvaise herbe en agriculture. Ils ont observé que celles-ci jaunissaient rapidement puis mourraient, prouvant de fait l’effet herbicide de la radulanine A, à une dose active proche de celle du glyphosate, l’herbicide de référence.

Si les potentiels effets toxiques de cette molécule vis-à-vis de l’Homme et de l’environnement n’ont pas encore été testés, celle-ci pourrait avoir un plus faible impact environnemental que les herbicides de synthèse actuellement utilisés.

Une demande de brevet a été déposée. Pour la suite de leurs travaux, les scientifiques envisagent d’étudier les mécanismes de l’effet herbicide de la radulanine A et de mieux cerner les espèces végétales qui en seraient la cible.

Source : www.cnrs.fr

InBolt : serrage digitalisé pour plus de sécurité

En compétition pour le prix ArianeGroup dans la catégorie « L’usine connectée », InBolt fabrique un module intelligent qui contrôle la fiabilité et la traçabilité du serrage des vis et boulons.

Les trois cofondateurs d’InBolt sont partis d’un constat : en moyenne, un avion est composé d’environ 300 000 boulons. Mal serrés, ils peuvent provoquer des dégâts humains et matériels coûteux : un boulon trop serré peut endommager l’assemblage, un boulon pas assez serré peut se dévisser à cause des vibrations. Serrer un boulon avec les bons paramètres, c’est-à-dire ni trop fort, ni pas assez, s’appelle le serrage contrôlé. Mais un tel serrage est chronophage, peu fiable et difficilement vérifiable.

InBolt propose alors un module électronique à fixer sur un tournevis ou une clé dynamométrique qui garantit que le technicien a bien serré toutes les vis et boulons. Le module identifie la vis en face de laquelle se trouve l’outil grâce à des algorithmes de Machine Learning couplés à des capteurs. Il est vendu avec le logiciel d’exploitation des données de serrage enregistrées.

« Nous participons à l’industrie du futur pour deux raisons : d’abord, nous appliquons de la deep tech à des concepts industriels et ensuite, nous replaçons l’expertise humaine au centre du process industriel. Nous ne voulons pas remplacer le technicien, mais simplement l’armer de meilleurs outils », expique Albane Dersy, cofondatrice d’InBolt.

La solution de la jeune entreprise est actuellement en phase de prototypage. InBolt s’adresse d’abord à l’industrie aérospatiale, puis compte se rapprocher des industries automobiles, ferroviaires, navales et nucléaire.

CoreTigo : des solutions de communication sans fil dans l’industrie

En compétition pour le prix ArianeGroup dans la catégorie « L’usine connectée », CoreTigo propose des solutions de communication sans fil pour favoriser l’automatisation des usines.

Avec la quatrième révolution industrielle, les communications entre les machines se développent : robots connectés, entrepôts automatisés, usine du futur etc… Les fondateurs de CoreTigo ont remarqué que la communication filaire ne répondait plus aux besoins des appareils connectés. Les configurations des câblages sont souvent complexes, coûteuses et les câbles peuvent se casser ou se déchirer. Elles ne permettent pas une flexibilité et une mobilité optimales.

La startup fournit alors la première plateforme sans fil pouvant répondre aux demandes contraignantes d’automatisation industrielle.

« CoreTigo est un pionnier pour tout ce qui touche au standard global sans-fil IO-Link dédié à l’automatisation industrielle. Son objectif est de baisser les coûts de déploiement et de maintenance, de toucher plus d’applications, d’améliorer la productivité et de réduire les temps d’arrêt. Nos solutions sont innovantes et uniques, elles s’adressent à des cas qui ne pouvaient jusqu’alors être traités, avec des capacités auxquels les réseaux sans-fils existants n’avaient pas jusqu’alors », explique Gabi Daniely, Chief Strategy & Marketing Officer de CoreTigo.

La startup, qui compte aujourd’hui 15 employés, réalise des essais sur le terrain en Allemagne et au Japon.

WH Monitoring : des capteurs tridimensionnels pour analyser les vibrations

En compétition pour le prix ArianeGroup  dans la catégorie « L’usine connectée », WH Monitoring permet de réaliser l’analyse des vibrations de manière tridimensionnelle. Une solution plus efficace et moins chère que ce qui existe actuellement.

Les fondateurs de la startup WH Monitoring ont constaté que l’analyse des vibrations était souvent très lente et imprécise. Une situation qui oblige les chercheurs à utiliser un grand nombre de capteurs pour limiter les erreurs, malgré le coût de cette solution et sa faible efficacité.

« Les ingénieurs réalisant des analyses de vibrations font face à de multiples problèmes. Parfois le capteur n’est pas installé correctement, parfois il est trop proche ou trop éloigné du nœud de vibrations, parfois les ondes interfèrent les unes avec les autres. Tout ceci fait de l’analyse un procédé compliqué », explique Edgar Grant, cofondateur de WH Monitoring.

L’innovation de leur solution réside dans leurs capteurs, capables de réaliser des mesures et des traitements de façon tridimensionnelle. Cette solution permet d’effectuer des analyses en temps réel. Un faible nombre de capteurs fournissent une quantité d’informations nécessaires pour la maintenance prédictive ou le contrôle qualité.

« L’endroit où sont placés les capteurs ou le nombre d’ondes qui interfèrent ne sont plus importants pour réaliser l’analyse », ajoute Edgar Grant.

Cette méthode réduit les erreurs d’analyse et permet d’éviter les coûts supplémentaires pour les entreprises.

Saagie : une plateforme pour aider les entreprises dans leurs projets IA et Big Data

En compétition pour le prix ArianeGroup, dans la catégorie « L’usine connectée », Saagie propose une solution qui orchestre les technologies Big Data pour automatiser le déploiement d’applications analytiques et d’IA à grande échelle.

Créée en 2013, Saagie avait pour but de conseiller les entreprises dans leur stratégie Big Data et les aider à mettre en place des projets s’appuyant sur l’intelligence artificielle. Le fondateur Arnaud Muller a remarqué que 80% des initiatives Big Data et IA n’arrivaient jamais en production. Il a alors créé une plateforme capable de donner les outils dont les entreprises ont besoin pour mener à bien leurs projets.

Avec la solution Saagie Data Fabric, il propose d’orchestrer des technologies Big Data pour automatiser le déploiement d’applications analytiques et d’IA à grande échelle. La plateforme collecte et traite toutes les données de l’entreprise grâce à des algorithmes. Elle s’adapte également à chaque métier. En passant par la plateforme, les entreprises peuvent accélérer leur transition numérique en améliorant leur parcours client, l’automatisation de leur process Big Data et leur politique de prix.

« Notre solution permet de faciliter la collaboration entre les métiers, l’IT et les équipes data, de déployer plus rapidement les projets data (3 mois contre 18 mois en moyenne) et d’apporter un environnement de production sécurisé, qui respecte les standards du marché », explique Arnaud Muller.

L’entreprise qui compte aujourd’hui 80 salariés commercialise sa solution et travaille avec des clients comme la RATP, Pôle Emploi et la Matmut. Elle se développe également à l’international en Europe et aux Etats-Unis.