Des structures imprimées en 3D contrôlables par champ magnétique

Principe de fonctionnement des actionneurs flexibles magnéto actifs

L’utilisation de champs magnétiques permet une stimulation rapide et à distance d’actionneurs flexibles magnétiquement actifs (cf. exemple d’un actionneur flexible magnétiquement actif, en action). De tels actionneurs peuvent être fabriqués en incorporant des particules magnétiques au sein d’une matrice souple, de type hydrogel ou élastomère. Sous l’effet d’un champ magnétique, les forces et couples magnétiques sont ainsi extraits des particules magnétiques, ce qui provoque une déformation de la structure souple dans laquelle elles sont emprisonnées.

Les domaines magnétiques anisotropes ont généralement tendance à s’aligner avec la direction du champ uniforme appliqué, notamment à cause de perturbations créées par des interactions entre particules, ce qui rend possibles les déformations dans des configurations multiples. Néanmoins, la fabrication d’actionneurs souples, capables de répondre à des sollicitations magnétiques multidirectionnelles reste un challenge. En effet, la réalité est plus complexe, car les domaines magnétiques polarisables sans magnétisme résiduel (rémanence) sont généralement uniquement attirés par la direction positive du gradient de champ magnétique.

Actionneurs multidirectionnels flottant sur l’eau

Pour surmonter ce challenge, l’équipe de chercheurs a conçu une nouvelle classe d’actionneurs magnéto-actifs imprimés en 3D et flottant en surface de l’eau. Ces structures ultrasouples, de forme ondulée sont ainsi capables de se déformer sous l’action combinée des forces magnétiques et capillaires. L’intérêt d’utiliser ces phénomènes de tension de surface est de réduire à leur minimum les forces de frottement qui empêcheraient la structure de se déformer.

Une encre à base de silicone

Le matériau utilisé pour fabriquer ces objets magnéto-actifs est une pâte (HCP), formée à partir de deux composants : des microbilles de polydimethylsiloxane (PDMS) réticulé autour de 20 % de particules magnétiques et un précurseur PDMS liquide (le liant capillaire).

Cette pâte est ensuite transformée en filaments, en utilisant un procédé d’impression 3D par extrusion directe. La structure 3D obtenue est ensuite polymérisée à 80 °C dans un four pour donner un matériau élastique, souple et hydrophobe, ce qui lui permet de flotter à la surface de l’eau.

a) Représentation schématique du procédé d’impression 3D à partir d’une pâte homocomposite capillaire ;
b) Cliché optique de microbilles de 80%m PDMS-20%m particules magnétiques ;
c) Filament homocomposite après impression 3D ;
d) Élongation d’un filament imprimé, sous l’effet d’un gradient de champ magnétique.
Source : https://wol-prod-cdn.literatumonline.com/cms/attachment/8d995ead-b1e3-49c7-bdbb-712abe0b2ad1/admt201800528-fig-0001-m.png

Des applications potentielles

L’équipe de chercheurs a donc réussi à synthétiser et à contrôler magnétiquement des actionneurs souples leur permettant par exemple d’attraper de petits objets flottant à la surface de l’eau. L’application présentée est certes basique, mais elle prouve qu’il est possible de contrôler efficacement une telle structure dans une direction en utilisant un simple électroaimant. Leurs prochains travaux s’orienteront donc sur la fabrication et le contrôle multidirectionnel de structures 2D et 3D.

Plus concrètement, plusieurs applications sont visées, comme la fabrication de structures 3D pour la culture de cellules ou encore la fabrication de robots miniatures se déplaçant à la surface de l’eau à la manière des insectes gerridés.

Sources : https://news.ncsu.edu/2019/01/3d-printed-soft-mesh-robots/

https://onlinelibrary.wiley.com/doi/10.1002/admt.201800528

JNI 2019 : L’innovation dans le domaine du nucléaire

Dans le cadre des JNI 2019, Techniques de l’Ingénieur a réalisé des interviews avec plusieurs des participants au Colloque National organisé au CNAM par l’IESF. Voici la troisième et dernière interview avec Emmanuelle Galichet, maître de conférences en Sciences et technologies nucléaires au CNAM et également responsable du diplôme d’ingénieur en génie nucléaire.

Qu’est-ce que l’innovation dans le secteur du nucléaire ?

Pour moi l’innovation a toujours fait partie du secteur nucléaire car c’est une filière de haute technologie, qui possède un très gros relationnel avec la recherche fondamentale. L’innovation c’est apporter de nouvelles idées technologiques à l’industrie nucléaire. C’est toujours difficile de parler d’innovation dans le nucléaire car pour beaucoup le secteur n’innove pas. Les process et les systèmes doivent être qualifiés par une autorité de sûreté extrêmement forte.

Pour autant, l’innovation est l’idée de base et fait partie intégrante de la filière nucléaire. Quand le CEA (Commissariat à l’énergie atomique et aux énergies alternatives) a été créé, c’était une manière d’innover, d’avoir un vrai partenaire qui développe des technologies innovantes. C’est une des filières industrielles en France qui a la chance de s’appuyer sur un partenaire public pour lequel l’innovation technologique et le transfert vers l’industrie sont des missions fondatrices. EDF, Orano et Framatome sont d’autres leaders du secteur qui possèdent de grands services de R&D. Ces 4 entreprises dépensent 700 M€ annuellement pour la R&D nucléaire et travaillent en commun dans le cadre de la PFN(Plateforme France Nucléaire).

Les nouveaux réacteurs fonctionnent à partir de technologies assez anciennes. Par exemple le process physique de la fission est ancien, mais le secteur a quand même réussi à développer toute une ingénierie technique autour, qui est toujours plus innovante. Notamment quand on parle de l’EPR (réacteur de 3ème génération), c’est un produit innovant par rapport aux réacteurs qui existent en France, que sont les réacteurs à eau pressurisés. Ils ont réussi à innover à pleins d’endroits alors même que le process de base n’a pas changé.

L’innovation a été permise grâce au retour d’expérience d’accidents comme TMI ou Tchernobyl. Aujourd’hui, l’EPR qui se construit à Flamanville intègre l’ensemble du retour d’expérience et c’est de l’innovation. Pour donner un exemple concret, l’EPR a un récupérateur du corium qui n’avait jamais été construit dans les réacteurs actuels.

Nous sommes dans un schéma d’innovation assez traditionnel avec une recherche, un développement, une démonstration et un déploiement industriel. Malgré cela, depuis quelques années, des initiatives d’open innovation voient le jour sur l’ensemble du territoire. La transformation numérique de l’industrie permet des nouveaux modes de collaboration et augmente l’efficacité dans pleins de domaines.

Par exemple, Orano, EDF et le CEA développent des plateformes d’innovation permettant à leurs sous-traitants de laisser des idées, de travailler avec eux. Les maquettes numériques, la réalité virtuelle, le BIM vont permettre un gain important d’efficacité et de sûreté.

Les nouveaux modes d’innovation organisationnelle sont aussi essayés dans le secteur nucléaire. La filière veut travailler ensemble (la PFN regroupe les 4 donneurs d’ordre), et s’organise dans ce sens. Un exemple concret : EDF essaie de travailler en mode entreprise étendue, en organisant depuis cette année des rencontres industries/universités. C’est une initiative que je trouve très innovante, où des chercheurs d’EDF présentent leurs verrous technologiques aux chercheurs universitaires pour les lever.

Enfin, il y a un gros secteur du nucléaire qui est en train de s’ouvrir, c’est le démantèlement et l’assainissement des installations nucléaires. C’est un secteur qui débute et il y aura un besoin d’innovations assez rapidement de manière à diminuer les coûts et à augmenter l’efficacité des chantiers d’assainissement. C’est un des domaines du secteur où l’innovation va être importante. Il y a également le nucléaire du futur où l’on va pouvoir utiliser l’innovation. Nous parlons à une échelle de 50 voire 100 ans. Ce n’est pas une innovation qui va permettre un gain de productivité ou de parts de marché immédiatement .

Comment instruire l’innovation aux élèves ?

Il y a deux points lorsque l’on fait de la formation dans le secteur nucléaire. Il y a les process technologiques et scientifiques. Prenons l’exemple de la fission, c’est de la physique pure. De ce côté-là, nous ne pouvons pas innover énormément puisque ce sont des sciences, et il existe des concepts de base qu’il va falloir inculquer de manière claire. Là où nous pouvons innover, nous en tant que formateurs, c’est sur « comment leur inculquer ? ».

Aujourd’hui nous sommes face à des élèves qui n’ont pas les mêmes attentes que par le passé. Nous devons utiliser l’arrivée des nouvelles technologies de manière importante pour amener les élèves vers la compétence et la connaissance dont ils ont besoin. Nous allons utiliser notamment Internet, la réalité virtuelle, les codes de simulation. Par exemple je monte actuellement au CNAM un Learning Lab où il sera possible d’utiliser toutes les technologies numériques pour former nos futurs salariés du nucléaire à l’ensemble des postes de travail, des process, des gestes qu’ils doivent savoir pour  intégrer cette industrie. Cela peut être simplement la connaissance d’une installation nucléaire en allant la visiter de manière virtuelle. Cela peut être des serious game pour les entraîner à identifier les différentes parties d’un système, d’une installation. Vous pouvez utiliser ces jeux pour entraîner vos apprenants aux bons gestes, aux bons comportements lorsqu’ils sont dans des zones où il y a des rayonnements ionisants.

Tout cela fait partie des nouvelles manières d’enseigner par les mises en situation. Nous utilisons aussi énormément de chantiers écoles grâce à l’INSTN, avec qui nous sommes en collaboration. Le principe repose sur un scénario à dérouler comme s’ils étaient dans une vraie installation. Les travaux pratiques, les mises en situation, les chantier-école font partie de l’innovation dans l’enseignement.

Au-delà du gain de compétences est-ce que cela permet également de développer leur créativité ?

En tant que responsable de formation j’essaye d’essaimer ce sentiment de liberté et de créativité, qui est la base de l’innovation, dans l’ensemble des cours, qu’ils soient théoriques ou expérimentaux. Je demande aux intervenants de les amener à ce questionnement perpétuel qui permet d’avoir de nouvelles idées par de nouvelles questions. Nous faisons souvent des classes inversées (une nouvelle innovation pédagogique), qui sont des moments où vous pouvez laisser les élèves poser l’ensemble de leurs questions parce qu’ils vont aller découvrir par eux même. Cela peut être un cours, un scénario d’étude, des travaux pratiques, toutes ces méthodes peuvent être jouées en classes inversées.

Si vous les laissez découvrir les choses par eux même avant de leur donner la leçon, ils vont pouvoir se questionner seul ou en groupe ce qui permet l’innovation par la diversité de pensée. Il est possible que les questions soit naïves ou peu opportunes mais elles permettent aux élèves d’avancer dans leur cheminement intellectuel. Que ce soit de la physique, des mathématiques ou du management vous pouvez très rapidement faire de la classe inversée. Ce que j’ai fait en plus dans ma formation d’ingénieur, c’est d’inclure un cours de management et de la gestion de l’innovation. Ils vont apprendre ce qu’est l’innovation, comment on l’organise au niveau d’une entreprise, voir comment cela fonctionne dans d’autres industries. Cela leur permet d’avoir de nouvelles idées, de leur montrer que des choses peuvent être faites. Il faut que nos élèves soient préparés au nucléaire du futur.

Est-ce que la diversité peut aider à l’innovation ?

Oui, par exemple, sur les réacteurs du futur il existe un groupement qui s’appelle Génération 4 qui est un groupement international. Nous faisons de l’innovation participative pour réfléchir à des réacteurs du futur avec des innovations de rupture, avec des concepts de filières totalement différentes de ce qui est aujourd’hui en place à travers le monde.

Si nous parlons d’une diversité homme/femme, il est clair que le secteur nucléaire a beaucoup à faire, comme toutes les sciences. Mais le secteur fait beaucoup. Il y a eu une réelle prise de conscience du manque de femme à tous les niveaux dans le secteur nucléaire. L’ensemble des politiques RH est très en faveur des femmes. C’est nouveau et ça ne marche pas trop mal. Elles sont les bienvenues. Notamment, EDF a fait le prix FEM’ ENERGIA par exemple. C’est une initiative d’EDF et de WIN (Women in nuclear) qui est une association de femmes dans le nucléaire. Oui, il y a des actions, des initiatives, des prix importants pour mettre en avant les femmes.

Après la diversité va plus loin. Cela peut-être la diversité dans les parcours, et c’est très important aussi, autant que la diversité homme/femme. Le nucléaire a aussi des progrès à faire sur ce domaine. Aujourd’hui, nous pensons que la diversité des parcours de formation, des écoles et des parcours de vie sont des leviers à l’innovation et sont déterminants pour la productivité et l’efficacité de la filière. Pour donner un exemple, j’ai ouvert ma formation en 2012 et la formation par l’apprentissage n’était pas du tout reconnue dans le secteur nucléaire. Aujourd’hui, le secteur nucléaire est un des secteurs qui emploie le plus d’apprentis en France. La filière a beaucoup changé sur la diversité des parcours.

Maintenant, j’ai une vingtaine d’ingénieurs par an qui en sortent, formés par l’apprentissage et ils sont tous embauchés avant le diplôme, avec les mêmes salaires qu’une école d’ingénieur en formation initiale. Cela veut dire que les entreprises reconnaissent les parcours de formation différents et les intègrent dans leurs équipes. Et ça c’est sûr que ça va aider à l’innovation.

Pour le secteur nucléaire il existe d’énormes challenges dans lesquels la filière nucléaire à un vrai rôle à jouer : la transition énergétique et le mix énergétique du futur, le grand carénage et le développement international. La filière nucléaire est obligée d’innover, et finalement d’avoir des femmes et des hommes, des parcours de formation différents, des visions différentes car cela permet d’aller plus loin.

Une stratégie politique pour un usage soutenable des plastiques

La France a annoncé l’arrêt de toute exploitation d’hydrocarbures et la fin de la commercialisation des véhicules thermiques neufs pour 2040. François-Michel Lambert veut ajouter à cette liste la fin du plastique à base de pétrole. Pour y parvenir et lutter contre la pollution plastique, il souhaite mettre en place une Agence Nationale du Plastique. Elle sera chargée d’accompagner les politiques publiques et les entreprises vers une utilisation soutenable des plastiques.

Mieux réguler l’utilisation du plastique

Le nouveau plastique sera « zéro toxicité » grâce à des polymères biodégradables, sans additifs toxiques. Il sera également beaucoup moins superflu, avec un usage unique réduit à son strict minimum au profit de la réutilisation. Pour y parvenir, la route est longue et les propositions multiples. L’une d’entre elles consiste à créer un « GIEC du plastique et des pollutions chimiques » pour mieux cartographier les sources et impacts des pollutions. À l’instar du WWF, le rapport propose par ailleurs la conclusion d’un traité international d’ici 2025. Il s’agirait ici d’un « traité d’interdiction globale de certains additifs, certaines résines, certains produits constitués de plastiques et que l’on retrouve le plus souvent en mer ».

La Commission européenne prévoit plusieurs d’interdictions d’emballages en plastiques pour diminuer la pollution océanique. Le rapport propose d’aller beaucoup plus loin. Il s’agirait d’interdire tous les 5 ans une nouvelle liste de produits qui se retrouvent dans l’environnement. « En maintenant constamment cette menace, l’impact visé est celui de la prévention par les industriels eux-mêmes qui internaliseront l’objectif de protection de l’environnement », précise le rapport.

Diminuer la pollution plastique

Afin de limiter la libération de fibres et de microplastiques, François-Michel Lambert propose l’instauration d’une nouvelle norme exigeant un filtre à microplastiques pour l’ensemble des machines domestiques et industrielles susceptibles d’en libérer. Il recommande de rendre obligatoire la coopération autour du « 1% déchets » afin d’améliorer les infrastructures de collecte des déchets dans le monde. Il recommande aussi d’interdire l’export de déchets plastiques hors de l’Union européenne pour qu’ils ne se retrouvent plus en grande partie en Asie.

La baisse de la pollution plastique passera par la réutilisation et l’interdiction des plastiques non recyclables. Michel Lambert propose un budget plastique, comme il existe un budget carbone. L’instauration d’une limite de quantité de plastique émise sur le marché français via un marché des droits de commercialisation du matériau permettrait de mettre fin au plus vite aux usages les plus superflus. Une mesure complémentaire vise à taxer la distribution gratuite de tout objet contenant du plastique. En parallèle, l’Agence Nationale du Plastique gérerait les autorisations de mise sur le marché des résines plastiques pour ne commercialiser que les produits recyclables.

En France, selon PlasticsEurope, 91% de la matière première est d’origine pétrosourcée, 8% recyclé et 1% biosourcé. Les accords volontaires ne suffiront pas pour changer de paradigme. Le rapport estime donc qu’ « il est indispensable de contraindre les industriels (producteurs, transformateurs, metteurs sur le marché) à tenir des objectifs ambitieux ». Il propose de rendre obligatoire l’incorporation d’un taux défini de matière première recyclée par usine de production de plastique.

La plus grande carte dynamique de l’Univers : le milliard d’années-lumière enfin atteint !

Voilà cinq ans, notre supercontinent de galaxies, appelé Laniakea, était révélé grâce à l’étude des mouvements de galaxies : les flux cosmiques. Ainsi notre Univers proche était-il cartographié de manière précise mais surtout dynamique. Depuis cette découverte, l’exploration de notre environnement immédiat cosmique était en panne de percée, impossible de voir au-delà de Laniakea. En effet, plus les galaxies sont distantes, plus les erreurs des mesures tendent à empêcher les astrophysiciens de retrouver précisément les positions des galaxies dans l’Univers. Or, sans cartographie précise, il n’est pas possible de calculer les grands flux cosmiques cohérents ni de comprendre les grandes régions de matière noire qui engendrent ces mouvements. La compréhension de cette matière invisible est l’une des deux grandes questions à élucider au 21e siècle pour les cosmologues. L’autre question brûlante concerne l’expansion de l’espace : la distance entre les galaxies ne cesse d’augmenter, et ce de plus en plus vite. Pour quelle raison ? Une mystérieuse énergie sombre pourrait l’expliquer.

Dans l’objectif de fournir une carte de l’Univers toujours plus précise et d’apporter des éléments de réponse à ces deux grandes énigmes, l’équipe d’astrophysiciens, emmenée par Hélène Courtois, chercheure Université Lyon 1 à l’Institut de physique nucléaire de Lyon (IPNL, Université Lyon 1/CNRS), observe chaque année davantage de galaxies grâce aux télescopes géants en Australie, aux USA, en France, etc. Avec au commencement du projet, seulement 2 000 galaxies observées en 2008, puis 8 000 en 2014, ce chiffre s’élevait à 18 000 en 2016 et continue encore d’augmenter. Bien que ces données soient publiquement distribuées à toutes les autres équipes en compétition mondiale, au bout de trois ans,  aucun consortium ne réussissait encore à calculer la cohérence des mouvements des grands continents de galaxies.

Un jeune doctorant lyonnais lance alors l’idée de modéliser les données en amont plutôt que de les analyser a posteriori, et répéter l’analyse des milliers de fois afin d’explorer toutes les erreurs systématiques qui faussent les mesures. Une nouvelle méthodologie made in France est née. Elle nous donne à contempler des cartes de 1/45e de l’Univers observable ! Les nouveaux continents découverts tels qu’Apus, Pisces-Cetus, Telescopium, Lepus, Shapley, Hercules, rejoignent la liste du seul continent précédemment cartographié : Laniakea (voir figure 1).

Les lecteurs peuvent explorer leur univers en zoomant et tournoyant dans la carte interactive disponible ici :

Figure 1 : Deux plans de coupe perpendiculaires, du cube de cartographie de 1 milliard d’années-lumière autour de nous, avec en rouge la localisation de la matière invisible, en noir la position des galaxies connues et les noms des nouveaux continents découverts. Notre Voie Lactée se trouve au centre de ces cartes. © Romain Graziani

La nouvelle carte de l’Univers sera présentée au grand public le 4 avril sur France 5 :
Le film « Voyage sur les flots célestes » retrace la recherche actuelle en cartographie de l’Univers. Les astrophysiciens cosmologues sont des explorateurs aux avant-postes de la technologie, qui ont pour vaisseaux des télescopes toujours plus puissants et spectaculaires, repoussant toujours plus loin les limites de nos connaissances et donnant corps à notre rêve d’infini. De Hawaï à l’Australie, en passant par l’Afrique du Sud, le spectateur embarquera pour une incroyable aventure humaine et scientifique à destination des plus grands sites d’exploration du Cosmos sur la planète et à la découverte des nouveaux défis sur la compréhension de l’Univers. Un voyage sur Terre et dans l’espace à couper le souffle ! Un documentaire de François-Xavier Vives, co-écrit par Hélène Courtois, produit par Camera Lucida en partenariat avec France Télévision (diffusion le 4 avril à 20h50 sur France 5).
• Regarder le trailer : cpbfilms.com/fr/documentaires/voyages-sur-les-flots-celestes

 

Référence de l’article :
The peculiar velocity field up to z ∼ 0.05 by forward-modeling Cosmicflows-3 data R Graziani, H M Courtois, G Lavaux, Y Hoffman, R B Tully, Y Copin, D Pomarède Monthly Notices of the Royal Astronomical Society, stz078, 16 January 2019
https://doi.org/10.1093/mnras/stz078

Source : cnrs

Revue du web #121: les 10 vidéos les plus étonnantes du mois

Speeder, la moto volante

Jetpack Aviation vient de lancer la commercialisation d’une moto volante tout droit sortie d’un film de science fiction. 105 kilos, 4 turboréacteurs, elle peut s’élever à près de 4600 mètres et filer à plus de 240 km/h. Son prix : 380 000 dollars.

 

Q, le premier assistant vocal non genré

Cette voix artificielle a été créée dans le but de « favoriser une plus grande inclusion dans la technologie des assistants vocaux ». Ses créateurs, des chercheurs danois, ont travaillé sur le domaine fréquentiel. Le but : retirer toute intonation caractéristique afin d’aboutir à la neutralité.

 

Biomimétisme : un robot impressionnant  qui nage et qui rampe

Il ressemble à une anguille, ou à une carpe. Son atout : il se sent à l’aise partout. Dans la boue, sur la glace, dans l’eau… Ce prototype de robot tout-terrain se faufile sans aucun souci. Futur sauveteur ?

 

Timelapse : la formation d’un flocon de neige

Quand la science rencontre la poésie…  Le photographe russe Vyacheslav Ivanov a réalisé cette séquence à l’aide d’un simple microscope.

 

Reconstituer en 3D un ancêtre des reptiles pour étudier sa démarche

Une équipe de chercheurs (biologistes et roboticiens) a développé un robot mimétique après avoir réalisé des simulations sur ordinateur. Le but : découvrir la démarche de l’Orobates pabsti qui vivait sur Terre il y a 350 millions d’années. Résultat ? Il se déplaçait comment un caïman.

 

AntBot, le robot-fourmi

Nouvel exemple intéressant de biomimétisme.
Cette fois inspiré des fourmis du désert, ce robot (qui ressemble davantage à une grosse araignée) ne se perd jamais. Son secret :  une boussole solaire qui capte la polarisation de la lumière solaire, l’observation et le comptage des pas, exactement comme les Cataglyphis,

 

Toyota : une voiture pour rouler sur la Lune

En collaboration avec la JAXA (Japanese Aerospace Exploration Agency), Toyota travaille actuellement sur un véhicule capable de rouler sur la Lune avec des passagers à bord. Autonomie visée : 10 000 km.

 

Aéroport : le robot Stan gare votre voiture

En attendant de pouvoir se garer sur la Lune, retrouvons notre classique parking mais, cette fois, avec l’aide du robot-voiturier inauguré à l’aéroport de Lyon. Son travail : nous faire gagner du temps.

 

Un ballon crevé ? Non, un robot à la force plus que décuplée

Ne jamais se fier aux apparences… Ce robot présenté par le laboratoire de recherche du MIT soulève des charges 100 fois plus lourdes que lui.

 

Un méta-matériau qui isole presque totalement du bruit

Révolution acoustique. Des chercheurs de l’Université de Boston ont mis au point un méta-matériau imprimé en 3D qui isole 94% du bruit en renvoyant les sons entrants. Les applications possibles sont bien sûr innombrables.

Par I. B

JNI 2019 : Un parcours vers l’innovation, le cas LUDOCARE

Dans le cadre des JNI 2019, Techniques de l’Ingénieur a réalisé des interviews avec plusieurs des participants au Colloque National organisé au CNAM par l’IESF. Voici la deuxième interview avec Élodie Loisel, co-fondatrice et responsable R&D de LUDOCARE.

Quel a été votre parcours et comment l’idée de créer une entreprise vous est venue ?

Je suis ingénieure généraliste, diplômée de l’INPG. J’ai poursuivi avec un doctorat en biotechnologie et ensuite, j’ai travaillé sept ans dans l’industrie chez bioMérieux. Au cours de mes dernières années chez bioMérieux, j’allais chercher l’innovation à l’extérieur de l’entreprise, étant donné qu’une grosse structure ne peut pas être aussi agile qu’une petite startup. J’étais donc mentor de startups lors d’événements comme BigBooster. Lors d’un startup weekend, j’ai rencontré mon futur associé qui est venu avec la problématique de l’observance et nous avons gagné ce startup weekend. Cela a été l’opportunité pour moi de me lancer dans l’entrepreneuriat.

A quoi sert LUDOCARE ?

L’objectif de LUDOCARE est d’apporter des solutions concrètes, ludiques et adaptées aux besoins des patients atteints de maladies chroniques.

Comment fonctionne votre robot JOE ?

La solution JOE pour l’asthme, ou LEO pour la mucoviscidose, c’est le premier petit robot connecté qui accompagne les enfants de 3 à 11 ans dans la prise de leurs traitements quotidiens. Nous allons retrouver une dalle tactile, du son, du wifi pour la partie hardware de la solution. JOE est connecté par wifi à un back-office. C’est ici qu’on va retrouver les sciences de l’ingénieur, du type développement logiciel mais aussi traitement des données médicales et statistiques où nous allons avoir toutes les bases de données médicales. Donc, tous les médicaments, connexions aux bases de données de l’assurance maladie. Puis les bases de données ludiques avec tous les algorithmes prédictifs. Nous travaillons avec un laboratoire du secteur de l’intelligence artificielle sur le campus de la Doua pour cette partie-là. C’est quelque chose qui va être évolutif, apprenant, personnalisable pour l’enfant. Enfin, la dernière partie de la solution, c’est l’application parent, qui elle fait appel à tout ce qui est UX design pour avoir une interface très simple sur leur smartphone pour configurer le robot.

Quels sont les projets pour LUDOCARE ?

Au moment où je viens sur Paris pour le colloque des JNI, nous serons en plein crowdfunding pour financer la production du robot en vue d’un lancement en septembre et en BtoC. Tout le monde peut contribuer, en participant au financement d’un robot pour un enfant malade, grâce au pack « PARRAIN » qui a été créé grâce aux associations Vaincre La Mucoviscidose et Asthme et Allergies. C’est la grosse échéance. Par la suite, notre ambition est vraiment de pouvoir adresser toutes les maladies chroniques et plus seulement l’asthme et la mucoviscidose.

Techniques de l’Ingénieur, partenaire d’ENOVA, vous donne rendez-vous les 3 et 4 avril à Nantes

Le concept ENOVA est d’aller à la rencontre de l’innovation qu’elle soit industrielle, scientifique et universitaire. Fort de son succès en région, la seule et unique édition du salon ENOVA en 2019, se tiendra pour la première fois à Nantes les 3 et 4 avril.

170 exposants vous attendent et, parallèlement à la partie salon proprement dite, le programme de conférences nourrit la réflexion stratégique des entreprises, entre autres, sur leur digitalisation.

Techniques de l’Ingénieur soutient cette initiative qui s’inscrit dans son action continue d’accompagnement du développement des entreprises industrielles. La transition vers l’industrie du futur et la digitalisation des usines en sont des axes forts. Les ressources documentaires autour de ces thèmes pourront vous être présentées sur le stand A53.

Retrouvez toutes les technologies, principes et modèles de l’industrie du futur en infographie : ici

Pour en savoir plus.

L’Affaire du siècle dépose une requête contre l’État au nom de la justice climatique

Face au succès inégalé de leur pétition, ayant atteint plus de 2 millions de signatures, Greenpeace, Oxfam, Notre affaire à tous et la Fondation Nicolas Hulot viennent d’adresser au Tribunal administratif de Paris une requête sommaire contre l’État pour inaction climatique. Ce court document permet d’introduire l’instance. Il sera complétée et détaillée par un « mémoire complémentaire » remis au juge administratif courant avril.

Cette action fait suite aux échanges que les ONG avaient eu avec le gouvernement en février. François de Rugy, ministre de la transition écologique et solidaire, avait communiqué un document d’une dizaine de pages. Il y rappelait à quel point la France est « pionnière » dans la lutte contre le réchauffement climatique, et ce depuis les années 1990, selon lui. Il rejetait la faute sur les Français, estimant qu’ils doivent comprendre que les objectifs à atteindre ne se feront qu’au prix de nombreux efforts, qu’ils ne semblent pas être prêts à consentir. « Le gouvernement nous a expliqué que selon lui, la trajectoire est la bonne et qu’il fait tout ce qu’il peut, tout ce qu’il faut pour lutter contre le dérèglement climatique », s’insurge Jean-François Julliard, directeur général de Greenpeace France. Pour les acteurs de l’Affaire du siècle, l’heure est à la prise de responsabilités de tous les acteurs du changement. Le temps est à l’action et non plus aux discours et aux mesurettes politico-politiciennes.

L’Affaire du siècle, pour un État qui agit

La requête pointe directement du doigt l’attentisme dans lequel sont tour-à-tour plongés les gouvernements successifs. En ce sens, l’État ne peut donner qu’une désolante impression de mollesse pour les plus déterminés à agir. « Dans le contexte actuel, l’État doit jouer un rôle central, fondamental pour éclairer, guider, inciter les citoyens, les entreprises, les décideurs, au nom de l’intérêt général », considère Jean-Baptiste Bosson, glaciologue diplômé de l’Université de Lausanne.

Aujourd’hui, le droit administratif ne permet pas d’intenter un procès à l’État pour inaction climatique, mais cela pourrait rapidement changer. « Dans le recours que l’on dépose aujourd’hui, on évoque plusieurs moyens de droit. Le premier est le principe général du droit à vivre dans un système climatique stable. Et le second est la reconnaissance du préjudice écologique » explique Marine Denis, porte-parole de Notre affaire à tous. C’est sur ce second point que les associations veulent appuyer. « Le juge administratif pour reconnaître aussi le fait que le changement climatique crée des dommages environnementaux subis par des individus. Et de fait, ces personnes-là pourraient invoquer le préjudice écologique devant une juridiction administrative ».

Les organisations appellent l’ensemble des soutiens de l’Affaire du siècle à transformer l’engouement autour du recours en une mobilisation dans les rues. Cette fin de semaine est chargée au niveau climatique. En plus dépôt du recours contre l’État dans l’Affaire du Siècle le 14 mars, les collégiens, lycées et étudiants appellent à une grève scolaire ce vendredi 15 mars. Et ce samedi 16 mars, c’est la « Marche du Siècle » pour dire « ça suffit ! » et demander des changements immédiats.

Salon Big Data : la donnée, une stratégie d’entreprise

Cette 9e édition de ce salon a été l’occasion de faire le point sur cette activité. Ce marché ne connaît pas la crise. Les éditeurs de services Big Data ont généré 57 milliards de dollars de chiffre d’affaires en 2017. Et la croissance devrait être soutenue (une moyenne de plus de 8 % par an) puisque le marché mondial du Big Data pourrait représenter 210 milliards de dollars et 3 % du PIB l’année prochaine.

Dans l’Union européenne, d’ici 2020, la part des produits et services data représenteront 11,8 % des dépenses. Enfin, l’industrie, la finance et le retail sont les trois principaux secteurs d’application du Big Data sur le vieux continent.

Si les projets Big Data s’accélèrent dans les entreprises, la maîtrise des données reste néanmoins au cœur du succès des projets. Car si les données et l’analyse ont historiquement servi à compléter la stratégie business, un changement s’est opéré, en faisant une stratégie d’entreprise à part entière.

Il apparaît en effet que les entreprises ayant un bon niveau de « datalphabétisation » (ou Data Literacy) enregistrent jusqu’à 5 % d’augmentation de leur valeur d’entreprise. C’est ce qui ressort d’une étude commandée par Qlik et réalisée par les universitaires de la Wharton School et le cabinet d’études IHS Markit.

La France dans le trio de tête

À l’heure où le volume de données explose, poussé par l’avènement des nouvelles technologies telles que la robotique et l’intelligence artificielle, la datalphabétisation c’est-à-dire la capacité des salariés à lire, analyser et utiliser les données pour la prise de décisions, et à communiquer à l’aide de ses données dans l’ensemble de l’entreprise, devient un véritable élément différenciateur pour les entreprises.

Bonne nouvelle, la France est le 3e pays européen présentant le plus haut taux de « datalphabétisation » de ses salariés, avec un score moyen de 77,3 selon cette étude réalisée à partir de 604 entretiens. L’hexagone se positionne juste derrière le Royaume-Uni et l’Allemagne parmi les pays les plus matures en la matière.

À l’échelle internationale, l’Europe détient le score le plus élevé en matière de maîtrise des données contrairement aux autres continents. En effet, 72 % des décideurs européens affirment que la datalphabétisation est « très importante », contre seulement 60 % des décideurs en Asie et 52 % aux États-Unis. Le Japon enregistre d’ailleurs le taux le plus faible à 54,9 %.

Éthique et RGPD

Le traitement et la manipulation des données ne doivent plus être réservés uniquement aux équipes informatiques, mais à tous les niveaux de l’entreprise. C’est pourquoi le besoin de former les collaborateurs à la compréhension et à la maîtrise des données est indispensable et de plus en plus pressant, permettant l’acquisition de nouvelles compétences et la prise de décisions « data-driven ».

Mais à mesure que l’usage de l’intelligence artificielle et du big data se développe dans les organisations, l’éthique doit devenir une priorité dans toute stratégie d’entreprise axée sur les données. Et si les entreprises n’adoptent pas d’elles-mêmes cette attitude, le Règlement général sur la protection des données à caractère personnel (RGPD) est là pour le leur rappeler…

EOL, la « mini-usine de fabrication d’un médicament à domicile »

Le 5 mars, le laboratoire de recherches Creative Eurecom a remporté le Global Industrie Award “Réalisation Exemplaire” pour son produit EOL. Cet équipement permet de fabriquer à domicile un nouveau traitement inhalé contre les infections respiratoires sévères.

“Ce projet a commencé chez la startup lyonnaise Alaxia qui a développé un médicament pour les patients atteints de mucoviscidose. Le seul problème : cette substance a une durée de vie de 30 minutes donc on doit synthétiser le médicament à domicile. C’est là qu’intervient EOL”, explique Julien Marine, ingénieur responsable du projet.

Simple d’aspect et sécurisée, la machine a été réalisée pour être utilisée par un enfant de 12 ans. Pourtant, elle intègre beaucoup de technologies complexes : “Ce projet regroupe beaucoup de technologies différentes : de l’électronique, du logiciel embarqué sécurisé, de la thermique -puisque le médicament est synthétisé à 5°c-, de la micromécanique, de la plasturgie sophistiquée notamment pour le consommable qui est stérile, de l’intégration et enfin de la connectivité sur internet”, explique Michel Houdou, président de Creative Eurecom.

Le but de cette machine transportable est de permettre aux patients de se soigner n’importe où et ainsi gagner en liberté. Les essais cliniques démarreront normalement en mai 2019, et Julien Marine espère une commercialisation pour 2024.

JNI 2019 : Réunir la communauté scientifique française

Dans le cadre des Journées Nationales de l’Ingénieur 2019 et du partenariat avec l’IESF, Techniques de l’Ingénieur a réalisé des interviews avec plusieurs des participants au Colloque National organisé au CNAM par l’IESF. Marc Ventre, président d’Ingénieurs et scientifiques de France (IESF), nous explique la situation actuelle de l’ingénierie en France, entre innovation et diversité.

Quels sont les objectifs de ces JNI 2019 ?

Il y a deux objectifs selon moi. D’abord, il s’agit de réunir la communauté scientifique française, qui représente plus d’un million de personnes. C’est une population qui compte et qu’il faut continuer à alimenter car nous faisons face à deux grandes transitions : numérique et énergétique. Pour que la France ait toute sa place dans ces grandes transitions, il y a un besoin en matière grise et la matière grise vient des ingénieurs et des scientifiques. Ensuite, les JNI permettent de s’adresser aux jeunes pour leur dire : « Vous avez ici une filière porteuse, n’hésitez pas à vous y engager, vous serez acteurs de ces grandes transformations. Vous aurez un métier qui est enthousiasmant. Si vous allez dans l’industrie, c’est un secteur de quasi plein emploi, avec des salaires supérieurs à la moyenne nationale ».

Quel est le rôle de l’innovation dans ces transitions ?

Il nous faut faire preuve de beaucoup d’innovation et de capacité de créativité pour répondre aux challenges posés par ces grandes transformations. Et encore une fois, les ingénieurs et les scientifiques sont particulièrement bien placés et sollicités pour répondre à ces questions. La formation des ingénieurs français favorise la capacité d’innovation et de créativité, beaucoup plus que d’autres systèmes ailleurs dans le monde.

Pourquoi axer les JNI 2019 sur la diversité ? Quelle est la situation actuelle en France ?

Nous pensons beaucoup à la diversité homme/femme mais il existe également toute la diversité des origines sociales ou de pays et c’est en mélangeant tout ça qu’on obtiendra le meilleur cocktail d’innovation et de créativité. Avec l’IESF, nous travaillons beaucoup sur la diversité homme/femme, notamment à travers une action qui s’appelle « Promotion des ingénieurs et scientifiques de France ». Nous allons dans les collèges et lycées pour promouvoir les filières techniques, surtout vis-à-vis des jeunes filles et des jeunes femmes. Nous rencontrons tous les ans 40.000 jeunes, c’est considérable ! Nous faisons également tous les ans une grande enquête nationale auprès de tous les ingénieurs et nous obtenons 50 000 réponses. La moyenne nationale de la proportion homme/femme dans les métiers de l’ingénierie est de 20% de femmes et 80% d’hommes. Mais si nous isolons les derniers arrivants dans les métiers de l’ingénierie, la proportion de femmes monte à 28%. Cela n’est pas encore suffisant mais la tendance est à l’amélioration.

Revue de presse anglophone #23 : les 10 news de la semaine

Les 5 tendances technologiques en passe de transformer les industries

Appareils pliables, intelligence artificielle, technologies d’emballage 3D,  nouvelles solutions robotiques, informatique quantique… Certaines avancées sont imminentes, d’autres prendront plus de temps à se concrétiser. Cependant, chacune donne un aperçu de la façon dont notre vie professionnelle et personnelle va changer.

Source : forbes

Confidentialité : Mark Zuckerberg fait de nouvelles promesses 

Après une année de scandales liés à quelques lacunes en matière de protection de la vie privée et de décisions politiques controversées, Mark Zuckerberg déclare vouloir faire de Facebook un réseau social « centré sur la protection de la vie privée ».

Sources : time bbc

 

Si les villes intelligentes passent au vert, c’est parce que ça coûte moins cher

Nos villes deviennent de plus en plus intelligentes. Regardez autour de vous dans n’importe quelle métropole moderne et vous verrez des centaines d’appareils intelligents. Des appareils plus pratiques, qui renforcent notre sécurité, réduisent les embouteillages, améliorent notre économie – tout cela dans le but d’améliorer notre qualité de vie. Mais avec cette révolution technologique, il est nécessaire de changer la façon dont nos villes sont alimentées.

Source : forbes

 

5G : les défis informatiques qui l’accompagnent

La technologie 5G va redéfinir tous les standards de haute vitesse. Oui, mais elle devra relever au moins 3 défis.

Source : forbes

 

Machine learning : d’ici 2022, 60% des entreprises auront introduit l’IA dans leurs activités quotidiennes

Selon les dernières prédictions d’un cabinet d’analystes, les entreprises utiliseront 50% d’automatisation en plus d’ici trois ans.

Source : forbes

 

Google Street View vous permet maintenant de vous promener dans le Grand collisionneur de hadrons

L’accélérateur de particules le plus grand et le plus puissant du monde est désormais à portée de clics. Visite guidée.

Source : time

 

La boue des zones humides, une « arme secrète » contre le changement climatique

Vu le volume de carbone emprisonné dans la boue des zones humides du monde entier, la préservation des zones humides côtières est essentielle pour atténuer le réchauffement climatique.

Source : bbc

 

Pourquoi vous devriez vous inquiéter des machines qui lisent vos émotions

Les machines peuvent maintenant identifier la colère, la peur, le dégoût et la tristesse. La «détection d’émotion» est passée d’un projet de recherche à une industrie de 20 milliards de dollars. Et c’est peut-être un problème…

Source : theguardian

 

La grosse batterie Tesla résiste dans le marché en plein essor du stockage de l’énergie

Selon le dernier rapport Quarterly Dynamics  de l’Australien Energy Market Operator, la batterie Tesla de Hornsdale, en Australie, poursuit son ascension, empochant 4 millions de dollars supplémentaires au quatrième trimestre.

Source : theguardian

 

Cinq cartes qui révèlent les dernières étendues sauvages du monde

Des recherches récentes ont montré que seulement 23% de la surface terrestre de la planète (hors Antarctique) et 13% de l’océan peuvent désormais être considérés comme étendues sauvages, ce qui représente un déclin de près de 10% au cours des 20 dernières années. Et plus de 70% de la nature sauvage restante se trouve dans cinq pays seulement.

Des chercheurs américains et australiens ont récemment produit une carte mondiale illustrant ce déclin en combinant de multiples données (densité de population, éclairages nocturnes, types de végétation, etc.)

Source : theconversation

 

Par I. B.

Une peinture permettant un refroidissement passif pour éviter la climatisation

Le rapport de l’IEA qui inquiète

Il y a des chiffres parfois surréalistes qui font beaucoup réfléchir. 10% de la consommation électrique mondiale, c’est énorme. Pire : la situation va s’aggraver d’ici les 30 prochaines années, car de nombreux pays chauds et très peuplés tels que l’Inde sont encore peu équipés en air conditionné.

Si rien ne change, l’air conditionné deviendra bientôt l’une des premières sources de consommation électrique. Fort heureusement, ce constat de l’International Energy Agency (IEA) est suivi de propositions de solutions. Selon l’IEA il serait urgent de miser sur le déploiement de systèmes d’air conditionné plus efficaces et de travailler également sur les technologies permettant de réduire efficacement la facture énergétique des bâtiments (cf. Figure 1).

Figure 1 : Pourcentage d’habitations non équipées en air conditionné, classement par pays. Source : IEA

Comment la recherche peut-elle résoudre le problème de l’air conditionné?

Et si la solution était tout simplement de se passer d’air conditionné ? Une équipe de chercheurs de l’université américaine de Columbia semblent envisager sérieusement cette possibilité au regard des résultats de leurs travaux. La solution proposée par l’équipe du docteur Jyotirmoy Mandal est plutôt audacieuse : élaborer un revêtement polymère super réfléchissant et possédant une quantité importante de porosités à l’échelle micrométrique et nanométrique. Comment un tel revêtement peut-il servir à refroidir un bâtiment ? Grâce à un processus physique appelé « passive daytime radiative cooling » ou PDRC, par lequel un matériau est capable à la fois de réfléchir le rayonnement solaire et d’émettre de la chaleur par radiation dans les parties froides de l’univers lointain. Du point de vue des propriétés physiques, un tel matériau doit donc avoir une haute réflectance et une excellente émissivité.

Comment l’effet de PDRC est-il possible ?

Au premier abord, il semble impossible de refroidir une surface exposée en plein soleil sans utiliser d’énergie. Les choses sont en réalité plus complexes : le soleil émet la majorité de son énergie dans les domaines de longueur d’onde du proche infrarouge et du visible. Les matériaux à effet PDRC sont donc conçus pour réfléchir ces longueurs d’onde ; jusqu’ici rien d’étonnant. La subtilité réside en fait dans la capacité du matériau à réémettre de l’énergie radiative dans une plage de longueurs d’onde qui n’est pas absorbée par l’atmosphère. En clair, cette énergie part dans l’espace lointain et ne contribue pas à l’effet de serre sur terre !

Une peinture blanche qui n’absorbe pas les UV

Bien que des matériaux réfrigérants passifs soient déjà commercialisés, ils sont en revanche onéreux, sensibles à la corrosion et non applicables sur des surfaces existantes. Les seuls revêtements facilement applicables qui existent sont des peintures blanches classiques dont la réflectance n’excède pas 85 %.

Pour améliorer les propriétés de ces peintures, l’équipe de chercheurs a donc eu l’idée de remplacer les pigments par des cavités remplies d’air et c’est une réussite : le bilan thermique du matériau affiche une perte de 100 W par mètre carré, soit une réduction de 6°C dans l’environnement aride de l’Arizona et 3°C dans l’atmosphère tropicale du Bangladesh.

Un matériau ayant la structure d’une éponge

Cette peinture a été synthétisée à partir d’eau, d’acétone ainsi que d’un polymère appelé poly(vinylidene fluoride-co-hexafluoropropene). Lors du séchage de la peinture, l’évaporation de l’acétone et de l’eau laisse derrière elle un film polymère criblé de poches d’air (cf. Figure 2). Ces petites cavités dont la taille varie de 200 nm à quelques micromètres ont la particularité de réfléchir plus de 96 % de la lumière du soleil incidente.

Figure 2 : le polymère constituant cette peinture possède plusieurs échelles de porosités, ce qui lui donne l’apparence d’une éponge. Source : J. MANDAL ET AL/SCIENCE 2018

Une solution polyvalente et économique

La solution proposée par cette équipe de chercheurs semble être idéale. En plus d’être économique et facile à appliquer, il semblerait qu’elle puisse également être colorée et utilisée sur toute surface qui peut être peinte. Concrètement, les applications vont bien plus loin que les façades et les toits des bâtiments : ce revêtement pourrait bientôt être appliqué sur tous types de véhicules comme les avions les voitures et même des engins spatiaux.

À la découverte des MXenes, de nouveaux matériaux 2D inspirés du graphène

Les matériaux 2D, une famille qui ne cesse de s’agrandir

Les matériaux 2D – ou matériaux bidimensionnels – sont en réalité des objets 3D d’une finesse extrême, limitée à une épaisseur atomique, ou à quelques atomes. Si le plus connu d’entre eux est le graphène, isolé en 2004 en détachant des feuilles de graphite extrafines, son application en électronique reste problématique, car il n’est pas semi-conducteur. Heureusement, d’autres matériaux ont depuis été synthétisés pour combler ce manque. C’est par exemple le cas du silicene, du germanène, du stanène ou encore du phosphorène. Mais là encore, des inconvénients subsistent : ces matériaux sont rarement stables ou s’oxydent rapidement.

La nouvelle catégorie des MXenes

Les MXenes sont produits à partir de matériaux ternaires, c’est-à-dire constitués de trois éléments de type carbures ou nitrures. Si leur composition n’est pas nouvelle en soi, les céramiques massives entrant dans cette catégorie, appelées phases MAX, ont la particularité de présenter une structure hexagonale et d’être ductiles. Ces céramiques s’appellent ainsi en raison de leur formulation Mn+1AXn où M est un métal de transition, A un élément de type aluminium ou silicium et X est du carbone ou de l’azote, avec n=1, 2 ou 3.

Les MXenes s’obtiennent généralement par exfoliation, c’est à dire en dissolvant la phase A dans de l’acide fluorhydrique. Ce procédé permet ainsi de passer d’un matériau massif à des nanofeuilles quasi bidimensionnelles. L’exemple le plus célèbre de MXene est Ti3C2, le premier nanocristal élaboré à l’université Drexel à partir de la MAX phase Ti3AlC2.

Mieux comprendre les MXenes

Les MXenes peuvent être utilisés pour la désalinisation de l’eau de mer, la capture de produits chimiques ou encore, la fabrication d’antennes. Mais pour passer au stade d’industrialisation, les propriétés de ces matériaux doivent être totalement maîtrisées. C’est ce que cherche à faire l’équipe de chercheurs du professeur Yury Gogotsi depuis leur découverte des MXenes en 2011. Car si à l’heure actuelle ils savent que les MXenes sont d’excellents conducteurs électriques, extrêmement résistants et capables de bloquer les interférences électromagnétiques, ils ne savent pas précisément pourquoi. Pour tenter d’en savoir plus, la dernière étude de l’Université de Drexel s’est donc concentrée sur la caractérisation de ces matériaux par Microscopie Electronique à Balayage (MEB) et par spectroscopie de perte d’énergie.

Selon les chercheurs, l’optimisation de ces nanomatériaux nécessite de contrôler “ce qui se passe entre les nanofeuilles”. En effet, comme les espèces atomiques qui subsistent après exfoliation varient en fonction du décapant utilisé et de la nature de la phase MAX, l’équipe de chercheurs supposait que cela influençait la conductivité. Les résultats obtenus pour 3 des principaux MXenes, sur les 30 produits par l’université de Drexel, ont ainsi confirmé leurs hypothèses.

 

Les MXenes en phase d’optimisation

L’optimisation des MXenes est donc en bonne voie. Il reste cependant à résoudre un problème important : améliorer la stabilité de ces matériaux dans des conditions atmosphériques, ce qui permettrait d’augmenter leur durée de vie.

Source.

Légende en Une de l’article : Cliché MEB de feuilles de MXenes, vue en coupe (Source : Université de Dexel)

L’assistant vocal de Simsoft Industry primé aux Global Industrie Awards

D’abord destiné à un usage personnel avec Siri d’Apple ou Alexa d’Amazon, les assistants vocaux font leur apparition dans l’industrie avec l’innovation de Simsoft Industry.

« Un assistant vocal sert à gagner du temps et à éviter les erreurs », explique Philippe Crespin, le co-fondateur et président de la jeune entreprise.

Équipés d’un casque et d’un micro, les techniciens interagissent avec l’assistant, via une tablette ou un PC, ou directement par la voix afin d’effectuer des opérations les mains libres. Cette technologie est principalement utilisée pour les tâches de maintenance et de fabrication dans des grands groupes industriels.

Selon le co-fondateur, l’innovation réside dans le système de dialogue en langage naturel : « Le système par mots-clés utilisé jusqu’à lors ne fonctionne pas car il est limité : si le technicien prononce un mot qui n’est pas connue par la machine, rien ne se passe. Avec cette innovation, le langage passe par des phrases, des expressions, des synonymes donc le dialogue paraît intelligent. »

La jeune entreprise, composée aujourd’hui de 25 employés, est également finaliste au Challenge Industrie du Futur organisé par Atos, SKF et ArianeGroup, pour lequel Techniques de l’Ingénieur est partenaire.

Le photovoltaïque de grande taille est compétitif en France, estime la CRE

L’analyse de la CRE a porté sur l’ensemble des coûts d’investissements et d’exploitation pour les projets déposés lors des appels d’offres de 2017 et 2018. Le régulateur du secteur énergétique y constate que les effets d’échelle observés sont importants et recommande notamment de faciliter l’émergence de projets de plus grande taille que 30 MW, jusqu’à 100 MW, « afin d’atteindre des prix encore plus compétitifs et de permettre à certains projets de ne plus recourir aux mécanismes de soutien public, comme on a commencé à l’observer dans les pays voisins. »

En effet, pour les grands parcs au sol, « les coûts des installations les plus compétitives sont aux environs de 48 €/MWh, taxe IFER ((impôt forfaitaire sur les entreprises de réseaux, ndlr) de 6 €/MWh incluse », se félicite le régulateur. Ainsi, la filière française « est parfaitement compétitive avec celles des pays comparables. » C’est particulièrement vrai avec le pays qui compte le plus de solaire en Europe, l’Allemagne, où les coûts de production sont compris entre 40 €/MWh et 70 €/MWh, selon le dernier rapport de l’Institut Fraunhofer, publié en mars 2018.

Recul des coûts d’investissement « et » d’exploitation

En outre, la CRE constate que « sur les trois dernières années seulement, les coûts d’investissement ont diminué d’en moyenne 32 %, cette dynamique étant largement due à la baisse du prix des modules photovoltaïques à l’échelle mondiale. Les coûts moyens d’investissement observés aujourd’hui se situent autour de 800 €/kWc (kilowatt-crête) pour les installations au sol et autour de 1 100 €/kWc pour les installations sur bâtiments et ombrières de parking. Les projets les moins chers, au sol et de grande taille, avoisinent désormais les 600 €/kWc. »

Le régulateur souligne qu’au-delà de cette baisse des coûts d’investissement, qui continuent de peser pour 80% du coût complet de production d’un parc solaire, « la professionnalisation des acteurs » a permis un recul des coûts d’exploitation, en moyenne de 27% sur les trois dernières années, pour tomber à 20 €/kWc sur la plupart des segments de ce marché des grands parcs.

Soutien continu

La CRE indique que la mise en place de nouveaux mécanismes de soutien, notamment les appels d’offres pluriannuels, combinés à la baisse des coûts, ont permis de donner de la visibilité à la filière. Les capacités raccordées annuellement, qui était de 0,5 GW à 1 GW sur 2010-2018, atteignent désormais 2 GW en moyenne à l’occasion de la vague d’appels d’offres CRE4 lancés l’an dernier. Néanmoins, la CRE tempère à l’aune de la 5ème période de l’appel d’offres « Centrale au sol de puissance comprise entre 500 kW et 30 MW », dit CRE5, dévoilé le 6 mars par le ministère de la Transition écologique et solidaire. La participation aux appels d’offres CR5 s’est réduite, notamment pour les familles d’installations sur bâtiments et ombrières. Et le prix moyen proposé par les développeurs lauréats est en effet de 62,7€/MWh pour l’ensemble des projets, soit une hausse de 3 % par rapport à la 4ème période en août dernier. Cela ne remet pas en cause la compétitivité de la filière et offre d’ailleurs un rééquilibrage territorial des projets, indique la CRE.

Le productible (le niveau espéré d’un parc en fonction de l’ensoleillement) d’une installation constitue un facteur déterminant dans la rentabilité d’un projet, insiste la CRE. Et les régions les plus ensoleillées du sud de la France constituent à ce titre des zones préférentielles pour l’implantation d’une installation. Ainsi, la CRE « constate que 68 % du volume déposé dans le cadre des appels d’offres de la vague « CRE4 » au sol et sur bâtiments concerne des projets situés dans les quatre régions du sud pour lesquelles le productible moyen observé est 17 % plus élevé que sur le reste du territoire ». Un avantage cependant compensé par un surcoût sur certains postes de dépenses, comme par exemple la location des terrains ou encore les coûts de raccordement, qui peuvent varier entre 50 et 279 €/kWc selon le type, la taille et l’emplacement (rural/urbain et selon les régions) de l’installation. En fixant, parmi les critères de notation, la valorisation du recours à des terrains dégradés, la CRE signale que les régions du nord relèvent la tête et ainsi « les taux de réussite moyens constatés par région sont relativement homogènes sur l’ensemble du territoire pour les premières périodes des appels d’offres en cours ». Et de conclure qu’étendre de 30 MW à 100 MW le périmètre des appels d’offres pour les projets portant sur ces terrains, comme la CRE « l’avait déjà appelé de ses vœux », permettrait de rééquilibrer les puissances installées entre les régions, tout en développant des projets moins coûteux et évitant les conflits d’intérêt.

20 finalistes pour le challenge Industrie du Futur

Plus de 200 participations ont été enregistrées, avec 47 nationalités représentées. Un succès, donc, pour cette deuxième édition qui s’ouvrait pour la première fois à l’international.

Les finalistes, par catégorie :
Cybersécurité :

  • Awen Collective (GBR) : Suite logicielle permettant de réduire les coûts des cyber menaces impactant les usines et les infrastructures nationales critiques.
  • QuantiCor Security (DEU) : Solution de cybersécurité pour l’IOT permettant de résister aux attaques d’ordinateur quantique.

Datascience :

  • GreenTropism (FRA) : Composants logiciels et algorithmes basés sur l’intelligence artificielle indépendants des capteurs pour analyser la composition et la qualité de la matière en temps réel.
  • Panga (FRA) : Building Network Operating System dédié à la gestion des bâtiments & infrastructures, basé sur une architecture en Edge & Swam Computing.
  • Mechanica AI (NL) : Exploitation des données industrielles pour améliorer l’efficacité de la production grâce au machine learning et à l’intelligence artificielle

Matériaux du futur :

  • Carbon Waters (FRA) : Dépôt de graphène pour améliorer la résistance à la corrosion, la régulation thermique ou la conductivité électrique.
  • NanoPrint (DEU) : Dépôts de couches nanométriques de molécules de matériaux conducteurs détectant et corrigeant les matériaux en surfaces.
  • SolCold (ISR) : Revêtement de nano matériau régulant naturellement la température sans apport d’énergie.

Procédés du futur :

  • Cevotec (DEU) : Solution de déposition automatique de fibres de composites en 3D sur des surfaces complexes.
  • Castor Technologies (ISR) : Outil d’aide à la décision pour la conception de pièces réalisées en impression 3D ou en usinages conventionnels.
  • EMSProto (FRA) : Plateforme web associée à une ligne de production pour le chiffrage et le prototypage rapide de cartes électroniques.
  • SES Imagotag (FRA) : Venant du monde du retail, l’affichage digital sur étiquette est utilisé pour la signalétique dynamique dans l’entrepôt & pour l’information au poste de travail.

L’écologie dans l’industrie :

  • Holipresse (FRA) : Holipresse est une machine modulaire permettant de fondre du plastique et de l’injecter dans des moules grâce à la force manuelle afin de fabriquer des objets en petites séries à partir de plastiques broyés (recyclage) ou en granulés.
  • ID-NRJ / Otonohm (FRA) : Une solution dédiée aux professionnels pour charger & alimenter les appareils électriques, intégrant les fonctions de charge et de convertisseur. Une batterie s’adaptant à la tension d’entrée ou/et de sortie, voulue plus légère et mobile.

L’humain au centre de l’usine :

  • Simsoft Industry (FRA) : Assistant vocal intelligent dédié à l’industrie, qui met en œuvre des technologies de synthèse et de reconnaissance vocale, de dialogue, d’intelligence artificielle, de rendu graphique 2D et 3D, de fouille de données .
  • KypSafe (FRA) : Une solution connectée et intelligente permettant de géolocaliser et prévenir, en temps réel, les techniciens dès qu’ils se trouvent dans une zone de danger potentiel ou non-autorisée..

L’usine connectée :

  • InBolt (FRA) : Module intelligent, à mettre sur chaque outil de serrage (clés, tournevis), capable de se repérer et de proposer automatiquement les consignes de serrage adaptées.
  • WH Monitoring (FRA) : Solution permettant de mesurer en 4D et d’interpréter les vibrations , pour la maintenance prédicitive, le design et l’opérabilité des structures.
  • CoreTigo (ISR) : Solution de communication sans fil sécurisée entre capteurs, actionneurs et unités de mesure, basée sur le protocole IO-Link Wireless.
  • Saagie (FRA) : Solution bout-en-bout qui orchestre des technologies Big Data pour automatiser le déploiement d’applications analytiques et d’IA à grande échelle.

Pour se préparer à la finale du 6 juin 2019, les 20 finalistes vont maintenant travailler avec des mentors, « experts–métiers » issus des entreprises ArianeGroup, Atos et SKF.

 

ENOVA 2019 : un salon au cœur de l’écosystème de l’innovation en région Nantaise

Enova Nantes sera la plateforme régionale de convergence des technologies de l’électronique, de la mesure, de la vision et de l’optique. Cet événement va fédérer les acteurs de l’industrie et de la recherche à l’affût de solutions innovantes pour leurs projets de développement. 170 exposants présenteront leurs produits, services et dernières innovations.

Des conférences, en accès libre, animées par des spécialistes et experts de la région enrichiront les échanges, avec des sujets tels que :

– “Smartworld” (IOT, 5G, intelligence artificielle embarquée…), organisée par CAP’TRONIC & WE NETWORK ;

– la mesure et les risques au cœur de l’aéronautique ;

– les enjeux de la métrologie dans l’agroalimentaire, organisée par le Collège français de métrologie.

– le CND & SHM, lors de la journée technique du mercredi 3 avril, organisée par PRECEND (accès payant).

Les participants pourront également bénéficier de rendez-vous d’affaires gratuits programmés sur les deux jours.

Recherche de solutions dans le cadre d’un projet ou veille technologique : ce salon a pour vocation de répondre aux problématiques de modernisation et d’innovation. Chercheurs, ingénieurs, techniciens, bureaux d’études, startups, pôles industriels et scientifiques sont donc attendus à la Cité des Congrès de Nantes.

 

Brexit et recherche scientifique : quel financement après la sortie de l’UE ?

Si la continuité des recherches entamées dans le cadre de la programmation européenne en matière de recherche scientifique Horizon 2020 n’est pas vraiment menacée par le Brexit, avec ou sans accord, la place des Britanniques dans le programme suivant (2021-2028) reste encore incertaine.

Jusqu’en 2020, la participation des Britanniques devrait se poursuivre à l’identique en cas de sortie avec accord moyennant une participation financière du Royaume-Uni pour 2019 et 2020. Sans accord, la participation se poursuivra mais pas les fonds que le gouvernement britannique a promis de compenser pour les projets déjà lancés. A ce sujet, Chris Skidmore, le ministre de la recherche et de l’enseignement supérieur, a d’ailleurs rappelé ce 5 mars que le gouvernement a mis en place un portail de déclaration des subventions pour pouvoir compenser le manque à gagner des fonds européens. Au 5 mars, 6700 des 8200 bénéficiaires basés au Royaume-Uni se seraient déjà enregistrés. Rappelons que l’’implication des Britanniques dans la recherche européenne est majeure*. Le Royaume-Uni compte ainsi 11 863 participations dans des projets de recherches européens et assume 3 771 rôles de coordination (plus que l’Espagne (2 614) ou l’Allemagne (2 380). En valeur, ces rôles de coordinations sont associés à des fonds de 2,75 milliards d’euros (devant l’Allemagne 2,55 Md€). Au total, Horizon 2020 représente un apport de plus de 5 Md d’euros dans la recherche britannique.

Création d’un fonds international britannique

Le ministre anglais a aussi annoncé que le gouvernement étudiait la possibilité de créer un fonds de recherche international qui serait donc ouvert aux Britanniques et aux ressortissants du monde entier. La faisabilité et les modalités de fonctionnement de ce fonds sont à l’étude jusqu’à cet été.

Ce fonds vise à pouvoir compenser à l’avenir les subsides européens auxquels le Royaume-Uni ne pourrait plus prétendre même en cas de Brexit avec accord tels que les subventions du Conseil européen de la recherche (European Research Council – ERC) ou les bourses Marie Sklodowska Curie qui sont pour l’instant strictement réservées à des membres de l’UE. Ces subventions représentent pour le Royaume-Uni plus d’un milliard d’euros par an. Cependant, des discussions ont lieu actuellement à Bruxelles pour élargir l’accès aux fonds européens de la recherche à d’autres pays que les pays associés ou candidats à l’entrée dans l’Union. Dans ce cas, le Royaume-Uni pourrait retrouver l’accès à certains fonds. Ainsi, si le Brexit change les règles, le plus difficile n’est pas forcément le changement mais bien l’incertitude autour des nouvelles règles à venir, qui empêche les différents acteurs d’anticiper ou de se projeter dans l’avenir.

Des partenariats pour ré-entrer dans l’UE

Pour rester éligibles à des financements en provenance de l’UE, les universités, laboratoires et centres de recherche britanniques doivent être présents légalement dans un pays membre de l’UE. Du coup, plusieurs alliances ont vu le jour ces derniers mois. Parmi elles, on peut citer l’université d’Oxford et quatre institutions berlinoises. Elle se base sur la mise à disposition de locaux, des échanges de personnels et des projets communs et la recherche de fonds privés permettant d’assoir la présence d’Oxford Allemagne pour ensuite pouvoir accéder aux fonds européens. L’investissement est estimé à 800 000 euros mais l’université espère générer plusieurs millions d’euros en projet et activités de recherche. D’autres partenariats de ce type sont en construction, principalement entre Britanniques et Allemands. L’université de Warwick, quant à elle, a choisi d’intégrer une alliance universitaire européenne (Eutopia) constituée par plusieurs entités du continent, notamment l’université Paris Seine (dont le campus international se développe essentiellement autour du pôle d’enseignement de Cergy-Pontoise). En réalité, nombre de ces partenariats préexistaient ou étaient en projet avant le Brexit. Celui-ci les a accélérés ou leur a fait prendre une forme légale plus approfondie et plus contractualisée.  Ainsi, si le Brexit affaiblit momentanément la recherche par les incertitudes qu’il a créées, il force aussi à plus d’intégration, plus d’échanges et de travaux collaboratifs étroits entre des structures britanniques et continentales – ce qui à terme pourrait aussi être bénéfique.

*Chiffres de la commission européenne

Brexit et Reach : les transferts de dossier s’organisent

A ce titre, les dossiers de certaines substances chimiques enregistrées outre-Manche doivent être transférés.  Les démarches à effectuer sont détaillées dans un document de l’Echa (en anglais). De plus, une note explicative de France Chimie* vient éclairer les enjeux et les démarches à effectuer selon les différentes situations qui peuvent se présenter.

Brexit avec ou sans accord

Si un Brexit sans accord venait à se produire, les enregistrements Reach basés au Royaume-Uni ne seront plus valables. Pour éviter une rupture d’approvisionnement, les entreprises doivent donc s’assurer, pour ces substances, soit d’avoir un autre fournisseur soit que le dossier sera bien transféré en UE. Une période de transition jusqu’au 31 décembre 2020 a été proposée mais n’est pas encore actée. L’Echa a dénombré près de 1200 substances qui ont été enregistrées uniquement par une entreprises britanniques (liste ici). Pour ces substances, pas d’autres fournisseurs possibles donc. Seul un transfert de dossier vers une entité légale ou un représentant exclusif basé dans l’UE des 27 est possible pour éviter une rupture d’approvisionnement. Ce transfert pourra uniquement se faire du 12 au 29 mars 2019 sur l’application Reach-IT via la « Brexit Windows ».

En route pour UK-Reach

Après la sortie, le Royaume-Uni convertira le règlement Reach en une loi britannique. Les mêmes exigences réglementaires devraient donc s’appliquer et il est probable que seules les importations à partir d’une tonne par an au sein du Royaume-Uni seront concernées par le système UK-Reach. Que la sortie se fasse avec ou sans accord, une période de transition de 2 ans est prévue pour soumettre les enregistrements selon UK-Reach s’ils existaient déjà dans EU-Reach.

Ainsi, une fois encore, la réglementation Reach va nécessiter une vigilance pour toutes les entreprises ; mais il ne faut pas que l’arbre cache la forêt : en matière de produits chimiques, le Brexit change aussi la donne pour d’autres réglementations, notamment le règlement PIC relatif à l’importation et l’exportation de produits chimiques dangereux ou encore le règlement sur les produits biocides.

France Chimie a organisé d’ailleurs plusieurs conférences d’information sur ces sujets et la prochaine, en ligne le 13 mars, sera consacrée à l’impact du Brexit sur les droits de douane et Reach.

*nouvelle identité de l’Union des Industries chimiques -UIC – depuis fin septembre 2018

Techniques de l’Ingénieur encourage l’innovation robotique avec Proxinnov

Jeudi 7 mars, Techniques de l’Ingénieur et Proxinnov, la plateforme spécialisée dans la robotique pour les PME et ETI, ont profité du Global Industrie à Lyon pour signer une convention sur la formation professionnelle en robotique industrielle.

« Ce partenariat a pour vocation de concentrer les ressources intellectuelles et techniques françaises liées à la robotique pour les mettre à disposition de tous les acteurs du secteur et ainsi promouvoir l’innovation robotique », explique Pierre Loonis, directeur de Proxinnov.

Ils s’allient également au centre technique du CTCPA, au centre de formation de l’APAVE et au syndicat professionnel du Symop, et laissent le partenariat ouvert aux acteurs du secteur qui voudraient en faire partie.

Grâce à son réseau de chercheurs et à ses éditions dans le domaine, Techniques de l’Ingénieur apportera les ressources nécessaires au développement et à la diffusion des connaissances dans le secteur. « T.I. a toujours été partenaire de l’innovation dans toute sa diversité. Il est important pour nous de mettre en valeur la robotique, un milieu autour duquel la France est en retard par rapport à l’Allemagne par exemple », explique le directeur général Yves Valentin.

Pierre Loonis a constaté que, même si de nombreux secteurs sont équipés en robotique, certaines entreprises n’osent pas se lancer faute de sensibilisation ou de connaissances. « La complexité technologique de la robotique freine les PME et ETI, tout comme le manque de temps pour l’intégrer aux méthodes de travail déjà existantes. La convention va permettre de faciliter la prise d’informations concernant la robotisation industrielle », explique le directeur de la plateforme.

Proxinnov étant un Digital Innovation Hub (DIH), c’est-à-dire membre d’un réseau dédié à la digitalisation de l’industrie à l’échelle européenne, le directeur voit aussi en ce partenariat une façon de porter les méthodes et les normes françaises à l’échelle européenne.

Le plan national de gestion des matières et déchets radioactifs en débat

Le Plan national de gestion des matières et des déchets radioactifs, dit « PNGMDR », résulte de l’application de la loi de programme du 28 juin 2006 relative à la gestion durable des matières et déchets radioactifs. Mis à jour tous les trois ans, le PNGMDR dresse le bilan des modes de gestion existants des matières et des déchets radioactifs, recense les besoins prévisibles d’installations d’entreposage ou de stockage, et précise les capacités nécessaires pour ces installations et les durées d’entreposage.

Son élaboration, qui a en réalité débuté dès 2003, se fait sous l’égide de l’ASN, l’Autorité de sûreté nucléaire. Mais, pour la première fois cette année, un débat public particulier (CPDP) va précéder l’élaboration du plan. Le premier débat public sur le PNGMDR avait été réalisé entre septembre 2005 et janvier 2006.

Cette planification distingue les matières radioactives des déchets nucléaires. Les premières concernent certaines substances radioactives mises en jeu dans le cycle du combustible nucléaire et qui sont considérées comme valorisables. C’est dans ce cadre qu’entrent clairement les combustibles usés sortis des réacteurs nucléaires. Ces matières nucléaires sont pour partie actuellement valorisées, puisque les combustibles usés issus d’un premier passage en réacteur sont retraités et transformés en MOX (oxyde mixte d’uranium et de plutonium), un combustible utilisé dans une bonne partie des réacteurs d’EDF de la série 900 MW. Si à ce jour le retraitement des combustibles MOX est envisagé, ils restent dans les piscines en attente d’un développement de nouveaux types de réacteurs.

« Ces substances radioactives ne sont donc pas considérées comme des déchets mais comme des matières radioactives au sens de l’article L. 542-1-1 du Code de l’environnement », précise l’ASN.

« Leurs modalités de gestion, leurs perspectives de valorisation, ainsi que l’examen des possibilités de stockage dans l’hypothèse où des changements de politique énergétique impliqueraient de les considérer comme des déchets sont traités dans le cadre du PNGMDR », indique l’Autorité de sûreté nucléaire. Ce sera d’ailleurs le cas dans le cadre du débat autour de ce cinquième PNGMDR.

« Concernant les déchets radioactifs qui ne disposent pas d’un mode de gestion définitif, le PNGMDR détermine les objectifs à atteindre », précise l’ASN. « À ce titre, Il organise la mise en œuvre des recherches et études sur la gestion des matières et des déchets radioactifs en fixant des échéances pour la mise en place de nouveaux modes de gestion, la création d’installations ou la modification des installations existantes de nature à répondre aux besoins et aux objectifs définis. »

Dans le cadre du cinquième PNGMDR, devrait également être sur la table la question de la valorisation possible des déchets dits de très faible activité (essentiellement des bétons et des ferrailles), dont le volume augmente et progressera d’autant plus que certains réacteurs vont devoir être arrêtés d’ici à 2025, comme l’a annoncé récemment le gouvernement, à l’aune de la programmation pluriannuelle de l’énergie (PPE).

Le débat portera également sur les déchets plus dangereux (dits à haute activité), mais qui sont les moins volumineux, ainsi que sur des sujets clés, comme la sûreté et la sécurité, ou l’économie de la gestion des déchets. En revanche, la CNDP précise que le débat ne sera pas le lieu de débattre des installations en projet ou en cours, comme par exemple le centre de gestion des déchets de haute et moyenne activité à vie longue (Cigéo, à Bure) ou de la création d’un nouveau site de stockage pour les combustibles usés, qui ont fait ou feront l’objet de débats publics particuliers. Néanmoins, le débat abordera des questions techniques comme l’entreposage à sec ou en piscine des combustibles usés.

Le débat, prévu du 17 avril au 25 septembre, respectera « une période de réserve, lors du déroulement de la campagne des élections européennes, du 26 avril au 26 mai, ainsi qu’une trêve estivale, du 12 juillet au 3 septembre », précise la CNDP.

Isabelle Harel-Dutirou a été chargée de présider la Commission particulière du débat public.

Fin mars, un site internet dédié (pngmdr.debatpublic.fr) sera mis en service pour recueillir les contributions et une première réunion publique aura lieu à Paris, à la maison de la Mutualité, le 17 avril 2019.

Parallèlement, la CPDP a mis sur pied un « groupe miroir » de 15 citoyens « recrutés dans les treize régions métropolitaines avec un effort de représentativité de la population française ». Il s’impliquera tout au long du débat, notamment lors des temps forts que seront « la sensibilisation et formation des citoyens aux enjeux du débat, l’approfondissement des connaissances et la rédaction collective de recommandations », indique la CPDP. Des jeunes seront impliqués dans le débat, via « l’atelier de la relève », qui va réunir des étudiants de diverses formations afin de disposer d’éclairages pluridisciplinaires. Cet « atelier de la relève » sera notamment en charge de donner un « avis sur l’amélioration de la gouvernance ».

La viande in vitro pourrait accentuer le réchauffement climatique

Cultiver et commercialiser de la (fausse) viande in vitro sera bénéfique pour la planète et favorisera la lutte contre le réchauffement climatique. En substance, ce sont les promesses faites par différentes start-up dans le monde, qui cherchent à cultiver un faux steak de bœuf in vitro. En théorie, une telle avancée technologique pourrait contribuer à répondre à la demande toujours grandissante en viande dans le monde. Si tant est que la question du coût ne soit pas prise en compte. Autre bienfait annoncé de la viande in vitro : grâce à elle, les émissions de méthane seraient considérablement réduites.

Cependant, une équipe de chercheurs de la Martin School d’Oxford au Royaume-Uni n’envisage pas tout à fait la culture de viande in vitro avec autant d’optimisme. Dans une étude publiée dans la revue Frontiers in sustainable food system, la dimension écologique sur le long terme de ce substitut carné est débattue. En cause : l’empreinte carbone d’un tel procédé. Afin d’établir ces hypothèses, les chercheurs ont fait des projections à 1 000 ans, dans lesquelles sont comparées différents scenarii au sujet de l’élevage bovin traditionnel et de la culture de steak in vitro.

Des émissions de CO2 à la longue plus néfastes que le CH4

Pour créer de la viande en laboratoire, des cellules prélevées sur une vache (vivante) sont mises en culture dans une boîte de Petri. Après deux à trois semaines de culture, les cellules souches nourries avec du blé ou du maïs se transforment en un sosie miniature de steak. À l’heure actuelle, cette pièce de viande 2.0 reste trop chère pour être commercialisée. L’entreprise israélienne Aleph Farms indique par exemple que son prototype de steak vaudrait environ 50 dollars. Une somme qui reste encore trop élevée pour une consommation de masse.

Autre promesse des fabricants : la culture de viande en laboratoire permettrait de réduire drastiquement les émissions de gaz à effets de serre. Une question primordiale à l’heure où 15 % des émissions mondiales sont liées à la production de viande, qui dégage beaucoup de méthane. La culture en laboratoire, elle, implique surtout des émissions de dioxyde de carbone. Or, le CH4 a un pouvoir de réchauffement global 25 fois plus puissant que le CO2.

Mais c’est justement cet aspect qui dérange les scientifiques d’Oxford. Selon leurs recherches, le dioxyde de carbone, même s’il est émis en moindre quantité que le méthane, serait à long terme plus néfaste pour l’environnement. « Par tonne émise, le méthane a un impact beaucoup plus important sur le réchauffement climatique que le dioxyde de carbone », explique Raymond Pierrehumbert, professeur en physique à l’université d’Oxford. « Cependant, il ne reste dans l’atmosphère que pendant environ douze ans, lorsque le CO2 persiste et s’accumule pendant des millénaires » ajoute-il.

Le steak in vitro, un véritable défi énergétique

Dans ce contexte, il est clair que le défi du steak in vitro est indissociable du développement des énergies renouvelables. C’est ce qu’expliquait John Lynch, auteur principal de l’étude, à la BBC. « L’impact sur le climat de la production de viande dépendra du niveau de production d’énergie durable pouvant être atteint, ainsi que de l’efficacité des processus de culture futurs. Si la viande en laboratoire nécessite beaucoup trop d’énergie, elle pourrait devenir pire pour le climat que le sont les vaches », déclare-t-il.

Les deux chercheurs expliquent également qu’ils ne considèrent pas, en l’état actuel des projets, la viande cultivée comme meilleure que la viande traditionnelle. Tout dépendra du niveau d’énergie décarbonée qui sera utilisée pour la production de cette fausse viande de laboratoire. L’hypothèse de l’équipe d’Oxford n’est pas nouvelle. En 2015 déjà des chercheurs déclaraient dans la revue Environnement Science & Technology que « fabriquer de la viande in vitro demande plus d’énergie industrielle – souvent produite avec des combustibles fossiles – que le porc, la volaille, et peut-être même le bœuf ».

Flexibilité et 5G, maîtres-mots de l’édition 2019 du Mobile World Congress

Deux thématiques fortes ont marqué l’édition 2019 du Mobile World Congress, qui a fermé ses portes le 28 février dernier à Barcelone : la 5G et l’écran flexible. La cinquième génération de téléphonie mobile faisait en effet partie intégrante de prototypes de smartphones et de plusieurs modèles prêts à la commercialisation. Ces derniers venaient de la part des principaux fabricants mondiaux, dont Samsung (Galaxy S10 5G), Huawei (Mate X) ou encore Xiaomi (Mi Mix3 5G). Le taïwanais HTC se distinguait avec la présentation d’un routeur, le 5G Hub, à destination des particuliers ou des entreprises. Grâce à son débit maximum de 20 Gbits/s, très théorique il est vrai, la 5G pourrait menacer le Wifi et amener le très haut débit jusqu’aux foyers hors d’atteinte de la fibre.

Pour ce qui concerne les cas d’usage de la 5G, l’entreprise française Shadow, spécialisée dans le «cloud gaming» (jeu vidéo qui s’exécute dans le cloud), cherchait à démontrer les bénéfices de la très faible latence des communications, de l’ordre de la milliseconde. Il était possible de jouer à un jeu PC sur un smartphone Android, de marque Oppo ou OnePlus en l’occurrence, et de constater que les actions du joueur étaient reproduites à l’écran de façon quasi-instantanée. Même si l’expérimentation était à prendre avec du recul, étant données les conditions idéales de l’installation, l’objectif était de montrer de nouvelles applications s’appuyant sur les performances de la 5G.

La 5G freinée par l’affaire Huawei

Faut-il rappeler cependant que la 5G n’est pas encore une réalité. A l’instar du Snapdragon 855 de Qualcomm et son modem X50 associé, les nouveaux jeux de composants qui équipent les terminaux sont loin de tirer tout le potentiel de la 5G. Et quand bien même ils le feraient, les réseaux commerciaux commencent à peine à être déployés par les opérateurs, en Corée du Sud notamment. En France, les débuts de la 5G sont prévus l’an prochain, selon la feuille de route du gouvernement. Au 1er mars, l’Agence nationale des fréquences (ANFR) comptabilisait 78 stations 5G expérimentales sur le territoire. Mais l’affaire Huawei pourrait entraver le processus, l’industriel chinois (le plus gros fournisseur mondial d’équipements réseaux telecom) étant soupçonné d’espionnage par les autorités européennes et nord-américaines.

L’écran flexible constituait l’autre vedette du salon. De plus en plus utilisés dans les smartphones, les écrans Oled peuvent être déposés sur des substrats plastiques souples, propriété désormais exploitée par plusieurs fabricants. Royole, marque chinoise, avait devancé la concurrence en présentant le FlexPai, en novembre dernier puis à nouveau au MWC : un smartphone qui, une fois l’écran déplié, prend la forme d’une tablette de 7,8 pouces. Le Mate X de Huawei reprend cet aspect mi-smartphone (6,6 pouces) mi-tablette (8 pouces), l’écran flexible s’articulant autour d’une charnière. Samsung a fait le choix d’une autre design pour le Galaxy Fold, qui combine un double écran : le premier de 4,6 pouces sur la coque externe en position fermée, le second de 7,3 pouces qui apparaît une fois le téléphone ouvert.

Ces mêmes fabricants devront toutefois prouver l’utilité de ce nouveau concept, qui se révèle très onéreux (plus de 2000 € pour le Mate X et le Fold, qui devraient être commercialisés ces prochains mois). Le multitâche est une piste explorée par Samsung, le Fold permettant une fois déplié de répartir l’affichage entre trois applications. Mais il en faudra davantage pour convaincre. Par ailleurs, on s’interroge sur la solidité et l’étanchéité du film plastique recouvrant l’écran Oled. C’est habituellement du verre, étanche aux gaz, qui protège les composés organiques de l’Oled, sensibles à l’oxydation. Ce matériau n’est pas naturellement souple, mais le Willow Glass, invention de la société Corning, n’a pas cet inconvénient. Quoi qu’il en soit, l’industrie du smartphone, confrontée à un fléchissement des ventes (-4% en 2018 selon IDC), espère que ces innovations relanceront la croissance du marché… ce qui n’arrivera probablement pas en 2019.

 

Les cinq innovations à retenir

 

Huawei Mate x

Attendu au second semestre 2019 au prix astronomique de 2299 €, le Mate X, par ailleurs compatible 5G, passe d’une configuration smartphone de 6,8 pouces à une configuration tablette de 8 pouces en un tournemain. Les utilisateurs se plieront-ils à ce concept ?

 

Microsoft Hololens 2

La deuxième version du casque de réalité augmentée Hololens bénéficie d’un champ de vision doublé et se révèle plus léger et plus confortable. Microsoft espère que sa clientèle industrielle le verra d’un meilleur œil.

 

Nokia 9 Pureview

Cinq capteurs photo (deux en couleur, trois en noir en blanc) qui produisent après traitement une image finale de 12 millions de pixels : le Nokia 9 Pureview promet des gains de contraste et de sensibilité à la lumière.

Sony Xperia 1

Disponible au printemps à 999 €, le Xperia 1 est gratifié d’un écran Oled HDR de 6,5 pouces en ultra haute définition. Ou presque (3840×1644 pixels) en raison de son format 21/9. Sony insiste sur la qualité d’image, pour séduire photographes et vidéastes.

 

HTC Hub

Muni d’un écran tactile de 5 pouces, ce routeur, signé HTC, prend en charge la 5G, le Wifi et dispose également d’un port Ethernet. Il est à vocation fixe ou nomade, grâce à l’appoint d’une batterie de 7660 mAh, et gère jusqu’à 20 connexions simultanées.

Vers des fermes de plus en plus efficaces en énergie

L’agriculture représente 3 % de la consommation d’énergie finale française. Toutefois, les dépenses énergétiques d’une exploitation s’élèvent en moyenne à 13 000 euros HT chaque année. Une charge importante pour les agriculteurs et les éleveurs, liée avant tout au machinisme agricole ainsi qu’au chauffage des serres et des bâtiments d’élevage. Sur ces deux postes, les énergies fossiles demeurent largement majoritaires.

L’ADEME reconnaît les nombreux progrès réalisés ces dernières années, notamment « la récupération de chaleur sur les appareils de refroidissement ou le stockage d’eau chaude dans les serres ». L’agence identifie 43 solutions pour aller encore plus loin dans les champs, dans les serres et dans les bâtiments d’élevage. Citons pêle-mêle : pompes à chaleur, ventilateurs économes, goutte à goutte, réduction du travail du sol, remplacement des engrais azotés par des légumineuses, etc.

Des solutions à déployer dans toutes les exploitations agricoles

En déployant largement ces solutions techniques, l’ADEME envisage une baisse de la consommation énergétique en agriculture de 26 % d’ici 2050. En modifiant les pratiques agricoles et notamment en simplifiant le travail du sol, l’agence voit même une baisse de 43 %. En labourant moins, on consomme tout simplement moins de carburant.

Les équipements plus performants peuvent déjà être acquis dans le cadre du dispositif des certificats d’économie d’énergie (CEE). En plus de ces aides, l’ADEME insiste sur l’importance de multiplier les démarches collectives territoriales. « Les groupes existants ou à créer tels que les GIEE (Groupement d’Intérêt Economique et Environnemental), les CUMA (Coopérative d’Utilisation de Matériel Agricole), les CETA (Centre d’Etudes Techniques Agricoles), les groupements de producteurs et notamment les coopératives agricoles qui s’impliquent dans des démarches de progrès sur l’énergie auront un rôle essentiel à jouer », prévient l’ADEME.

Blockchain : entre buzz word et réalité

Publiée par FUTURS.IO, l’agence de communication du groupe Maltem dédiée aux technologies et aux usages innovants (Blockchain, AI, Data Science, IoT), une étude récente indique que la blockchain est principalement déployée dans deux secteurs d’activité : la fintech et l’e-santé. Cela confirme une tendance mondiale.

Un rapport publié par Accenture et McLagan en 2017 indiquait qu’environ huit des dix plus grandes banques d’investissement du monde avaient prévu de développer des projets reposant sur la blockchain (lutte contre le blanchiment d’argent et contre la fraude, réduction des coûts…).

Scandales alimentaires

Les principales difficultés actuelles, en particulier dans les paiements transfrontaliers et le financement du commerce, peuvent être résolues par cette technologie qui réduit le nombre d’intermédiaires nécessaires et qui est géographiquement « agnostique ».

Concernant l’e-santé, le déploiement d’une blockchain n’a pas pour objectif de sécuriser les données, mais leur accès tout en respectant l’anonymat des patients. Elle permettrait aussi de s’attaquer aux contrefaçons de médicaments. Selon l’Organisation mondiale de la Santé, les faux médicaments sont à l’origine de 700 000 décès par an.

La blockchain pourrait-elle aussi empêcher la répétition des scandales alimentaires ? Scandale de la viande de cheval en 2013, viande de bœuf avariée, lait infantile contaminé aux salmonelles… Autant d’affaires qui pourraient ne plus faire la une des médias s’il y avait une meilleure traçabilité ? Rien n’est moins sûr.

Les informations qui seraient « déclarées » dans la Blockchain système peuvent être faussées… Vitalik Buterin lui-même, fondateur d’Ethereum (regroupant un réseau opérateur, un registre des transactions et une cybermonnaie dénommée l’Ether), a rappelé que les « Blockchain ne fournissent certainement pas des garanties à 100 %, surtout dans le monde réel. »

Vidéos truquées

Malgré tout, la Blockchain peut être utile pour repérer les « deepfake ». Il s’agit de vidéos trafiquées, car générées par des algorithmes d’intelligence artificielle. Développé par Shamir Allibhai, un spécialiste de la technologie vidéo, Amber Authenticate est un programme capable d’authentifier un contenu dès la prise de vue.

À intervalles réguliers, déterminés par l’utilisateur, la plate-forme génère des « hachages » – des représentations cryptographiques brouillées des données – qui sont ensuite enregistrées de manière indélébile sur la blockchain Ethereum.

Lorsque vous exécutez à nouveau ce même extrait de séquence vidéo dans l’algorithme, les hachages seront différents si quelque chose a changé dans les données audio ou vidéo du fichier, ce qui peut laisser penser à une manipulation possible.

Ne pas faire confiance à la blockchain !

La blockchain est une technologie prometteuse. Elle peut en particulier résoudre des problèmes de confiance dans l’économie numérique. Mais sa légitimité peut être ternie par une mauvaise gestion au niveau des plates-formes.

Différents spécialistes ont commencé à signer la fin de la récré : il est urgent de ne plus être ébloui béatement par la blockchain. Ainsi Bruce Schneier, un expert en sécurité informatique reconnu mondialement, a rappelé qu’il fallait arrêter de croire aux déclarations du genre « in crypto we trust » ou « in math we trust ». La réalité est que les blockchains, comme tout mécanisme, sont porteurs de failles exploitables.

Toyota pourrait quitter le Royaume-Uni en cas de Brexit sans accord (média)

« Si l’environnement des affaires devient très très difficile », un retrait « doit figurer aussi parmi les options », a déclaré Johan Van Zyl, en marge du salon de l’automobile de Genève, selon les propos rapportés par le quotidien économique japonais Nikkei.

D’après la même source, M. Van Zyl a également évoqué d’autres possibilités, dont la réduction de la production ou des investissements.

Une porte-parole de Toyota à Tokyo a confirmé auprès de l’AFP la teneur de l’échange de M. Van Zyl avec les journalistes, précisant qu’il s’agissait de « propos généraux » en réponse à une question sur la possibilité de quitter le sol britannique.

« Un Brexit dur n’est pas souhaitable », a ajouté M. Van Zyl.

Toyota emploie plus de 3.000 salariés dans ses deux usines en Grande-Bretagne, dont une fabrique de moteurs au pays de Galles.

Le mois dernier, son compatriote et concurrent Honda a annoncé l’abandon de la production en terre britannique via la fermeture de son usine de Swindon en 2021.

Ce site, le seul en Europe du géant nippon, est le principal employeur de la ville du sud-ouest de l’Angleterre, avec 3.500 salariés.

A moins d’un mois de la date officielle du Brexit, les discussions entre négociateurs britanniques et européens n’ont toujours pas permis de sortir de l’impasse, augmentant le risque d’un nouveau rejet de l’accord de divorce par les députés britanniques.

Cet échec renforce aussi le spectre d’une sortie brutale de l’UE le 29 mars avec toutes ses conséquences dommageables pour l’économie.

« Tous droits de reproduction et de représentation réservés. © 2019 Agence France-Presse. »

La réalité virtuelle au service de la formation

La réalité virtuelle est une technologie qui présente de nombreux avantages pour la formation professionnelle : possibilité de simuler l’activité sans danger réel, flexibilité dans la présentation de l’information, ou encore contrôle précis des paramètres de la simulation permettant de reproduire des situations particulières. Elle permet ainsi la conception d’environnements virtuels pertinents et efficaces pour l’apprentissage humain. Mais pour qu’elle soit efficace, il est important de réfléchir à son utilisation pédagogique.

Apports de la simulation

Les simulateurs informatiques ont constitué historiquement les premières applications des technologies informatiques qui ont donné naissance aux environnements virtuels d’apprentissage. L’une des principales valeurs ajoutées communes à ces systèmes réside dans la possibilité de changer les contextes de pratique pour l’apprentissage et d’engendrer des évènements, comme des perturbations externes, des dysfonctionnements ou des pannes. Les variables de situation sont contrôlées par les instructeurs. Les simulations sont, à ce titre, bien plus flexibles que les situations réelles.

Les simulateurs de vol pleine-échelle, qui utilisent de vrais cockpits, répondent à l’objectif de placer l’apprenant dans une situation proche du vol réel. Le simulateur est alors supposé réagir comme le système réel qu’il figure, de façon à procurer à l’apprenant certains aspects de l’expérience qu’il pourrait tirer de ses actions dans la situation réelle.

L’utilisation de tels systèmes pour la formation permet d’accomplir diverses manipulations :

  • mise en situation quand la réalité ne le permet pas, parce qu’elle est difficilement accessible (par exemple, espace, terrain ennemi), trop coûteuse (par exemple, avion), trop dangereuse (par exemple, site à haut risque), ou parce qu’elle n’existe pas encore (par exemple, avion, usine, plate-forme off-shore en construction) ;
  • simulation de conditions rares(par exemple, incidents techniques, accidents), sans danger pour soi et autrui (par exemple, opérations médicales, explosion) sans gravité pour les matériels (par exemple, détérioration des matériels) ;
  • contrôle précis de certains paramètres de la situation, les faire varier, les modifier (par exemple, terrains, conditions climatiques, dysfonctionnements).

Avantages spécifiques à la réalité virtuelle

Plus spécifiquement par rapport à d’autres médias informatiques, la réalité virtuelle permet d’engager le corps dans la simulation, d’augmenter la motivation des apprenants grâce à l’utilisation de dispositifs innovants, de présenter des informations en trois dimensions, de former au geste, d’immerger les apprenants dans un environnement à l’échelle 1, etc.

La réalité virtuelle permet, en plus, de faciliter les apprentissages en permettant l’enrichissement ou l’augmentation de la réalité. Ainsi, des informations peuvent compléter celles qui seraient normalement perçues par l’apprenant en réel.

Par exemple, il est possible de proposer :

  • augmentation de la réalité en informations sensorielles : les capacités perceptives de l’utilisateur sont augmentées. Il peut, dès lors, voir au travers des objets, voir ce qui est caché, voir dans l’obscurité, changer d’échelle temporelle ou spatiale, bref, percevoir ce qui n’est normalement pas accessible à ses organes des sens (ultrasons, radiations). Il acquiert des capacités supranaturelles. Sa perception du monde n’est plus limitée de la même façon par ses sens. Cette approche peut aider un apprenant à se créer des représentations mentales de phénomènes naturels ;
  • réification : la réification est un processus par lequel des données abstraites telles que des équations mathématiques sont matérialisées par des figures concrètes ;
  • enrichissement métaphorique de la réalité : afin de supprimer toute ambiguïté et de rendre les données plus explicites, des figures, diagrammes, flèches ou autres signes peuvent être surajoutés afin de faciliter la compréhension des phénomènes qui sont montrés. Ces approches plus structurées peuvent faciliter le passage de la représentation mentale au modèle mental ;
  • enrichissement conceptuel de la réalité : des données plus abstraites, des règles, des noms, des concepts peuvent venir enrichir l’environnement virtuel. Cette démarche conceptuelle contribue à la constitution d’une culture commune entre les participants et à l’acquisition de connaissances.
Création d’une nouvelle formation en réalité virtuelle au sein de l’Institut d’Informatique Appliquée (IIA) de Laval (France)

Aujourd’hui, la grande tendance est de peupler les environnements virtuels de personnages virtuels autonomes, aussi appelés « personnages non-joueurs » dans les jeux vidéo (PNJ) pour permettre des apprentissages collaboratifs.

Facteurs de motivation : l’apport des serious game

À la fin des années 1990, on supposait que le simple fait d’utiliser la réalité virtuelle allait motiver les apprenants, et suffire à augmenter leur engagement dans leurs apprentissages. En effet, son utilisation apportait de l’inédit aux formations et l’attrait pour les nouvelles technologies suscitait un fort intérêt. Malheureusement, la technologie était encore récente et limitée. On passait encore plus de temps à apprendre à se servir des interfaces, qu’à apprendre les véritables objectifs de formation. La réalité virtuelle a fait du chemin depuis, et des verrous technologiques forts ont été levés pour qu’elle soit facilement utilisable.

Aujourd’hui, les films d’animations et les jeux vidéo avec des images de synthèses précalculées sont arrivés à un tel degré de fidélité esthétique que les concepteurs d’environnements virtuels pour l’apprentissage humain, avec des contraintes temps réel et économiques, proposent des environnements qui peuvent paraître désuets et peu motivants, au simple regard de l’utilisation de la technologie .

Jusqu’à récemment, les jeux électroniques étaient associés à de nombreux clichés, et étaient réputés avoir un impact négatif sur les capacités mentales et physiques des joueurs. Cependant, des études ont montré que, même si leur utilisation irraisonnable pouvait avoir des effets négatifs, comme toute autre activité pratiquée à l’excès, la mise en place de bonnes habitudes (par exemple, temps de jeu et environnement approprié, etc.) pouvait transformer ces jeux en une activité sûre et épanouissante. Par la suite, le mouvement des jeux sérieux serious games  est apparu, dans le but d’utiliser les nouvelles technologies de jeux pour la formation et l’éducation.

Néanmoins, la fidélité esthétique n’est pas gage d’efficacité pédagogique. Comme l’importance de la réflexion sur les situations didactiques, la notion de scénario est importante. Comme pour un film, l’esthétique visuelle n’est pas le plus important si le scénario n’est pas à la hauteur.

Exclusif !  Cet article complet dans les ressources documentaires en accès libre jusqu’au 5 avril 2019 !

Réalité virtuelle et formation, un article de Domitile LOURDEAUX

L’empreinte carbone et énergétique de l’alimentation décortiquée

Selon une nouvelle étude de l’ADEME et d’autres organismes de recherche, les émissions de gaz à effet de serre dues à l’alimentation des Français s’élèvent à 163 millions de tonnes de CO2 équivalent. Soit environ un quart de l’empreinte carbone d’un ménage. C’est la phase de production agricole qui est la plus émettrice (67 %), suivie du transport de marchandises (19 %). Les phases de transformation (6 %), de distribution et de restauration (5 %), ainsi que de consommation (5 %), ont une empreinte carbone beaucoup plus nuancée.

La consommation globale d’énergie liée à l’alimentation s’élève à 367 térawattheures, soit 23 % de l’énergie finale consommée par les Français. L’empreinte énergétique est mieux répartie sur l’ensemble de la chaîne agro-alimentaire, de la production à la consommation. L’agriculture compte pour 27 % de cette empreinte, le transport pour 31 % (dont 9 % pour les déplacements des ménages aux magasins), la transformation pour 16 %, la distribution pour 13 % et la consommation à domicile pour 14 %.

Favoriser l’agroécologie pour réduire les émissions

La surface agricole utile française couvre environ 29 millions d’hectares, soit 54 % du territoire national. Pour satisfaire l’ensemble de la demande française, 26 millions d’hectares sont nécessaires en France et dans le monde, dont 80 % pour les produits animaux (viande et lait). Les pratiques agricoles liées à ces surfaces cultivées et à ces prairies, ainsi que les types d’élevage, vont déterminer la quantité de gaz à effet de serre émis. Par exemple, le méthane lié à l’élevage représente 44 % des émissions de carbone liée à la production agricole. Le protoxyde d’azote lié à l’utilisation des engrais azotés compte pour 34 % de ces émissions.

Il est toutefois difficile de contrôler ces émissions. « La maîtrise est complexe car elles proviennent de processus naturels directement liés au système de production », analyse l’ADEME. Les pratiques agroécologiques permettent d’augmenter les stocks de carbone et de réduire l’empreinte énergétique. Elles passent par exemple par la valorisation des engrais organiques, la méthanisation des déjections, la bonne gestion des prairies, la réintroduction de couverts végétaux, de haies et le développement de l’agroforesterie.

Mieux penser son assiette

Pour réduire son empreinte carbone et énergétique liée à l’alimentation, l’ADEME recommande aux Français de privilégier les produits locaux et de saison. Une empreinte réduite passe par le fait de favoriser les légumineuses, les céréales, les fruits et légumes. En échange, il faut diminuer la viande, les produits transformés, les boissons sucrées et l’alcool. Enfin, une meilleure alimentation passe par le fait de favoriser l’eau du robinet et de diminuer le gaspillage alimentaire. L’ADEME crée ainsi un panier responsable pour une famille de 4 personnes émettant 68 kg de CO2 équivalent par semaine, contre 109 kg de CO2 équivalent pour un panier standard. Et ce, pour le même prix de 189 euros.