S’il est impossible de prédire avec précision l’avenir du métier d’ingénieur, les évolutions sociales, économiques et environnementales en cours dans notre société permettent d’anticiper les mutations à venir de la profession. Martine Assar est responsable formation, métiers et compétences à l’Institut Mines-Télécom qui regroupe 8 écoles d’ingénieurs et de management ainsi qu’un réseau de 13 autres écoles associées en France. Elle est en charge d’un observatoire des métiers et des compétences de l’ingénieur et réalise un travail de veille et de prospective afin de mieux envisager les différentes évolutions futures de cette profession. Pour Techniques de l’Ingénieur, elle rend compte de ce travail.
Techniques de l’Ingénieur : Assiste-t-on à une évolution du métier d’ingénieur ?
Martine Assar, responsable formation, métiers et compétences à l’Institut Mines-Télécom. Crédit photo : Martine Assar
Martine Assar : Ce métier évolue en permanence, mais la crise sanitaire est venue accélérer cette évolution. En 2014, nous avions réalisé une enquête et dressé le portrait de l’ingénieur 2030. On constate aujourd’hui que les changements que nous attendions à l’horizon 2030 sont déjà en train de se produire. Ils impactent fortement les métiers de l’ingénierie. La crise sanitaire a révélé tout le potentiel des nouvelles technologies et des sciences. Pour l’ingénieur, les usages et les modes d’applications de ses compétences ont changé brusquement à l’épreuve de la crise du Covid-19. Par exemple, certains ingénieurs ont dû faire preuve d’une grande agilité et adaptabilité pour transformer certaines chaînes de production de textile en fabriquant des masques ou certaines usines de parfum en produisant du gel hydroalcoolique en très peu de temps.
Quels sont les changements observés de ce métier ?
Il y a d’abord celui de la transition écologique. Un ingénieur aujourd’hui doit être capable de s’emparer des problématiques de développement durable sur toutes les phases d’un produit allant de sa conception à son cycle de vie et jusqu’à son recyclage ou fin de vie. Dorénavant, cette dimension doit être intégrée à son champ de compétence et faire partie du cycle d’enseignement généraliste d’un ingénieur. Il doit être force de proposition et d’initiative pour transformer les entreprises sur cette thématique.
La transformation numérique a également créé un bouleversement dans le métier, notamment pour le secteur de l’industrie devenue 4.0. Les ingénieurs ont vocation à intégrer de grands groupes où cette transformation est déjà à l’œuvre. D’autres se dirigent vers des PME et doivent alors être capables d’aider un dirigeant à opérer cette transformation et par exemple l’accompagner dans la recherche de solutions numériques, industrielles. Mais au-delà des investissements nécessaires, il est indispensable qu’ils aient une vision beaucoup plus systémique de la transformation numérique et être capables d’appréhender les aspects organisationnel, managérial et humain de ce changement.
D’autres compétences sont-elles également devenues indispensables ?
Un ingénieur ne doit pas uniquement se résumer à son expertise en sciences et en technologies. C’est aussi un homme ou une femme avec une conscience, un sens éthique et un esprit critique. C’est pourquoi tous nos cycles d’ingénieur incluent systématiquement des enseignements en sciences économiques et sociales. Il s’agit d’aider les ingénieurs à garder une forme de distance vis-à-vis de l’accélération des progrès technologiques et des nouveaux usages afin qu’ils gardent à l’esprit que l’humain doit toujours rester central. Comme disait Rabelais : science sans conscience n’est que ruine de l’âme.
Il doit aussi être capable de s’adapter à la transition économique et sociétale qui s’opère. Par exemple, aujourd’hui, 38 % des salariés se disent prêts à démissionner si leur entreprise ne leur offre pas un à deux jours de télétravail par semaine. Il y a 18 mois, cette demande n’était pas pensable. Notre société a adopté un nouveau rapport au travail qui bouleverse les organisations. Nos ingénieurs doivent donc aussi être des ingénieurs managers capables de faire preuve d’agilité pour garder les talents et les compétences dans l’entreprise.
Au-delà de ces compétences, certains savoir-être sont-ils aussi importants ?
Garder un esprit curieux et savoir se former tout au long de sa carrière est essentiel. Il n’est plus possible de se reposer sur les connaissances acquises. Selon une étude de l’OCDE, la durée de vie moyenne d’une compétence technique (ou savoir-faire) est de 2 ans aujourd’hui, contre 30 ans en 1987.
La communication tient aussi une place importante que ce soit dans le management en interne, mais aussi pour échanger à l’extérieur de son entreprise. Savoir travailler dans un environnement multiculturel est aussi primordial dans certaines entreprises qui possèdent par exemple des filiales à l’étranger. La maîtrise d’une ou plusieurs langues étrangères est évidemment un atout tout comme la connaissance des codes culturels des pays étrangers.
Les entreprises sont de plus en plus à la recherche de profils d’individus agiles, créatifs et flexibles. Elles recherchent des ingénieurs avec des polycompétences qui possèdent un esprit d’initiative, sont autonomes, en sachant assumer des responsabilités lorsqu’il y a moins de niveaux hiérarchiques.
Quels sont les secteurs en tension ?
Le secteur du développement durable représente aujourd’hui un véritable eldorado pour les ingénieurs. Il va se développer dans les prochaines années avec une palette de nouveaux métiers, car les entreprises ont intégré très fortement cette thématique. Les besoins pour des métiers très spécialisés sont énormes et on n’arrive même pas à les quantifier. Il y a aussi le secteur de l’intelligence artificielle puisqu’il manque environ 10 000 data scientists chaque année en France.
De plus, il manque également 10 000 ingénieurs supplémentaires, car notre pays fait face à un problème d’orientation des jeunes. L’ensemble des grandes écoles d’ingénieurs forment un grand nombre d’ingénieurs sauf qu’une proportion importante se dirige ensuite vers des sociétés de conseils, certes, en appui au secteur industriel, mais ces derniers ne vont pas forcément et massivement sur le terrain des entreprises industrielles. Et pourtant, l’industrie offre des salaires plus élevés d’environ 13 %. L’Institut Mines-Télécom participe à un projet collaboratif appelé « Osons l’industrie du futur » dont le but est de rendre plus attractive l’image de l’industrie et ses métiers sur le marché de l’emploi. Nous avons identifié six familles de métiers en pleine mutation parmi lesquelles ceux de la recherche et conception, de la maintenance, du big data, du management, de la production et de la supply chain.
Suite aux séismes apparus depuis 2018 au large de l’île de Mayotte, les scientifiques en charge d’étudier le phénomène pour en comprendre l’origine viennent de publier un article dans la revue Nature Geoscience. L’équipe composée de chercheurs de l’IPGP (Institut de physique du globe de Paris), de l’Ifremer, du CNRS et du BRGM (Bureau de recherches géologiques et minières) analyse et interprète les données géophysiques et géochimiques acquises lors d’une campagne de surveillance nommée MAYOBS1. Ils révèlent qu’une éruption sous-marine hors norme, alimentée par un système magmatique très profond, s’est développée en lien avec la tectonique active dans cette région.
« Au départ, nous avions uniquement des observations indirectes du phénomène, c’est-à-dire la sismicité qui correspond à un témoignage indirect d’une activité volcanique, explique Anne Lemoine, sismologue au BRGM. Nous avions aussi des signaux GPS sur l’île de Mayotte qui enregistrent les mouvements et les déplacements du sol en 3D depuis 2014 ». Grâce au déploiement du Marion Dufresne en mai 2019, un navire de la flotte océanographique française opérée par l’Ifremer, six sismomètres ont été déployés ou redéployés en fond de mer et ont permis d’acquérir des données du relief et de la nature des fonds marins à la recherche de traces éventuelles d’activité volcanique.
Un volume de lave de près de 6,5 km³
Cette première campagne en mer a permis la découverte d’un nouvel édifice volcanique actif, d’une profondeur de 3 300 m de profondeur et à environ 50 km au large des côtes de Mayotte. L’analyse des données met en lumière un système volcanique complexe, sans analogue connu et qui s’enracine très profondément jusque sous la lithosphère. Il remobilise des structures tectoniques régionales anciennes et néoformées pour émettre de la lave sur le plancher océanique.
Les scientifiques ont estimé qu’un volume de lave de plus de 5 km³ s’était mis en place pour former le nouveau volcan. « Cette estimation date de mai 2019, précise Anne Lemoine. Depuis, les coulées de lave ont continué à se former sur le plancher océanique et ce volume est proche à présent de 6,5 km³. Il s’agit du plus important volcan sous-marin pour lequel on a des données, et ce depuis sa naissance ». La présence d’un panache acoustique et d’anomalies géochimiques dans la colonne d’eau à l’aplomb de l’édifice a permis de confirmer que l’éruption est encore en cours au sommet du volcan.
Grâce aux travaux effectués, un modèle de stockage et de drainage magmatique lié à l’éruption a été développé. Les scientifiques ont pu mettre en évidence l’existence de réservoirs et de systèmes de drainage très profonds étagés dans toute l’épaisseur de la lithosphère. Ce phénomène n’avait jusque-là jamais été observé clairement en volcanologie.
Mieux comprendre les risques pour protéger la population
L’équipe de chercheurs poursuit actuellement ses campagnes de surveillance océanographiques. « Nous avons découvert la présence d’un deuxième site, qui n’est pas un volcan, mais où l’on aperçoit des sorties de fluides et de gaz et que l’on surveille également, ajoute Isabelle Thinon, géophysicienne au BRGM. Pour bien comprendre les aléas, il est important de replacer la réflexion à une échelle régionale et non pas uniquement locale. La chambre magmatique est très profonde mais, il s’agit d’un contexte global puisque nous sommes confrontés à une zone volcanique, avec la présence du volcan Karthala sur l’île de la Grande Comore, et qui est actif à l’extrême ouest. Il est important de comprendre cela, non pas pour prévoir, mais pour mieux connaître les aléas régionaux qui pourraient survenir, de manière à mieux protéger la population au cas où. »
Les scientifiques ne savent pas si cette activité volcanique sous-marine et les séismes vont se poursuivre. « Il y a eu un changement de régime, c’est-à-dire que le comportement observé sous la mer n’était pas le même avant la mise en place de cette éruption et après, ajoute Anne Lemoine. À présent, un régime de fond s’est mis en place et on a l’impression qu’il se calme, car il y a moins de séismes et de déformations. Les volumes avec les flux de magma émis sont aussi moins importants. Mais face à de grandes éruptions comme c’est le cas ici, il peut y avoir à nouveau des changements de régime et donc il est très important de surveiller et de rester vigilant. »
L’an 2021 marque la naissance d’industries applicatives inédites !
En temps de crise où tout devient imprévisible et bouleversé, comme c’est le cas avec le Covid-19, il est d’autant plus important pour l’avenir des technologies IoT que celles-ci continuent à se construire et à se réinventer. La course aux innovations est lancée et elles ne manqueront pas de nous surprendre tant les technologies comme les logiciels se succèdent par vagues incessantes.
C’est pourquoi Techniques de l’Ingénieur est partenaire de cet événement leader permis par la fusion de IoT World et MtoM Embedded Systems. L’événement accueillera 150 exposants, ainsi qu’un panel de 79 tables rondes et conférences auxquels assisteront plus de 2 000 auditeurs. Et ce sont près de 7 000 visiteurs qui seront au rendez-vous !
Nous vous avions parlé dans un précédent article des animations et événements que propose le salon. Déroulons à présent les grandes lignes du projet.
Au programme
Pour la deuxième édition, ce sont de multiples animations et événements qui se croiseront durant ces deux jours riches en découvertes. Vous y trouverez notamment de nombreuses conférences traitant des fondamentaux et des nouveautés de l’internet des objets en passant par des témoignages et forums qui réuniront passionnés et décideurs.
Profitez de la nouveauté 2021
Vous cherchez un directeur IoT, un ingénieur ou un chef de projet : où le trouver ? Comment rédiger le « job description » pour bien recruter ? Nous créons pour vous le IoT HR Desk, un service à valeur ajoutée animé par un cabinet spécialisé dans le recrutement et le placement de spécialistes IoT de haut niveau. Vous serez reçu sur le salon gratuitement sur rendez-vous !
En quelques chiffres
Ces deux évènements ont accueilli en 2020 : 6 673 visiteurs uniques. Le programme de conférences et de tables rondes réunissait cette année-là :
2 733 auditeurs avec 79 tables rondes, conférences et 14 ateliers pratiques ;
199 exposants, partenaires et sponsors ;
251 Rendez-vous Business programmés sur les stands des exposants.
Rendez-vous Business gratuit
Seulement 5 minutes pour vous inscrire ! Vous sélectionnez les exposants que vous souhaitez rencontrer sur le site. Les rendez-vous sont organisés avec les exposants que vous aurez sélectionnés. Les rendez-vous de 30 minutes se déroulent directement sur les stands des exposants.
Inscrivez-vous ou demandez votre badge visiteur gratuit et découvrez l’intégralité des programmes de conférences via le site : www.salon-IoT-MtoM.com.
Après un doctorat en vision pour la robotique à l’Université de Picardie Jules Verne à Amiens, David Fofi a obtenu un poste d’enseignant-chercheur à l’Université de Bourgogne où il a créé un Master à l’international en vision pour la robotique (VIBOT). Il dirige aujourd’hui le Département Robotique à l’École Supérieure d’Ingénieurs en matériaux/Développement Durable Et Informatique/Electronique. Créée en 1991, l’ESIREM a ouvert en septembre 2020 la formation Robotique qui propose deux spécialités : Robotique/instrumentation et Cobotique (en alternance sur les 3 ans de cycle ingénieur).
Techniques de l’Ingénieur : Différentes études notent une forte croissance de la robotique. Mais le Japon est toujours considéré comme le leader mondial. Partagez-vous cet avis ?
David Fofi. Copyright : Hannah Grandjean
David Fofi : La France est loin d’être en retard ; elle est même en avance, car elle dispose de différentes structures comme le CNRS et l’INRIA. Ce dernier a formalisé de nombreux aspects de la robotique en tant que science au niveau mondial. Les meilleurs laboratoires de robotique sont également en France comme le LAAS et l’Institut Pascal. Les différences entre les pays résident plutôt au niveau commercial. En Allemagne, il y a de très gros instituts, les Fraunhofer, qui ont tout de suite investi dans le côté applicatif de la robotique, la conception de robots… L’intégration du robot dans la société au sens large a aussi un impact sur l’idée que l’on se fait de la prédominance d’un pays. C’est le cas du Japon où la robotique domestique est plus présente et plus visible qu’en Europe. Cela donne l’impression qu’elle est très présente dans ce pays. En réalité, un grand groupe reste un grand groupe, qu’il soit français ou japonais. Les techniques sont aussi bien maîtrisées.
Comment voyez-vous l’évolution de la robotique ?
Il y a 15/20 ans, la robotique était synonyme de production de masse avec comme référence l’usine automobile et ce sentiment que ces machines prenaient la place des ouvriers. Ce n’est plus le cas aujourd’hui. La robotique nécessite un savoir-faire de haut niveau, ce qui nécessite la création de nombreux postes plus qualifiés. La robotique au sens de l’automatisation traditionnelle ne suffit plus. Elle ne permet plus de répondre à la majorité des besoins industriels qui impliquent une plus grande autonomie.
La robotique a dû s’adapter pour répondre aux besoins spécifiques de différents secteurs ?
Oui, la robotique doit faire de la « haute couture », car de nombreux domaines nécessitent de disposer de machines de plus en plus précises et de plus en plus adaptées à une fonction spécifique. C’est le cas dans le domaine du médical et de la viticulture, mais aussi dans certains domaines du transport comme les boggies de train. Ce sont ces chariots situés sous un véhicule ferroviaire et sur lequel sont fixés les essieux. Il s’agit de petites productions qui répondent à des particularités propres à chaque pays (écartement des voies par exemple).
Ce secteur reste donc évolutif ?
La construction des robots traditionnels n’évolue pas énormément. Par contre, il y a encore beaucoup de travail à effectuer dans la conception même des humanoïdes. Ces robots très mobiles et souples comme ceux de l’entreprise américaine Boston Dynamics n’intègrent pas les mêmes techniques d’automatismes et de stabilité. Autre évolution significative : les machines sont de plus en plus intelligentes grâce à l’intégration de multiples capteurs et au traitement de nombreuses données en temps réel. Grâce à la reconnaissance d’objets et d’attitudes, on accroît les connaissances cognitives des cobots. Ils sont capables de percevoir, d’interpréter une action qu’ils vont entreprendre et de s’adapter. Le robot se « nourrit » du savoir-faire de l’homme.
Les salaires sont-ils attractifs ?
En début de carrière, un ingénieur en cobotique va débuter autour de 3 000 euros brut pour ensuite atteindre les 4 000 à 5 000 euros. Précisons toutefois qu’il n’y a pas d’ingénieurs en cobotique en France, c’est une spécialité qui n’est pas encore reconnue par la Commission des titres d’ingénieurs : il y a des ingénieurs en robotique qui ont été formés à la cobotique. Mais le fait que cette spécialité ne soit pas encore reconnue par la Commission des titres d’ingénieurs ne change pas grand-chose pour nos étudiants. Ils seront diplômés de l’ESIREM spécialité Robotique, mais le diplôme mentionnera le parcours « Cobotique ». La cobotique est vue comme une spécialisation de la robotique, ce qu’elle est effectivement.
Julie FAU est formatrice professionnelle, coach et psychopraticienne (crédit : Julie FAU)
Julie Fau est formatrice professionnelle, coach et psychopraticienne diplômée. Après avoir travaillé pendant 12 années dans l’univers du luxe où elle a occupé des fonctions commerciales et managériales, Julie Fau utilise aujourd’hui son parcours personnel et son passé dans les entreprises pour offrir une écoute professionnelle à toutes celles et tous ceux qui décident d’être accompagnés.
Techniques de l’Ingénieur : Vous avez occupé des fonctions managériales et commerciales en entreprise pendant de nombreuses années. Qu’est-ce qui vous a amené à vous réorienter ?
Julie Fau : Comme beaucoup de personnes, je crois, j’ai d’abord vécu une première partie de vie qui, sans forcément m’en rendre compte, n’était pas tout à fait la mienne, car elle répondait finalement plus aux attentes que les autres avaient pour moi. Par « les autres », j’entends : mon éducation, la société, la culture, etc.
Bien que les fonctions que j’ai occupées et les entreprises dans lesquelles j’ai œuvré soient des éléments tout à fait « vendeurs » sur un CV, je ne me suis jamais sentie à ma place ni très heureuse. C’est en allant questionner tout cela à travers un long travail d’analyse que j’ai pu me reconnecter avec mon souhait d’aider et de replacer l’humain au centre de mes préoccupations.
Vous travaillez avec les particuliers comme avec les professionnels. Les entreprises industrielles vous sollicitent-elles pour améliorer la communication relationnelle en interne ?
Bien sûr ! Et de plus en plus ! Je pense que c’est très positif, car cela traduit à mon sens une volonté pour ces entreprises de repenser une approche managériale et organisationnelle plus actuelle.
Aujourd’hui, certains comportements qui étaient considérés sans importance, pour ne pas dire normaux il y a encore 10 ou 15 ans, ne sont plus tolérés par bon nombre de collaborateurs. Beaucoup de travailleurs espèrent ne jamais avoir à subir ce que leurs parents ont subi et, de ce fait, certaines entreprises – peut-être encore un peu trop souvent imprégnées d’un management directif et patriarcal – notamment dans le secteur industriel, me font des demandes pour être accompagnées dans une réflexion sur leur manière d’être en relation et de communiquer les uns avec les autres.
Ce sont souvent des entreprises qui prennent au sérieux les questions de souffrance au travail. Ce type de démarche leur permet ainsi, petit à petit, de faire bouger les choses sur une plus grande échelle.
Sans communication il n’y a pas de lien, sans lien il n’y a pas de collectif ; or, il est toujours dommageable, mais jamais innocent pour une entreprise, de ne pas s’appuyer sur le groupe qu’elle constitue pourtant.
En effet, aujourd’hui le mot d’ordre est souvent à la performance individuelle et forcément, face à cela, la coopération se défait, créant ainsi de plus en plus de tension relationnelle au niveau des individus. En effaçant ces liens, l’entreprise installe un sentiment de solitude et de peur, qui annonce souvent la fin d’une entraide et du savoir-vivre ensemble.
J’observe dans ces entreprises un fonctionnement de « loi de la jungle » où le plus fort l’emportera, où le chacun pour soi et la compétition font rage et où la méfiance de l’autre plane souvent. Pas besoin d’en dire plus, je crois, pour comprendre aisément que dans une telle atmosphère il y ait une explosion de la souffrance des individus, entraînant naturellement un affaiblissement des capacités de résistance des travailleurs.
Il me paraît fondamental et urgent d’y penser et d’agir pour redonner forme à une organisation du travail plus vivante et plus humaine, dont l’enjeu est double : revaloriser l’individu en lui redonnant sa juste place d’une part, se recentrer sur un collectif revigorant d’autre part.
Quelles sont les clés pour mieux communiquer entre collègues et éviter les conflits ?
Cela me paraît intéressant de revenir à l’étymologie du mot « Communiquer ».
En effet, à la racine du mot, on retrouve « le fait de mettre en commun, de partager ». Le dictionnaire Larousse nous indique aussi l’action « d’entrer en contact avec quelqu’un, d’être en relation ».
Une vision générale et simpliste voudrait que la communication soit uniquement le fait de savoir bien parler, d’être un bon orateur, d’avoir la bonne forme dans le discours, les bons mots, etc.
En réalité, communiquer c’est beaucoup plus engageant que cela : il s’agit avant tout d’arriver à établir une relation à l’autre et de savoir ensuite comment la maintenir.
Or, c’est là que ça se complique ! D’une part, établir des relations comme je l’ai dit précédemment n’est pas toujours, et loin de là, la stratégie que les entreprises privilégient pour leurs salariés. D’autre part, sans parler forcément du contexte professionnel, mais plutôt de chaque individu dans sa singularité, y arriver est loin d’être évident, et ce pour deux raisons.
La première concerne notre habileté à la relation, une aptitude toujours délicate, car elle dépend de la façon dont elle s’est construite, et notamment du style d’éducation que l’on a reçu, de comment nos parents nous ont enseigné et montré – ou pas, justement – quel comportement adopter dans les situations difficiles pour nous.
Ensuite, il y a le poids que représente toujours l’altérité, peu importe l’adulte que nous sommes aujourd’hui. Être en présence d’un autre nécessite toujours une adaptation à cet autre, ce qui requiert souvent une capacité de flexibilité pour supporter que cette personne soit bien différente de nous et possède ses opinions et des façons de faire parfois aux antipodes de ce que l’on voudrait.
J’estime important de sortir de la croyance qu’il y aurait d’un côté ceux qui ont naturellement un bon relationnel et les autres, condamnés à vivre comme des ours des cavernes indécrottables !
Ce n’est pas inné, et de ce fait, ce sont des compétences que n’importe qui, s’il le souhaite, peut développer en y réfléchissant et en s’entraînant ! Mais comme tout entraînement, cela nécessite de faire des efforts, que l’on n’a pas toujours envie de faire justement. Il s’agit donc à ce moment-là de faire un choix, que chacun et chacune peut faire. Il ne s’agit en aucun cas d’une fatalité.
Au vu de tous ces éléments, je crois que la première clé qu’il serait bon de développer serait notre capacité d’écoute.
Il me semble que c’est au travers de cette compétence que nous pouvons essayer de retrouver du lien. À chaque intervention en entreprise, je suis frappée par la prise de conscience qu’ont souvent les professionnels lorsqu’ils se rendent compte qu’en fait ils n’écoutent finalement pas grand-chose du discours de l’autre !
Certains l’expliquent très bien : lorsque leur interlocuteur s’adresse à eux, ils sont déjà en train de réfléchir à une solution ou à un argument pour le contrer. Comme beaucoup d’entre nous – et c’est très humain –, nous recherchons souvent le sentiment agréable d’avoir raison ou d’être reconnu dans nos idées, mais de ce fait, nous cherchons souvent alors à faire dire à l’autre ce que nous aimerions entendre plutôt que d’écouter vraiment ce qu’il nous dit.
Ce sont là les conditions optimales pour faire apparaître des tensions ou un conflit, car en face l’autre ne se sent pas du tout entendu, ni accueilli dans ses différentes opinions et forcement il se retrouve en train de devoir défendre bec et ongle son point de vue. C’est un cercle un peu vicieux que nous expérimentons tous dans de nombreux contextes de nos vies et dont nous ressortons souvent à la fin terriblement frustrés et agacés !
Pour éviter cela, je crois qu’il est très important d’envisager l’idée qu’écouter quelqu’un ne veut pas dire être d’accord avec lui ! Mony Elkaïm, célèbre psychothérapeute systémique familiale, disait que l’on peut avoir à 100 % raison sans considérer que l’autre ait tort. Je crois que c’est exactement là l’essence même de l’attitude d’écoute à développer.
Pour apprendre à écouter, il s’agit aussi – bien souvent et c’est très difficile – d’apprendre à se taire ! Le silence n’est généralement pas du tout quelque chose que les êtres humains affectionnent. Aujourd’hui, on parle à tout prix, on blablate, on meuble, mais surtout on ne laisse pas de place au silence nous permettant de réfléchir ! Le vieil adage de nos parents qui disait de « tourner 7 fois notre langue dans notre bouche avant de parler » avait finalement du bon.
Le principe de communication non violente est-il efficace ?
La Communication Non Violente (CNV), créée par Marshall Rosenberg, est un héritage direct des travaux de Carl Rogers, le père de l’écoute active, et en cela, de mon point de vue, c’est plus une excellente philosophie qu’une méthode ou une technique à appliquer.
La CNV offre l’occasion de réfléchir à la notion d’empathie. Or voilà bien un concept qui est loin d’être aussi facile qu’on le dit. L’empathie est la capacité à se représenter la souffrance que l’autre peut éprouver. Encore une fois, ceci est loin d’être quelque chose d’inné. L’empathie s’apprend avant tout par l’éducation, par exemple lorsque l’adulte nomme avec l’enfant les sentiments et les émotions qu’un animal serait amené à ressentir si on lui tire la queue trop fort, ou qu’un camarade ressentirait si on lui tape dessus ou qu’on se moque de lui.
Cette disposition d’esprit va alors développer notre intelligence émotionnelle par la même occasion et nous permettre de mieux cerner nos ressentis ainsi que celui des autres pour ne pas laisser celui-ci nous envahir en permanence.
Comment les soft skills peuvent-elles aider à gérer les conflits ? Comment ces aptitudes peuvent-elles être renforcées dans les entreprises ou dans l’enseignement supérieur ?
Il est certain que lorsque nous développons notre flexibilité, notre ouverture, notre écoute, notre empathie, cela ne peut naturellement que nous aider à être mieux armés pour affronter n’importe quel conflit.
Il y a également dans les soft skills un sujet essentiel à aborder puisque partie intégrante de notre humanité et donc de notre savoir être : notre rapport aux émotions.
Je crois sincèrement qu’il est urgent que les entreprises – mais aussi les écoles, bien sûr – se préoccupent et s’emparent vraiment de ce sujet.
Nous sommes passés d’une génération où il fallait bannir et enfouir nos émotions, à une société où au moindre problème tout le monde « dégueule » son émotion dans une animalité totalement absurde !
Les émotions ne servent pas à cela, justement. Pour reprendre le terme de Françoise Dolto, les émotions ont nécessairement besoin d’être « humanisées ». Et pour aider à cela, nous les humains nous avons une arme redoutable qui s’appelle la parole. Bien sûr, les mots peuvent être destructeurs quand ils sont dits sous le coup de l’émotion, mais ils peuvent aussi avoir un pouvoir réparateur si nous acceptons d’abord de les accueillir pour ensuite mieux les comprendre.
Je crois que toute action de formation professionnelle, d’intervention psychosociale, de mise en place de coaching, de co-développement ou de groupe de parole, par exemple en entreprise, permet inévitablement d’aborder et de faire évoluer ces sujets-là.
Le partage du savoir et l’apprentissage sont les premiers pas vers la démocratie, donc il me paraît essentiel que les entreprises et les écoles ouvrent l’accès au savoir à d’autres sujets que leurs technicités opérationnelles. Les sujets concernant le développement humain dans toute leur complexité deviennent aussi incontournables que le reste.
Le fantasme de remplacer l’humain par des robots semble être à notre porte, mais nous en sommes heureusement encore loin ! Il va donc bien falloir se résoudre à faire les efforts nécessaires pour se mettre à hauteur d’être humain, vous ne croyez pas ?
Bien que 30 à 40 % de la surface de la Terre soit actuellement utilisée pour l’agriculture, une personne sur dix souffre pourtant de malnutrition. Une telle méthode de production pourrait permettre de produire plus de nourriture en utilisant moins de ressources et en diminuant les surfaces agricoles, préservant ainsi les écosystèmes.
Produire des protéines unicellulaires avec des panneaux solaires
La production d’aliments dérivés de la biomasse microbienne existe déjà, puisque des entreprises produisent des protéines unicellulaires (single-cell protein, ou SCP) à partir d’algues, de champignons ou de bactéries. En revanche, ces microbes sont généralement cultivés à partir de produits dérivés de l’agriculture comme le glucose, ou même de ressources fossiles comme le méthane.
Une équipe internationale de chercheurs de différents départements va plus loin, en étudiant l’efficacité d’une solution en total accord avec le développement durable : la production de protéines unicellulaires à l’aide de l’énergie solaire (photovoltaic-driven SCP, ou PV-SCP). Le mécanisme de production est le suivant :
L’énergie solaire est captée et convertie en électricité par des panneaux photovoltaïques ;
Cette énergie électrique est convertie en énergie chimique par conversion électrochimique et stockée dans un donneur d’électrons ou une source de carbone ;
La croissance microbienne stocke cette énergie chimique dans la biomasse ;
Une étape de filtration permet d’éliminer les nucléotides, acides gras et glucides afin de ne conserver que les protéines.
Dans un papier publié récemment dans PNAS, les chercheurs montrent ainsi que pour une quantité de protéines équivalente, une telle solution permet d’utiliser seulement 10 % de la surface au sol occupée par des plantations de soja, le type de culture végétale actuellement le plus efficace.
L’apport nutritionnel semble également excellent, puisque les bénéfices ont déjà été démontrés dans des études précédentes, concernant l’alimentation du bétail et de tels produits sont déjà commercialisés à grande échelle dans l’Union européenne.
Dans un communiqué de presse, Dorian Léger, premier auteur de cette étude, dit espérer « que les protéines microbiennes seront également bénéfiques en tant que complément à nos régimes alimentaires, car elles constituent une source de protéines de haute qualité composée de tous les acides aminés essentiels, ainsi que de vitamines et de minéraux. »
Puiser les nutriments dans l’air, un concept qui intéresse déjà les industriels
Bien que de tels projets puissent sembler très ambitieux, plusieurs entreprises sont d’ores et déjà prêtes à sauter le pas de l’alimentation solaire. À titre d’exemple, la société finlandaise Solar Foods, basée à Helsinki, commercialisera ainsi, fin 2022, un nouveau produit appelé Solein, une protéine déshydratée, sous forme de farine, produite à partir de microbes vivants, de CO2, d’eau et d’électricité renouvelable.
Présentée dans un premier temps comme une méthode de production de nutriments à destination des astronautes pour des missions longues, la Solein sera ainsi bientôt proposée au grand public sous forme de produits transformés.
Afin d’optimiser les interventions de maintenance, l’Institut de recherche en informatique de Toulouse (IRIT) vient de développer un nouvel outil numérique pour aider Enedis à prédire les risques de panne sur ses lignes électriques aériennes. Ce nouveau modèle de maintenance préventive s’appuie sur l’intelligence artificielle, et plus précisément sur des techniques d’apprentissage de type machine learning. « L’idée est de créer un modèle de prédiction, non pas à partir de connaissances expertes, mais en se basant sur l’historique des pannes déjà survenues, explique Mathieu Serrurier, chercheur à l’IRIT. À partir de l’état du câble électrique à un moment donné, l’algorithme doit pouvoir prédire quelle sera sa durée de vie avant la prochaine panne. »
Pour mener à bien ce projet, plusieurs difficultés ont dû être surmontées. La principale étant le fait que les pannes sont des événements rares rapportés à une section de câble. Les chercheurs ont également dû travailler à partir d’un nombre de données limitées dans le temps puisque seules quatre années d’incidents étaient archivées. Enfin, ils ont dû faire face à ce que les statisticiens appellent des données censurées. Il s’agit de données incomplètes liées à l’absence de panne observée sur certaines sections de câbles durant les quatre années. « Cela signifie que l’on ne connaît pas la distance de la prochaine panne, on sait juste qu’elle est supérieure à quatre ans, explique le chercheur. Il s’agit d’un paramètre très important à prendre en compte, car cela ne veut surtout pas dire que la section ne tombera jamais en panne. »
Le nouvel outil développé fonctionne de la même manière que les modèles probabilistes. Il ne prédit pas la date à laquelle une panne va se produire, mais la probabilité qu’elle se produise dans les 2 ans, 4 ans, 10 ans… à venir. Pour traiter les données censurées, l’équipe de recherche s’est inspirée de modèles déjà existants, notamment ceux utilisés pour réaliser des prédictions de taux de survie en médecine. Étant donné qu’ils reposaient sur des modèles de statistiques linéaires, les chercheurs les ont développés pour les intégrer dans des réseaux de neurones.
Au final, ce modèle se révèle plus élaboré et surtout capable de gérer des informations plus complexes comme des images ou du texte. À l’avenir, il pourra par exemple prendre en compte des images satellites et ainsi identifier des problèmes d’élagage d’arbre pour ensuite prédire un risque de panne sur des sections. « Pour l’instant, l’outil intègre des paramètres plus simples comme l’âge de la ligne, le type de matériaux et des informations géographiques telles que la présence d’un bois le long d’une route », précise Mathieu Serrurier.
Le modèle testé pour prédire des taux de survie en médecine
Les premiers tests du système ont donné des résultats probants. Les chercheurs n’ont pas pu comparer ce nouvel outil avec ceux actuellement utilisés par Enedis, car ces derniers doivent rester dans le domaine du secret industriel. Ces tests ont été réalisés sur des pannes déjà survenues en utilisant les trois premières années d’historiques de données pour prédire les pannes sur la quatrième année.
L’outil a aussi été testé dans un tout autre domaine, celui de la médecine, afin de prédire des taux de survie de patients recevant des traitements pour lutter contre des cancers. « Il s’agit de données avec lesquelles les chercheurs comparent régulièrement leurs algorithmes entre eux et qui sont publiques, ajoute le chercheur. Nous avons donc réentraîné notre réseau de neurones à partir d’une nouvelle base de données et nous avons démontré qu’il améliorait de manière significative la qualité de la prédiction ». La connaissance d’un taux d’espérance de vie en médecine a pour but de donner des indications sur le type de thérapie à privilégier en fonction des caractéristiques des patients. Elle permet d’identifier des groupes de patients pour lesquels certaines thérapies fonctionnent mieux que d’autres.
Pour l’heure, ce nouvel outil a été fourni à Enedis, qui va poursuivre son développement, car l’entreprise dispose des connaissances lui permettant d’améliorer encore ses prédictions. « Elle pourra par exemple intégrer des images satellites, mais aussi d’autres données telles que la pluviométrie, le vent, les températures, le gel, l’altitude… Souvent, lorsque l’on développe des nouveaux modèles d’intelligence artificielle pour le secteur industriel, on s’aperçoit qu’ils fonctionnent bien, mais que nous manquons de données pour faire des prédictions de qualité. Avant, les entreprises stockaient leurs données pour conserver une trace de ce qui a été réalisé. Aujourd’hui, un grand nombre d’entreprises doivent changer leur politique de stockage des données et en conserver un très grand nombre dans le but de les exploiter de la manière la plus efficace possible », conclut Mathieu Serrurier.
Révélée par le New York Times, cette affaire montre que la reconnaissance d’image est encore loin d’être parfaite. Pour tenter de comprendre l’origine de cette « erreur inacceptable » (selon les propos d’une porte-parole de Facebook), le réseau a annoncé qu’il allait mener une enquête interne.
Loin d’être infaillible comme le laissent à penser le discours marketing de certains éditeurs ou startups spécialisées, l’intelligence artificielle est parfois épinglée pour ses erreurs reposant souvent sur des biais.
Il y a de nombreuses façons de biaiser un algorithme, car les précautions élémentaires ne sont pas prises. Elles sont moins d’ordre informatique ou algorithmique, que statistique. Disposer d’un échantillon représentatif d’une population que l’on veut adresser par un dispositif est très compliqué.
Risques de discrimination
Fin 2019, les régulateurs de l’État de New York avaient ouvert une enquête contre United Health Group accusé d’avoir utilisé un algorithme dans des hôpitaux qui donnait la priorité aux patients blancs sur les patients noirs. « Il faut être extrêmement vigilant lors de la constitution du corpus afin d’éviter ces biais discriminatoires. Les métiers – et les RH ne font pas exception à la règle, car ce ne sont pas des techniciens – ne sont souvent pas en capacité de juger comment a été formé le corpus d’entraînement, or celui-ci peut présenter un biais », prévenait Jean-Luc Marini, directeur du Lab d’IA de Axys Consultants.
Cet été, le National Institute of Standards and Technology a publié une proposition détaillant la manière dont les entreprises peuvent lutter contre les préjugés de leurs systèmes. « Ce document insiste sur un point très important : les entreprises, mais aussi les autorités lorsqu’il s’agit de repérer une personne dans une foule par exemple, doivent être très vigilantes afin de limiter les biais d’apprentissage et les risques de discrimination. Si on suspecte l’existence de biais, il faut les trouver rapidement et prouver qu’il s’agit réellement d’erreurs », explique Jean-Gabriel Ganascia, professeur à la faculté des sciences de Sorbonne Université, président du comité d’éthique du CNRS et responsable l’équipe ACASA du LIP6.
Concernant l’affaire Facebook, cet expert estime que la proposition faite par l’IA de présenter d’autres images de « primates » n’était pas volontaire. « Le modèle d’apprentissage s’appuie peut-être sur trop peu d’images de personnes de couleur. Mais différents facteurs peuvent perturber le résultat de l’IA : la réflexion de la lumière sur la peau noire n’est pas la même que sur la peau blanche, par exemple ».
IA et induction
De nombreux outils s’appuient sur des données passées pour construire des règles générales, c’est ce qui se produit avec la reconnaissance faciale ou la reconnaissance de posture par exemple. C’est ce qu’on appelle l’induction (raisonnement du particulier au général). « Les philosophes ont démontré depuis très longtemps que le passé ne peut pas définir l’avenir. Plus on a d’éléments pour induire, plus on va se rapprocher de la certitude, mais il peut toujours y avoir quelque chose d’erroné. C’est la raison pour laquelle ce n’est pas la machine qui a – ou qui doit avoir – le dernier mot ; c’est à l’opérateur de prendre la décision finale », rappelle Jean-Gabriel Ganascia.
Alors que le firmament embrase la surface à la fois touffue et granuleuse de collines rebondies et que reptiles et insectes se livrent bataille sur bataille dans des tranchées rocailleuses, nous crevons la dalle en silence. Gaspiller notre salive par 38 °C ? Mauvaise idée… En cet après-midi brûlant, nous errons dans les vallées semi-désertiques de Diyarbakır, ville souveraine nichée au cœur de l’Anatolie, à la recherche du chemin le plus court vers le palais Artuklu, siège de la dynastie turkmène des Artukides. Nous sommes en l’an 1206. Cette année-là, Gengis Khan était nommé chef suprême des Mongols, Jean sans Terre mettait pied à La Rochelle, et le bienfaisant moine bouddhique Chōgen mourait à l’âge vénérable de 85 ans.
Heureusement, nous sommes repus d’une passion inégalable pour la vulgarisation scientifique. Crédit dessin : Intissar El Hajj Mohamed // Techniques de l’Ingénieur. Crédit photo de Diyarbakir : Domaine public.
Alors, sommes-nous là pour changer le cours de l’histoire ? Partons-nous en quête d’une entrevue avec le suzerain ? Sommes-nous à l’affût de confidences inédites qui pourraient bouleverser les siècles à venir ? Que nenni. À vrai dire, encore ce matin à 6h00 tapantes, nous n’avions toujours aucune idée de ce qu’allait nous réserver cette magnifique journée riche en travail strictement professionnel.
En pyjama, étreignant un oreiller, voyage spatio-temporel, direction Diyarbakır, 1206. Crédit dessin : Intissar El Hajj Mohamed // Techniques de l’Ingénieur.
C’était sans compter sur l’arrivée impromptue de Chronox, venu nous imposer de force ses projets éditoriaux. Pour les plus profanes d’entre vous, Chronox est un peu notre guide VIP, qui nous emmène en reportages hors du commun à travers les âges et les continents. Il (ou elle, on ne sait pas trop) est, tout simplement, une occurrence spatio-temporelle, dotée d’un goût prononcé pour les couvre-chefs, et qui ressemble à s’y méprendre à une botte de foin texane vue sous forte influence psychotrope.
Et donc, de bonne heure, Chronox nous a tirés de notre sommeil pour nous « proposer » un sujet qui lui tient particulièrement à cœur (s’il en a un) : les automates du Moyen-Âge ! Ces mécanismes étaient à la base du fonctionnement d’horloges (mais pas que !) qui fascinent par leur ingéniosité précoce encore aujourd’hui : il s’agit là des inventions de l’ingénieur mécanique, artiste et érudit, Al-Jazari, père de la robotique, né en 1136. Et devinez où officiait le savant arabe… Au service du prince artukide, au palais Artuklu, bien évidemment ! Ce qui, vous le comprenez désormais, explique nos pérégrinations actuelles. Profitant d’une brèche dans le fin maillage de l’espace-temps, Chronox nous a expédiés, encore en pyjama et mal réveillés, en pleine Anatolie du début du 13ème siècle. Car 1206 fut aussi l’année où Al-Jazari publia son ouvrage phare : le Livre de la connaissance des procédés mécaniques, dans lequel il illustre et détaille ses inventions.
Bien sûr, notre article ne s’attardera pas sur toutes les constructions mécaniques d’Al-Jazari, si nombreuses furent-elles ! Une catégorie en particulier nous intéresse : ses automates. Mais attention, loin sont-ils du robot Spot, des acrobatiques Atlas, ou encore du tant attendu Tesla Bot. Pensez plutôt aux machines imaginées par Léonard de Vinci. Sauf que le peintre de la Joconde est né trois siècles après Al-Jazari ! C’est dire à quel point notre ingénieur médiéval, dont vous n’aviez peut-être jamais entendu parler, était précurseur. Les automates d’Al-Jazari, élégamment sculptés, aux mécanismes « programmables », minutieusement dessinés et annotés dans son livre, étaient des robots avant l’heure (relativement nouveau, le mot « robot » n’a été inventé qu’en 1920). Et il nous tarde de découvrir l’atelier de l’inventeur !
Mais nous en sommes convaincus : nous nous adonnons là à une pratique tout à fait éthique. (Où est passé Ingmar, vous demandez-vous ? Il fait la courte échelle, naturellement.) Sur le parchemin ouvert sur la table, on peut lire, en arabe, le titre du livre d’Al-Jazari. Crédit dessin : Intissar El Hajj Mohamed // Techniques de l’Ingénieur. Crédit supplémentaire : les dessins miniatures que l’on voit accrochés au mur sont des images appartenant au domaine public.
Vous vous doutez bien que nous n’avons pas droit au GPS en 1206. Et puis, alors que notre moral était au fond du puits… Ô joie, après plusieurs sondages répétitifs de l’horizon au travers de sa longue-vue, et inspection incessante d’une carte vraisemblablement inutile, Chronox, du haut d’un monticule, repère les remparts crénelés de la forteresse de Diyarbakır, abritant derrière leurs fortifications nord-est le palais Artuklu. Trois longues heures de marche plus tard, ponctuées des râles faussement tragiques d’Ingmar, à la tombée de la nuit, nous sommes arrivés, ravis à la vue de tant d’arcades cernées de pierres ! Enfin, l’antre d’Al-Jazari se présente à nous, quoique au prix d’une légère incartade (notre complice ? Une fenêtre).
Accrochés au mur du fond, sont deux dessins de prototypes d’automates faits de la main d’Al-Jazari. Zoomons donc. Examinons-les de plus près. Les choses sérieuses peuvent commencer.
Une postérité européenne
Ingénieur et historien des sciences et des technologies, l’anglais Donald Routledge Hill (1922 – 1994) est l’auteur d’une traduction de l’ouvrage d’Al-Jazari. Dans une présentation de l’inventeur arabe, qu’il a rédigée et que nous avons pu nous procurer, il décrit l’horloge-éléphant, sans doute l’invention la plus célèbre d’Al-Jazari. Il s’agit là d’une horloge hydraulique, c’est-à-dire que son fonctionnement dépend d’un organe moteur hydraulique. Et qui dit horloge, dit mesure du temps… D’où l’enthousiasme exubérant de Chronox !
Plein zoom sur l’horloge-éléphant, dessinée par Al-Jazari. Crédit image : Domaine public.
REPÈRE TECHNIQUE :Horlogerie mécanique:« Un appareil horaire permet de lire l’heure à chaque instant à l’aide d’une aiguille qui se déplace devant un cadran. Il est difficile de communiquer à l’aiguille un mouvement rigoureusement uniforme ; aussi, ordinairement, le moteur d’entraînement de l’aiguille est-il régularisé par un organe réglant qui est un oscillateur. » (Source : Mesure mécanique et électronique du temps)
Mais avant de plonger dans des explications techniques, rappelons le contexte : les horloges hydrauliques arabes sont inspirées des horloges gréco-romaines, de l’Antiquité, et ont précédé l’horloge mécanique dont le premier modèle remonterait à 1270. La forme qu’Al-Jazari a choisi de donner à son horloge serait d’ailleurs un hommage voulu à l’apport multiculturel des inventions antérieures.
Ainsi, chaque élément symboliserait un pays qui a marqué l’Histoire (avec un grand H) par ses technologies novatrices :
Au sommet de l’horloge, un phénix, qui représenterait l’Egypte ;
Le système hydraulique : la Grèce est ici source d’inspiration, grâce aux clepsydres antiques d’Héron d’Alexandrie, de Philon de Byzance, ou encore les travaux de « Pseudo-Archimèdes » (un auteur pseudo-anonyme qui signait Archimèdes, sans toutefois l’être…) ;
Des dragons, emblème folklorique de la Chine, où l’on rapporte l’existence d’automates depuis l’an 400 av. J.-C. ;
Un éléphant d’Inde, pays qui a vu naître le système de « minuterie » utilisé par Al-Jazari ;
Des figurines mécaniques d’hommes (dont un sultan et un scribe) vêtus d’habits traditionnels arabes de l’époque. Parmi les inventeurs arabes cités par Al-Jazari dans son livre, nous retrouvons les trois frères Banou Moussa, également inventeurs d’automates (entre autres, comme ce joueur de flûte programmable, reproduit ici), eux-aussi auteurs d’un ouvrage, Le livre des mécanismes ingénieux, publié en l’an 850, à Baghdad, en Irak.
Si les mécanismes décrits par Al-Jazari avaient déjà été élaborés par ses prédécesseurs, chose qu’il crédite dans son livre, le savant en a perfectionné la méthode et la technique, en améliorant les applications possibles.
En effet, selon Donald R. Hill, la grande majorité des machines décrites (50 au total) et illustrées (173 dessins !) par Al-Jazari dans son livre, ludiques pour la plupart, n’étaient pas spécialement révolutionnaires pour « le développement ultérieur de la technologie mécanique ».
« Bien plus importants, écrit l’historien, sont les composants individuels et les techniques de construction, scrupuleusement décrits par Al-Jazari dans son livre, puisque ceux-ci seront introduits, des siècles plus tard, dans le vocabulaire des ingénieurs d’Europe ».
Parmi les composants et techniques les plus mémorables, donnés en exemple par Donald R. Hill, citons les suivants : les vannes coniques, l’équilibrage statique de grandes poulies, l’utilisation de maquettes en papier – mais aussi en bois – durant la conception… Ou encore la « programmation » (mécanique) : par exemple, faire en sorte que des seaux basculent pour vider leur contenu après le passage d’un laps de temps bien précis (nous reviendrons là-dessus avec un autre exemple). En Europe, ce n’est nul autre que De Vinci qui fut le premier, en 1500, à mentionner à nouveau les valves coniques, accueillies à l’époque comme une invention (il est plus juste de parler de « réinvention »).
C’est là que notre périple pédagogique se complique. On redoutait un peu cet instant, mais le moment est venu de vous expliquer comment fonctionne l’horloge-éléphant, alors accrochez-vous bien ! Nous aidant, cette vidéo réalisée par 1001 Inventions, une organisation londonienne qui a construit une réplique de 9 mètres de haut de l’horloge-éléphant d’Al-Jazari aujourd’hui exposée au centre commercial Ibn Battuta à Dubaï :
Avant le coucou, chanta le phénix
Précisons d’abord les deux principaux éléments de l’horloge-éléphant qui nous renseignent visuellement sur le passage du temps : en haut, un semi-cadran orné de petits disques, alignés en un semi-arc de cercle, qui indiquent le nombre des heures passées à partir du lever du soleil ; un peu plus bas, la figurine d’un scribe, muni d’un stylet, suit d’un mouvement rotatif l’écoulement des minutes.
Sachant que c’est à l’intérieur de la figurine d’éléphant qu’est logé le système hydraulique, constitué d’un seau perforé rattaché à des poulies et flottant dans un réservoir rempli d’eau, nous allons à présent égrener une à une les différentes étapes qui mènent à l’aboutissement du mécanisme de l’horloge-éléphant :
Le seau est perforé, rappelons-le. Ce détail est crucial ! Cet orifice permet de réguler la vitesse à laquelle s’immerge le récipient. Alors que le seau coule lentement dans la bassine, il tire les cordes des poulies ;
Ces cordes à leur tour font tourner le scribe sur lui-même. Il indique ainsi, avec son stylet, le nombre de minutes parcourues ;
Toutes les 30 minutes, c’est la goutte de trop, et le seau s’immerge complètement dans la bassine. Il entraîne par là, via les poulies, une chaîne d’événements décisifs ;
REPÈRE TECHNIQUE :Régulation automatique:« Le besoin de maintenir constantes des grandeurs physiques est […] apparu très tôt. Dans les clepsydres (au temps des Grecs), il était nécessaire de réguler un débit d’eau pour représenter l’écoulement du temps » (Source : Introduction à la mécatronique)
Résultats de l’immersion du seau : à l’intérieur de la coupole qui trône au sommet de l’horloge, un support contenant des billes est tiré vers le haut ;
Cela permet à une bille de glisser, et celle-ci, dans sa descente, frappe une hélice dont l’axe est relié au phénix. L’hélice tourne, de même donc que le phénix, et ce mouvement fait aussi du bruit ;
Par la même occasion, la rotation de l’hélice provoque un changement au niveau du cadran qui va lui aussi « tourner » pour afficher le passage de la demi-heure sur ses disques ;
Ce n’est pas tout : ce même mouvement rotatif aura aussi fait bouger le sultan, qui révèle ainsi, caché derrière sa main, la tête d’un faucon (sculpté) au bec béant. C’est par son bec que la bille va sortir ;
Enfin libre, la bille tombe dans la gueule d’un dragon qui, sous son poids, pivote sur lui-même, tête en bas. Il lâche la bille ;
La rotation du dragon sur son pivot aura en même temps tiré sur l’une des cordes des poulies, et le seau perforé est ainsi remonté à la surface de l’eau ;
Enfin, la bille finit sa course dans un vase miniature, enclenchant ainsi un dernier mouvement tout en musique. Celui du « mahout » (encore une figurine, bien sûr), assis à la tête de l’éléphant qui, avec son maillet, va frapper une cymbale, sonnant par là la demi-heure ! Le seau perforé se remet à couler, et le cycle se répète.
Pour nous autres résidents modernes du 21ème siècle, on est bien loin du tic-tac assuré des aiguilles d’une montre et de la certitude froide de l’heure affichée sur nos écrans de poche. Mais, pour reprendre les sages paroles de notre ami Chronox : « Toute innovation du jour n’est qu’amélioration du passé ! » Al-Jazari, en tout cas, y croyait. Mais ce ne fut pas sa seule contribution. Pavant la route vers la robotique contemporaine, le livre d’Al-Jazari créait un rare précédent : au fil de ses pages, l’ingénieur ne s’adressait pas exclusivement à l’élite scientifique, comme il était de coutume parmi ses pairs, mais à toute personne souhaitant reproduire ses inventions !
Une documentation technico-pratique
Dans une étude parue en 2017, Constantin Canavas, chercheur et professeur au HAW Hamburg (Allemagne), écrit : « Le texte [des manuscrits d’Al-Jazari, NDLR] se caractérise par une formalisation de la représentation des connaissances techniques. Ce formalisme comprend un aperçu, une description fonctionnelle, une description détaillée de la construction et des recommandations pratiques concernant les obstacles, les modes de défaillance et les matériaux de construction alternatifs pour chaque automate. »
Simplement dit, le Livre de la connaissance des procédés mécaniques fut l’œuvre d’un visionnaire, devançant de huit siècles les notices de montage d’Ikea. L’ouvrage, commandé à Al-Jazari par le prince artukide Nāṣir al-Dīn Maḥmūd qui, fasciné et amusé par les machines du savant, tenait à conserver précieusement ces connaissances, est une véritable documentation technique et pratique où la théorie a peu d’importance et les secrets très peu de place.
Pour vous le prouver, nous avons sorti nos loupes et avons inspecté cette autre page repérée dans l’atelier d’Al-Jazari. Car, bien que nos prénoms à nous deux, Tilda comme Ingmar, soient à fortes consonances celtique et germanique, nous sommes parfaitement arabophones ! Est représenté sur cette feuille le prototype d’un automate verseur de boissons (de sa main droite) et ventilateur (de sa main gauche). Le schéma est accompagné d’une description précise du mécanisme interne contrôlant le fonctionnement de l’automate :
Notre deuxième zoom du jour : le prototype d’un automate verseur de boissons (main droite) et ventilateur (main gauche). Cette page est issue d’un manuscrit du livre d’Al-Jazari. Elle décrit et schématise dans le menu détail le mécanisme interne contrôlant le fonctionnement de l’automate. Crédit image : domaine public.
Si nous vous montrons cette image, c’est surtout parce que nous tenons à vous donner une meilleure idée du style d’écriture qu’adoptait Al-Jazari. Voici quelques morceaux choisis, traduits par nos soins, légèrement adaptés pour plus de clarté, et identifiés dans le texte arabe (littéraire) étalé sur la page :
« Quant au bras gauche, celui-ci tourne [pour se mettre paume vers le bas, et ainsi éventer, NDLR] à mesure que le seau se remplit de liquide. Le liquide, en montant à la surface du seau, entraîne avec lui un objet flottant. Ce dernier est relié à un fil qui est d’abord enroulé autour d’une bobine placée sous l’épaule de l’automate et est tordu ensuite sous une autre bobine, cette fois sous le coude […] »
Ces quelques lignes ne vous semblent peut-être pas palpitantes, mais elles ont au moins le mérite d’être limpides !
Dong. Qu’entendons-nous ? Serait-ce le bruit d’une cymbale vibrant sous le coup d’un maillet vigoureusement abattu pas le bras mécanique d’un mahout ? Vous avez vu juste ! Notre excursion (à visée professionnelle, toujours !) touche à sa fin. Il est temps pour nous de rentrer nous désaltérer.
Peu après l’écriture de son livre, en cette même année 1206, Al-Jazari est décédé, léguant aux générations ingénieures futures un héritage d’inventions qui sont étudiées et admirées encore aujourd’hui.
* « Vous êtes mon idole. » Nos informations n’ont pas pu confirmer si Al-Jazari parlait le chronoxois, mais il semble apprécier. Crédit dessin : Intissar El Hajj Mohamed // Techniques de l’ingénieur
Nous avions évoqué plus haut une réplique géante de l’horloge-éléphant, installée à Dubaï. Mais d’autres répliques, de taille moindre, existent ailleurs, comme au Musée d’Horlogerie du Locle, en Suisse. Quant au livre de l’ingénieur médiéval, certaines copies manuscrites, partielles, ont perduré et sont actuellement préservées dans des musées : comme au Palais de Topkapı, situé à Istanbul, en Turquie, terre natale d’Al-Jazari.
Désormais obsolètes, les machines d’autrefois, ancêtres délaissés des technologies les plus pointues de nos jours, continuent de nous intriguer. Et c’est pourquoi notre mission se poursuit ! Au prochain chapitre, nous ferons un saut en Grèce Antique, où nous tenterons de conquérir les étoiles ! D’ici là, nous ne vous en dirons pas plus.
Crédit image de une : Techniques de l’Ingénieur
Crédit dessin de une : Intissar El Hajj Mohamed // Techniques de l’Ingénieur
La fabrication d’une tonne de ciment dégage environ une tonne de CO2 et l’industrie du ciment représente à elle seule 8 % des émissions de CO2 anthropiques. Avec une production mondiale qui dépasse les 16 milliards de tonnes par an, le béton est actuellement la deuxième ressource la plus consommée sur Terre après l’eau. Le ciment, composant essentiel du béton, représente à lui seul 4,1 milliards de tonnes par an.
Incorporer des nanomatériaux carbonés, une solution de renforcement prometteuse
Avec une résistance à la traction allant de 5 à 100 GPa et un module de Young de 1 TPa, les nanotubes de carbone sont de bons candidats au renforcement des bétons, tout comme le graphène (130 GPa en résistance à la traction pour un module de Young de 1 TPa).
Si plusieurs études ont déjà mis en avant des gains significatifs en termes de rigidité et de résistance pour des bétons intégrant de tels matériaux, des critères extrêmement importants restent à évaluer, en particulier la présence de défauts et le comportement des ciments à la rupture.
Actuellement, l’influence de ces nanomatériaux sur le comportement du ciment Portland n’est pas connue et nécessite d’être étudiée. Les travaux des chercheurs de la Northwestern University ont ainsi pour objectif d’employer de nouvelles méthodes de caractérisation de la rupture et de développer des protocoles de synthèse alternatifs afin d’étudier l’impact de ces nanomatériaux carbonés sur la résistance à la rupture.
Ces travaux sont développés en détails dans une étude publiée en open access dans le journal Philosophical Transactions of the Royal Society A.
Le scratch test, une méthode qui permet d’accélérer la caractérisation de ces matériaux
Les méthodes de caractérisation traditionnelles ont l’inconvénient de nécessiter un grand nombre d’essais et la mise en forme d’une grande quantité de ciment. Ange-Therese Akono, auteure principale de cette étude, propose une méthode alternative : elle utilise une machine de scratch test équipée d’une sonde conique pour étudier la fissuration du ciment sur des échantillons de petite taille.
Dans un communiqué de presse, la chercheuse explique : « Ma méthode s’applique directement à l’échelle du micromètre et du nanomètre, ce qui permet un gain de temps considérable. Sur cette base, nous pouvons comprendre comment les matériaux se comportent, comment ils se fissurent et finalement prédire leur résistance à la rupture. »
Puis elle ajoute : « Le rôle des nanoparticules pour cette application n’était jusqu’à présent pas encore compris, il s’agit donc d’une avancée majeure. »
Le champ de cette étude couvre de nombreux domaines comme la construction de bâtiments, l’entretien des routes, l’optimisation des capteurs et des générateurs, mais aussi la surveillance de la santé de structures.
Les méthodes développées dans cette étude sont également en lien avec d’autres sujets tout aussi importants sur lesquels travaille Ange-Therese Akono : l’incorporation de déchets de construction dans la fabrication de béton et l’étude de la compréhension des performances à long terme, sur 10, 20 ou 40 ans.
Dans le cas d’un démontage à la main, la rentabilité du recyclage de petits appareils électroniques tels que les montres connectées peut être remise en question. Les travaux de ces chercheurs visent à contourner le problème en éliminant cette étape.
Déchets électroniques : un taux de recyclage en hausse, mais des efforts à accentuer
Selon une étude Global E-Waste monitor 2020, si le taux de collecte et de recyclage des déchets électroniques semble plus élevé en Europe que sur les autres continents (42,5 % pour l’Europe en 2019, contre 9,4 % pour le continent américain et 11,7 % pour le continent asiatique), on estime que 8 % des équipements sont directement jetés aux ordures ménagères par leurs propriétaires et finissent ainsi en enfouissement ou en incinération. Le plus souvent, ces équipements qui échappent aux filières de recyclage sont de petits appareils : smartphones, montres connectées, etc.
Par ailleurs, le recyclage des déchets électroniques est un processus aussi complexe que coûteux et qui est susceptible de dégager un nombre élevé de substances toxiques (combustion, lixiviation acide, etc.).
40 heures pour dissoudre une montre connectée
Selon l’étude publiée dans ACS Applied Materials & Interfaces, cette équipe de chercheurs aurait développé un nouveau type de circuit composé d’un matériau nanocomposite bimétallique. Cette équipe n’en est pas à son coup d’essai. Ils avaient déjà auparavant développé un nanocomposite du même type, à base de zinc, destiné à la fabrication de circuits temporaires, mais celui-ci n’était pas assez conducteur pour l’électronique grand public.
Ils ont ainsi modifié ce nanocomposite en lui ajoutant des nanofils d’argent, le rendant ainsi hautement conducteur. Ils ont ensuite sérigraphié la solution métallique sur des pièces en alcool polyvinylique (PVA), un matériau polymère qui a la particularité de se dégrader dans l’eau.
Ce processus leur a permis d’obtenir une montre connectée composée d’une multitude de circuits imprimés nanocomposites protégés par une coque en PVA conçue par impression 3D.
Pour tester l’aptitude au recyclage de cette montre, ils l’ont ensuite immergée dans l’eau : il a suffi de seulement 40 heures pour dissoudre l’ensemble des circuits ainsi que la coque. Les seuls éléments restés intacts étant l’écran OLED, le microcontrôleur et quelques autres composants.
Penser réparation avant recyclage !
Si le recyclage des déchets électroniques est bien entendu un point essentiel, la meilleure façon de réduire l’impact environnemental de ces appareils est en premier lieu d’allonger leur durée de vie. Cela signifie tout simplement que les fabricants doivent concevoir des appareils au maximum réparables ou prévoir une seconde vie dès la conception. En clair, il faut en finir avec l’obsolescence programmée.
En France, depuis le 1er janvier 2021, les fabricants de certains appareils comme les smartphones doivent ainsi afficher un indice de réparabilité. Si vous souhaitez savoir si votre téléphone est réparable, nous vous invitons à consulter ce site.
La formation de glace sur les aéronefs est un phénomène dangereux qui est susceptible de perturber le contrôle par les pilotes. Bien qu’ils soient fiables, les systèmes de dégivrage classiques ont l’inconvénient d’être très gourmands en énergie : ils peuvent consommer ponctuellement jusqu’à 40 % de la puissance totale produite par un avion !
Le projet PIPS (Passive Ice Protection System), démarré en 2016 et conduit par Euro Heat Pipes (EHP), a été financé à 65% par l’UE, dans le cadre de CleanSky 2. Il avait pour but de développer un nouveau système de dégivrage passif qui exploite la chaleur du moteur. EHP est le spécialiste européen de la régulation thermique des engins spatiaux. En plus des caloducs, EHP produit également des boucles capillaires diphasiques ainsi que des bras articulés pour les satellites.
Le projet PIPS a atteint le niveau 5 en termes de maturité technologique : si le concept a été démontré, la technologie doit donc être encore affinée.
Techniques de l’Ingénieur : EHP est spécialisé dans la régulation thermique des engins spatiaux. Est-ce différent de ce qui a été mené dans le projet PIPS ?
Romain Rioboo, ingénieur chez Euro Heat Pipes et coordinateur du projet PIPS
Romain Rioboo : Pour schématiser, les systèmes que nous concevons ont pour but d’amener de la chaleur d’un point A à un point B, de la manière la plus efficace possible. Or, l’un des moyens les plus efficaces est d’exploiter les changements de phase liquide-gaz et donc d’utiliser des technologies que nous maîtrisons bien.
Néanmoins, lorsque nous travaillons sur la régulation thermique des satellites, la plupart du temps, nous cherchons à refroidir et non à réchauffer. Dans le cadre du projet PIPS, c’était l’inverse, car l’objectif était de concevoir un système passif capable de transporter la chaleur résiduelle des moteurs vers leur entrée d’air, afin d’éviter la formation de givre sur les bords.
Crédit : Romain Rioboo
Ce projet a été clôturé en décembre 2020. Avez-vous obtenu des résultats concluants ?
Nous avons obtenu de bons résultats : nous avons conçu un système entièrement nouveau, capable de transporter 10 kW sur une entrée d’air de 62 cm de large pour une trentaine de centimètres de hauteur et une surface totale de l’ordre de 0,9 m². Néanmoins, nous considérons que c’est un succès partiel, car les essais en soufflerie réalisés dans le cadre d’un autre projet parallèle ont démontré que le dégivrage n’était pas totalement uniforme, ce qui prouve que la chaleur n’est pas encore bien répartie sur la surface de l’entrée d’air et que la conception du condenseur doit être améliorée.
Prototypes à l’échelle 1:1 qui ont servi aux expérimentations du projet PIPS. Crédit : Romain Rioboo
Comment fonctionne ce système ?
Notre système fonctionne en utilisant le principe de boucle de pompage capillaire, qui utilise un fluide – du méthanol – circulant en circuit fermé à l’intérieur de capillaires. Ce fluide est ainsi en permanence au voisinage du point de saturation. Si le principe est relativement simple, la difficulté ici était de concevoir une pompe capillaire capable de fonctionner lors des phases d’accélération de l’avion et de résister à 2G en permanence. Pour compenser les pertes de charge, il a donc fallu produire des poreux en inox constitués de capillaires extrêmement fins et concevoir une nouvelle architecture. Cette architecture particulière a nécessité d’être stabilisée et ajustée, ce qui a conduit à un dépôt de demande de brevet.
Le projet PIPS a atteint le TRL 5 (Technology readiness level). Que manque-t-il pour atteindre le niveau 6 ?
Le TRL niveau 5 correspond à la mise en place de prototypes à échelle réelle respectant les formes, mais en environnement représentatif et contrôlé. Pour passer au TRL 6, il faudrait tester le système sur un véritable avion, ce qui nécessite des financements importants. C’est un peu la limite des projets de type CleanSky : s’il y a des moyens de financement permettant de faire avancer les projets d’un TRL bas jusqu’au niveau 4 ou 5, il est toujours très difficile de trouver des financements permettant d’aller vers une phase d’industrialisation.
Ancienne PME, EHP est désormais une filiale d’Airbus. Cela a-t-il eu un impact sur le projet PIPS ?
Depuis 2017, Euro Heat Pipes est une filiale non consolidée d’Airbus. Néanmoins, ce rachat n’a pas eu d’impact sur le projet PIPS, car il a été lancé en 2016 et nous étions donc éligibles à ce type de projet financé, que nous avons d’ailleurs conduit en grande partie seuls, un laboratoire de l’ENSMA ayant réalisé des modélisations du condenseur.
Aujourd’hui, en tant que filiale d’un grand groupe, nous ne sommes malheureusement plus éligibles à ce type de projet, mais nous serions ravis que le développement se poursuive pour aboutir un jour à une solution de dégivrage efficace et bon marché pour les avions.
Le fonctionnement détaillé de ce système de dégivrage passif est décrit dans cette publication, disponible en open accès.
Chaque jour, nous laissons de multiples traces de notre vie d’internaute. Ce sont autant d’informations recueillies par les GAFA. Et en particulier par Google dont le business model repose sur l’analyse de ses services gratuits comme Gmail ou son moteur de recherche.
Ces données sont ensuite exploitées par ces géants du web, mais aussi par une multitude de startups et agences, pour faire de la publicité ou de la vente ciblée.
« Toutes ces informations, traitées par l’intelligence artificielle, leur servent à modéliser le comportement de leurs milliards d’utilisateurs pour prédire leurs actions et, de plus en plus, pour les influencer », souligne Shoshana Zuboff, professeure émérite à la Harvard Business School et professeure associée à la Harvard Law School, dans son livre L’Âge du capitalisme de surveillance (éditions Zulma).
Face au développement de ce « capitalisme de surveillance », des internautes partent en résistance. « Comme les entreprises ont besoin des données des consommateurs pour alimenter leurs modèles d’IA, les gens peuvent exercer une influence sur les entreprises en modifiant leur comportement en ligne, par exemple en cessant d’utiliser ces logiciels. Si les gens cessent d’utiliser une certaine application alimentée par l’IA, par exemple, celle-ci perdra les données nécessaires à son apprentissage », explique Nicholas Vincent, étudiant diplômé de la Northwestern University, dans l’article Data leverage: A framework for empowering the public in its relationship with technology companies.
Brouiller les pistes
Pour l’équipe de chercheurs de cette université qui a travaillé sur cette problématique, la résistance consiste aussi à « empoisonner » ses données. Il existe deux principaux procédés. Le premier est ce qu’ils appellent « la grève des données ». Elle consiste à retenir ou à supprimer ses données afin qu’une entreprise ne puisse pas les utiliser. Cette première piste implique d’utiliser notamment un VPN (respectueux de notre vie privée…) pour masquer sa vraie identité numérique, notamment son adresse IP, afin de ne pas être suivi à la trace.
La seconde technique est le « data poisoning ». Elle consiste à fournir des données inutiles ou nuisibles pour influencer les systèmes de recommandation. Cette technique est utilisée depuis plus d’une dizaine d’années par des pirates.
Leur objectif ? Manipuler l’ensemble des données d’apprentissage afin de contrôler le comportement d’un modèle de prédiction. Cette technique a déjà été déployée pour tenter de leurrer des solutions antispam. Dans un billet publié sur son blog en mai 2018, Elie Bursztein (chercheur en cybersécurité chez Google) indiquait qu’il voyait « régulièrement certains des groupes de spammeurs les plus avancés tenter de déjouer le filtre Gmail en signalant des quantités massives d’emails de spam comme n’étant pas des spams […] Entre fin novembre 2017 et début 2018, il y a eu au moins quatre tentatives malveillantes à grande échelle pour fausser notre classificateur. »
Une parade efficace, mais limitée
Les internautes peuvent aussi utiliser la technique du « data poisoning ». La méthode la plus simple consiste à installer sur son navigateur web AdNauseam. Cette extension « clique » sur toutes les publicités qui vous sont proposées, ce qui pollue les algorithmes de ciblage publicitaire de Google. Il n’est donc pas étonnant que cette extension soit blacklistée sur le webstore de Google. Elle ne peut être installée que sur Firefox (reposant sur Chrome de Google, le navigateur de Windows appelé Edge ne la propose pas non plus).
Si cette parade est facile à mettre en place par tous les internautes, elle n’est efficace que si au moins 30 % des utilisateurs participent à cette opération de « data poisoning » selon les chercheurs de la Northwestern University.
« Malgré l’immensité des données accumulées par les grands acteurs de l’Internet sur nos faits, gestes et envies, ils ne savent pas tout sur vous et n’ont pas accès aux données métiers de nombre de marchés verticaux. En effet, les données métiers des entreprises sont chez elles et uniquement chez elles. Les GAFA n’ont pas mis la main dessus. S’ils le faisaient, cela serait avec l’assentiment des grandes entreprises concernées », précise sur son blog Olivier Ezratty, consultant et auteur spécialisé dans les technologies numériques.
La perliculture est la deuxième source de revenus en Polynésie française, mais est associée à une source spécifique de pollution plastique. Coordonnée par l’Ifremer, une nouvelle étude parue dans le Journal of Hazardous Materials confirme une contamination généralisée de trois lagons de l’archipel des Tuamotu dans lesquels la perliculture est bien présente : Ahe, Manihi et Takaroa. Les concessions marines perlicoles y représentent respectivement 5,6 %, 2,5 % et 4,4 % des superficies totales du lagon.
Les campagnes d’échantillonnages se sont déroulées entre novembre 2017 et mars 2018. Elles y ont dénombré de 14 à 716 microplastiques par mètre cube d’eau dans la colonne d’eau, jusqu’à 21 microplastiques par gramme de chair humide d’huîtres perlières en élevage et jusqu’à 8 microplastiques par mètre cube d’eau en surface. « Par comparaison avec d’autres sites au niveau mondial, ces niveaux de contamination par des microplastiques sont élevés, notamment chez l’huître », souligne dans un communiqué Tony Gardon, premier auteur de cette étude réalisée pendant sa thèse à l’Ifremer du Pacifique et actuellement post-doctorant au Centre de recherches insulaires et observatoire de l’environnement (CRIOBE).
Des fragments de plastiques issus de la perliculture
En caractérisant ces microplastiques par spectroscopie infrarouge à transformée de Fourier, les chercheurs ont trouvé une présence dominante de fragments d’une taille comprise entre 20 et 200 µm en polyéthylène et d’une couleur noire-grise. La forte présence de microplastiques en forme de fragment (plus de 70 %) suggère qu’ils résultent de la décomposition de débris plastiques plus gros. Ces fragments présentent notamment des similitudes avec les équipements en plastique utilisés en perliculture, en particulier les collecteurs de naissains et les cordes qui fixent les stations d’élevage.
L’étude, réalisée dans le cadre du projet Microlag, avec le soutien du gouvernement de Polynésie française via la Direction des Ressources Marines, porte sur des zones pourtant peu peuplées et soumises à une faible pression touristique. Mais ces zones connaissent une activité de perliculture historique. Depuis 40 ans, l’activité ne s’est pas accompagnée de plan structuré de gestion des déchets, souligne l’étude. Et alors que durant les années 2000, la crise du secteur a entraîné plusieurs fermetures de fermes perlières, des installations laissées à l’abandon dans le lagon s’accumulent et se fragmentent lentement.
En 2014, un inventaire réalisé par des scientifiques dans le lagon d’Ahe avait révélé la présence de milliers de tonnes d’engins perlicoles – opérationnels ou abandonnés – en plastique. Les plastiques les plus fragiles peuvent ainsi se fragmenter et s’ajoutent aux microplastiques entrant dans les lagons à partir d’autres sources anthropiques. Ils s’ajoutent également aux microplastiques en provenance du gyre océanique du Pacifique Sud – l’une des 5 grandes zones d’accumulation de déchets plastiques flottant au milieu des océans – situé non loin de là.
Ces dernières années, beaucoup d’efforts ont été faits pour certifier des filières avec des biocarburants. Au total 7 filières permettant de mélanger des carburants dits durables avec des carburants fossiles ont été certifiées par l’ASTM International, l’organisme de normalisation qui rédige et produit des normes techniques concernant divers matériaux et produits, dont les carburants pour l’aviation. Ces derniers mois, des constructeurs et entreprises du monde de l’aviation ont multiplié les annonces de création de filières 100 % biocarburants. Boeing, Safran et Airbus, entre autres, ont indiqué vouloir obtenir une certification pour des avions volant avec 100 % de biocarburants d’ici 2030. « Ces annonces sont un peu prématurées. Bien sûr que l’on peut faire voler un avion avec 100 % de biocarburant, mais il est peu probable d’envisager une commercialisation à grande échelle dans les prochaines années. Même pour 2050/2060 nous n’y serons peut-être pas », nuance Philippe Marchand, retraité de chez Total et désormais expert indépendant.
L’étanchéité des joints à surmonter
La raison principale tient dans un verrou technique à faire sauter. Actuellement, la limite d’incorporation des carburants durables est de 50 % (avec 50 % de carburants fossiles classiques), pour deux raisons : l’universalité du carburant aviation et l’absence de molécules aromatiques dans les biocarburants. En effet, tous les carburants doivent être interchangeables et doivent tous pouvoir être utilisés dans n’importe quel avion et n’importe où dans le monde. Or, l’absence de molécules aromatiques dans quasiment toutes les filières de biocarburants pose un problème d’étanchéité au niveau des joints élastomères des circuits de carburant des avions actuels. Il faut entre 6 et 8 % de molécules aromatiques environ pour assurer l’étanchéité, il y en a entre 15 et 20 % dans les carburants classiques, et pas du tout dans les carburants durables. D’où un maximum de 50 % de biocarburants.
Deux solutions sont imaginées pour s’en affranchir. Il faudrait soit produire des biocarburants avec des molécules aromatiques pour assurer le comportement normal des joints, soit mettre au point des joints différents pour les futurs moteurs d’avions. « La production de biocarburants avec des cycles aromatiques reste trop chère, c’est la solution qui risque de sortir en dernier », estime Philippe Marchand. L’autre possibilité, développée essentiellement par Safran, est techniquement jouable, mais tant que des avions avec d’anciens moteurs seront en circulation, il ne sera pas possible de généraliser des filières avec plus de 50 % de biocarburants.
Une législation nécessaire pour imposer les biocarburants
L’autre problème fondamental des biocarburants dans l’aviation est qu’ils restent beaucoup plus chers que les énergies fossiles. « Les compagnies aériennes n’ont aucun intérêt à utiliser les biocarburants, sauf si elles y sont obligées », constate Philippe Marchand. La Commission européenne a d’ailleurs fait une proposition de réglementation cet été pour imposer l’usage des biocarburants dans le transport aérien sur l’ensemble de son territoire. La proportion de biocarburants obligatoires est au cœur des négociations, mais il s’agirait de 2 % pour 2025 et 5 % pour 2030. Des pourcentages qui restent pour l’instant assez faibles. Une législation au niveau international semble par contre impossible, puisqu’il faudrait convaincre tous les pays de l’Organisation de l’aviation civile internationale (OACI). Or certains pays, comme la Russie ou la Chine, ne sont pas du tout intéressés.
Une filière de production de biocarburants en France
Si une obligation d’utilisation entre en vigueur, il faudra envisager de produire des biocarburants à grande échelle. Pour ne pas entrer en concurrence avec d’autres productions agricoles, il y a une volonté à ne pas utiliser des matières premières issues de l’agriculture, mais plutôt des déchets ou résidus comme les huiles de fritures. Seulement les ressources sont parfois limitées, notamment pour les huiles, et le potentiel va vite s’épuiser. C’est pourquoi le gouvernement français a lancé un appel à projets, dans le cadre du plan de relance, pour proposer des filières alternatives pour la production de biocarburants. Jusqu’à 200 millions d’euros pourront être débloqués pour un ou plusieurs projets. « Actuellement, les alternatives sont soit beaucoup plus coûteuses, comme la gazéification-synthèse, et n’ont donc pas de sens sur le plan économique, soit sont seulement au niveau de démonstration », explique l’expert. Il s’agirait donc de se concentrer sur les filières qui en sont encore au stade de la démonstration, pour voir s’il est possible de passer au niveau industriel. Les réponses à l’appel à projets sont attendues pour avril 2022.
Si l’utilisation de carburants durables rencontre des problèmes techniques, ils restent une option pertinente face aux carburants fossiles. Les autres alternatives ont en effet leurs propres défauts. Dans l’état actuel des connaissances, l’utilisation de l’électrique pour les vols internationaux reste une utopie. Et concernant l’hydrogène, le fait de brûler de l’eau va créer des traînées de condensation qui pourraient engendrer plus d’effet de serre que les hydrocarbures. « Il ne faut pas être trop enthousiaste pour les avions à hydrogène et électriques », prévient Philippe Marchand. À l’inverse, les biocarburants, de par l’absence de molécules aromatiques, sont moins polluants lors du vol que les carburants classiques. Reste à trouver un moyen de production à grande échelle.
20 ans de suivi de la contamination chimique en Méditerranée – Crédit : Ifremer
Cependant, 10 % de ces points restent au rouge, notamment à proximité des grandes métropoles régionales comme Marseille, Toulon, Nice, Villefranche ou encore Bonifacio. Selon les endroits, on y retrouve plomb, mercure, cuivre, hydrocarbures aromatiques polycycliques (HAP), etc., liés au passé militaire et industriel des villes. Mais également près d’anciens sites industriels, on retrouve du nickel, comme au Cap Corse, dû à l’ancienne mine d’amiante de Canari. Autres polluants problématiques selon les chercheurs : le duo mercure et PCB (polychlorobiphényle), dont le problème réside dans leur capacité à s’accumuler durablement dans la chaîne alimentaire. Plus de 65 % des roussettes pêchées à la côte et 85 % des sébastes prélevés au large présentent des niveaux de mercure supérieurs au seuil, nous précisent les chercheurs.
Et ce n’est pas tout : les scientifiques traquent les contaminants émergents potentiels. En effet, la présence de nouvelles molécules, utilisées par l’industrie, l’agriculture, ou d’autres activités, pourrait avoir un impact sur le milieu marin. Par exemple, des échantillons récoltés lors d’une campagne en mer – baptisée SushiMed – vont permettre de pister les molécules anticancéreuses ayant pu être accumulées par les moules, et en caractériser leurs effets. Ces travaux pourraient par exemple amener à développer des filtres d’épuration pour limiter le rejet des contaminants dans l’environnement.
Un réseau de surveillance complet
Pour suivre les contaminants, les équipes ont mis en place un « réseau de surveillance » d’acquisition de mesures sur les organismes, mais également sur leur milieu.
Station artificielle de moules. Crédit : S. Fontaine
Pour les organismes marins, les chercheurs disposent de trois réseaux. Le réseau d’observation des contaminants chimiques matière vivante (ROCCH MV) consiste à utiliser des mollusques bivalves (huître et moules) pour détecter les contaminations en métaux et polluants organiques persistants. Le réseau intégrateur biologique (RINBIO) utilise des stations artificielles de moules réparties sur toute la côte méditerranéenne. Ces stations sont plus précisément des poches ostréicoles de 2,5 kg immergées sur les différentes stations pendant 2,5 mois, entre mars et juillet. Pour les stations en mer, les poches conchylicoles sont maintenues à une profondeur de 15 mètres via un lest de 30 kilos et un flotteur. Et le réseau contaminants dans la chaîne trophique en méditerranée (Contamed) permet de documenter et cartographier les niveaux de contaminations des polluants métalliques et organiques persistants dans la chaîne trophique pour appréhender les phénomènes de bioamplification, et donc de transferts de contaminants dans la chaîne alimentaire.
Échantillons de moules – Crédit : S. Fontaine
Pour l’observation dans le milieu par les sédiments et des échantillonneurs passifs, l’Ifremer utilise deux réseaux. Le réseau d’observation des contaminants chimiques sédimentaires (ROCCH SED) s’appuie sur les propriétés que possèdent de nombreux contaminants chimiques de se fixer à la surface des particules qui sédimentent. Ensuite, le réseau de surveillance potentiel toxique des sédiments (REMTOX) permet l’étude de la toxicité des échantillons, en utilisant les larves et embryons de bivalves pour leur forte sensibilité aux contaminants. Et pour finir, les échantillonneurs passifs intégratifs permettent d’analyser les contaminants présents dans la colonne d’eau. Ils sont utilisés en complément du réseau RINBIO. Pour caractériser l’état chimique des masses d’eau en Méditerranée, des échantillonneurs spécifiques ont été utilisés, pour les composés hydrophiles, pour les métaux et pour les composés hydrophobes.
Le béton est capable de supporter des contraintes de compression importantes, mais sa résistance aux efforts de traction est très faible. Face à cette insuffisance, des barres en acier sont placées à l’intérieur pour le renforcer. Ce couplage béton/acier présente malgré tout un défaut : sa forte sensibilité à la corrosion. Pour pallier cette difficulté, l’IRT M2P (Institut de Recherche Technologique Matériaux Métallurgie et Procédés) et le groupe chimique français Arkema viennent de mettre au point un nouveau matériau composite permettant de renforcer les bétons en lieu et place des traditionnels « rebars ».
« Des renforts de béton en matériaux composites existent déjà sur le marché, analyse Maxime Kowalski, directeur du pôle d’activité Matériaux Composites & Assemblage à l’IRT M2P. Ils sont peut-être un peu plus utilisés aux États-Unis qu’en Europe. Par contre, ils sont fabriqués en matériaux thermodurcissables et il n’est donc pas possible de les cintrer, les former ou de les souder entre eux contrairement à l’acier. Tout l’enjeu de notre projet a consisté à fabriquer un matériau composite thermoplastique. »
La fabrication de matériaux composites thermoplastiques est généralement réalisée à partir d’un polymère, qui est fondu puis imprégné à une fibre. Sauf que l’emploi d’un polymère provoque une viscosité importante et il devient alors plus difficile d’imprégner la fibre. Les deux partenaires de ce projet ont alors innové pour contourner cette difficulté, chacun dans son domaine de compétence. Arkema a développé une résine thermoplastique réactive appelée Elium et constituée de monomères. L’IRT M2P s’est ensuite chargée de développer un procédé pour la polymériser durant la phase de fabrication. Concrètement, la résine subit d’abord un procédé de pultrusion, ce qui permet la création d’un profilé en matériau composite qui ressemble à un jonc. Il est ensuite texturé pour garantir un encrage maximal dans le béton.
Ce nouveau composite est beaucoup plus léger que l’acier
« L’avantage est d’utiliser une résine qui a une viscosité bien plus faible que celle d’un polymère fondu. Notre matériau composite thermoplastique présente des taux de renforcement plus importants et la vitesse de production pour le fabriquer est également plus importante. Son procédé de fabrication est en effet exactement le même qu’un thermodurcissable classique et il répond donc aux préoccupations économiques des industriels. »
En plus de ne pas être sensible à la corrosion, ce matériau composite se révèle également beaucoup plus léger avec une densité proche de 2 contre 7 tonnes pour l’acier. Il est ainsi plus facile à manipuler sur les chantiers de construction. Il présente aussi un mode d’usage quasi similaire à l’acier puisqu’il est possible de le cintrer ou le souder pour l’adapter aux géométries de renforcement des bétons. Il suffit pour cela de le former à chaud (aux alentours de 200 degrés).
Cette nouvelle résine fait déjà l’objet d’une commercialisation et des partenaires industriels ont commencé à fabriquer les premiers rebars thermoplastiques. Cette innovation s’inscrit dans un projet plus large, appelé COACH, et qui vise à fabriquer des pièces composites selon les mêmes procédés de fabrication que ceux utilisés pour les pièces en résines thermodurcissables. En plus de la construction, les secteurs ciblés sont ceux de l’automobile, de l’aéronautique et de l’énergie (éolien & hydrogène).
Le Congrès mondial de la nature de l’Union internationale de conservation de la nature (UICN) revient pour la première fois en France depuis l’assemblée fondatrice de l’UICN à Fontainebleau en 1948. Organisé tous les quatre ans, le Congrès mondial de la nature de l’UICN mobilise tous les acteurs de la protection de la biodiversité. À partir de ce vendredi, chercheurs et scientifiques, représentants politiques, entreprises, société civile et peuples autochtones se réuniront à Marseille. Le Congrès s’attachera à hisser la préservation de la biodiversité en priorité internationale au même titre que la lutte contre le changement climatique. Plus de 160 pays sont représentés, jusqu’à 5 000 congressistes et 60 000 visiteurs sont attendus durant ces 9 jours.
Le Congrès mondial de la nature de l’UICN constitue une étape cruciale pour appuyer les négociations de la 15ème Conférence des parties de la Convention sur la diversité biologique (COP15). Il doit poser les premières bases du cadre stratégique mondial pour la biodiversité, qui sera définitivement adopté lors de la COP15. Cette dernière a été reportée à cause de la crise sanitaire et se tiendra en Chine en 2022. « Le Congrès mondial de la nature de l’UICN sera l’occasion de dresser un panorama global des politiques internationales de protection de la biodiversité, d’identifier les enjeux clés et d’échanger les bonnes pratiques », a déclaré Barbara Pompili, ministre de la Transition écologique. Le congrès marseillais constitue ainsi le seul événement international de grande ampleur visant à renforcer les ambitions de protection de la biodiversité avant la COP26 climat en novembre à Glasgow.
Les grands enjeux de protection de la biodiversité au programme
Pour poser les bases du cadre stratégique mondial pour la biodiversité visant à dessiner les contours d’une nouvelle relation avec le vivant, le Congrès se structure autour de sept enjeux clés. Il s’agira notamment de trouver les outils, incitations et financements pour mieux gérer les paysages et les territoires. Le Congrès évoquera des solutions pour conserver l’eau douce et restaurer la santé des océans. En plus, il s’attachera à mieux connecter les questions de biodiversité aux enjeux d’atténuation et d’adaptation aux changements climatiques pour utiliser la nature comme source de solution.
Les congressistes chercheront aussi à améliorer la gouvernance liée à la biodiversité en donnant plus de représentativité aux femmes, aux jeunes et aux peuples autochtones. Par ailleurs, il s’agira de trouver des solutions pour dissocier la croissance économique de ses effets actuels sur les écosystèmes. Enfin, la manifestation prévoit d’identifier les moyens pour faire progresser les connaissances sur la biodiversité et ainsi booster l’innovation et les technologies basées sur la nature.
Pour la première fois dans un Congrès mondial de la nature, un espace du parc Chanot de Marseille est réservé au grand public : les Espaces Générations Nature. Près de 400 animations et projets y seront présentés : des activités ludiques, ateliers pédagogiques, conférences et performances artistiques pour découvrir les enjeux de la biodiversité et partager des moyens d’agir.
Les images pédopornographiques diffusées sur Internet ne cessent de proliférer. En 2009, moins d’un million de ces contenus circulaient sur le web. Dix ans plus tard, ce volume atteint 45 millions rien qu’aux États-Unis, selon une enquête du New York Times publié fin 2019.
Comme d’autres pays, la France dispose de différents services dédiés à la lutte contre la pédopornographie. Citons notamment trois services de la gendarmerie : l’institut de recherche criminelle de la gendarmerie nationale (créé en 1987), le Département de surveillance de l’Internet (DSI), créé en 1998, et le Centre national d’analyse des images pédophiles (CNAIP), opérationnel depuis fin 2003. De son côté, la police forme des enquêteurs spécialisés en technologies numériques (appelés enquêteurs NTECH).
Au Canada, toutes les 12 heures, le robot Arachnid détecte 10 824 nouvelles images d’abus pédosexuels sur l’Internet. Lorsqu’une telle image est détectée, le robot envoie un avis à l’hébergeur lui demandant de la retirer immédiatement, révèle La Presse Canadienne.
Backdoor
Même si la pédopornographie n’est pas récente, son expansion est liée à l’explosion du numérique, du haut débit et de la généralisation des smartphones. Pour limiter la diffusion de tels contenus, Apple prévoit de scanner les photos stockées sur les iPhone (dont l’application Messages utilisée pour envoyer des SMS) et iCloud à la recherche d’images d’abus d’enfants.
Le système, appelé neuralMatch, s’appuie sur la base de données contenant 200 000 images du National Center for Missing & Exploited Children. « Une fois qu’un certain nombre de photos sont détectées, les photos en question sont envoyées à des réviseurs humains au sein d’Apple, qui déterminent si les photos font bien partie de la base de données CSAM (Child Sexual Abuse Material). Si l’examinateur humain le confirme, ces photos seront envoyées au NCMEC (The National Center for Missing & Exploited Children) et le compte de l’utilisateur sera désactivé », explique Apple.
Déployée dans un premier temps aux États-Unis, cette fonctionnalité ressemble au service PhotoDNA de Microsoft. La principale différence réside dans le fait que la numérisation d’Apple se fera sur l’appareil. Mais ce louable objectif n’entre-t-il pas en conflit avec le respect de la vie privée ?
Pour les membres de l’Electronic Frontier Foundation (EFF), « l’exploitation des enfants est un problème grave, mais le choix d’Apple aura un prix élevé pour la vie privée globale des utilisateurs, car cette fonctionnalité est une backdoor. Elle ouvrira la porte à des abus plus larges ».
« Deux mécanismes entrent en jeu : une analyse Machine Learning en local et une comparaison des hashs des photos avec le hash de la base de données CSAM [la fonction de hachage consiste à faire passer la photo dans un « hachoir » pour obtenir une empreinte donc une suite numérique qui correspond à la photo, ce qui permet de respecter la vie privée. Cette technique est aussi utilisée pour sauvegarder des mots de passe de façon plus sûre, NDLR]. L’intervention de l’IA au niveau local est de plus en plus fréquente et depuis longtemps, notamment dans les applications d’appareils photo sur smartphone. En soi, ce n’est pas la technologie qui est dangereuse à partir du moment que cela respecte complètement la réglementation locale (à savoir le RGPD pour les Européens) », précise Mathieu Gemo, co-fondateur de BlueFiles, un éditeur français spécialisé dans le chiffrement des données.
Transparence et algorithmes privés
Mais pour le co-fondateur de BlueFiles, la réflexion est plus délicate avec le second mécanisme. D’un côté, « il a l’avantage de ne pas compromettre le respect de la vie privée. En effet, le hash, appelé NeuralHash, est produit depuis la photo source en clair sur l’appareil. C’est compatible avec les mécanismes de stockage chiffré des photos comme sur iCloud. Seul le NeuralHash, comme dossier de preuve, est potentiellement transmis et ne remet pas en cause normalement la confidentialité de la photo », précise Mathieu Gemo.
Cette fonctionnalité « pose toutefois de nombreuses interrogations sur le traitement juridique en termes de localité et les potentielles erreurs techniques qui pourraient avoir des conséquences désastreuses que l’on peut imaginer. Le risque d’erreur sur la dénonciation éventuellement erronée est le plus inquiétant ainsi que la légitimité de la preuve provenant d’algorithme privé ou de l’autorité traitant ces données et leur suite juridique », note Mathieu Gemo.
Autres questions soulevées par cet expert : le NeuralHash ne sera-t-il transmis qu’en cas de doute ou toutes les données seront conservées ? Si oui, où et combien de temps, consultables par qui ?
Pour Tristan Nitot, ancien président de Mozilla Europe et co-fondateur d’Unsearch.io, « l’approche d’Apple est très perturbante, pour plusieurs raisons. La première est la confirmation que les sauvegardes sur iCloud ne sont pas chiffrées, ce qui est un non-sens d’un point de vue sécurité. On s’en doutait depuis longtemps, mais Apple disait qu’ils travaillaient dessus. Aujourd’hui, cette volonté semble s’être évanouie. Cela augure mal le futur à ce sujet. Deuxièmement, c’est choquant de la part d’une entreprise qui mise beaucoup sur la vie privée. Enfin, c’est une pente glissante et donc risquée. Car il ne faut pas oublier qu’Apple vend ses produits dans le monde entier. Et qu’ils suivent logiquement les lois des différents pays. »
Tristan Nitot rappelle aussi qu’on voit « déjà des régimes autoritaires exiger des changements à la politique d’Apple. Il ne s’agirait plus simplement de scanner les images pédophiles, mais aussi traquer des gens dont la vie n’est pas du goût des autorités (homosexualité, LGBTQ, ou partage de caricatures politiques). Une fois une telle infrastructure logicielle en place, il suffirait de quelques modifications pour mettre sous surveillance non plus seulement des enfants à protéger, mais des citoyens à traquer, que ce soit pour leur style de vie ou leurs opinions ».
Au final, cette affaire relance la problématique sur l’absence de transparence des algorithmes privés et leurs conséquences sociales et juridiques dans la vie réelle.
Plus d’un an après le vote de la loi relative à la lutte contre le gaspillage et à l’économie circulaire, dite « AGEC », son article 13-II va bientôt s’ancrer dans la réalité. Cet article prévoit que chaque metteur sur le marché mette à disposition du public par voie électronique toutes les informations permettant d’identifier la présence de substances comportant des « propriétés de perturbation endocrinienne avérées ou présumées », selon l’Anses, dans un produit. Et ce, « dans un format ouvert, aisément réutilisable et exploitable par un système de traitement automatisé ».
Selon le décret d’application publié le 25 août au Journal officiel, dès le 1er janvier 2022, la mise à disposition de « la liste de ces produits et des substances que chacun d’entre eux contient » se fera sur un site internet dédié ou une application. L’information sera « accessible sans frais et réutilisable de façon à permettre une agrégation ». Les données seront ainsi publiées en open data pour permettre « à des plates-formes collaboratives d’exploiter ces informations », explique le décret.
Une obligation différenciée selon le niveau de preuve scientifique
L’obligation s’applique aux pesticides et autres produits phytopharmaceutiques, aux dispositifs médicaux, aux matériaux, aux jouets, aux cosmétiques et aux denrées alimentaires. Les médicaments sont toutefois exclus du périmètre de la mesure.
Les substances concernées sont toutes celles « dont l’Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail (Anses) qualifie les propriétés de perturbation endocrinienne d’avérées, présumées ou suspectées ». Un arrêté fixera la liste de ces substances selon ce niveau de preuve scientifique, ainsi que la liste des catégories de produits présentant un risque d’exposition particulier.
L’obligation d’information s’appliquera ainsi aux produits contenant des perturbateurs endocriniens avérés ou présumés. Pour les produits contenant des perturbateurs endocriniens suspectés, l’obligation d’information s’appliquera uniquement aux catégories de produits présentant un risque d’exposition particulier, selon l’arrêté. Une exception regrettable, selon le Réseau Environnement Santé (RES), association qui œuvre à plus de santé environnementale au cœur des politiques publiques. Le RES estime dans un communiqué qu’« il est inévitable d’inclure tous les perturbateurs endocriniens dans cette liste ». L’association œuvrera d’ailleurs pour que la révision du règlement européen relatif à la classification, à l’étiquetage et à l’emballage des substances et des mélanges aille dans ce sens.
Une « avancée » insuffisante pour le Réseau Environnement Santé
Si le RES salue cette avancée, il rappelle que « les efforts en matière de lutte contre les perturbateurs endocriniens devraient se concentrer sur une réduction significative de l’exposition à ces substances ». « L’essentiel de l’effort revient encore une fois aux consommateurs qui devront proactivement s’informer sur Internet ou via des applications mobiles, regrette l’association. Une proposition plus ambitieuse aurait pu être un étiquetage sous la forme d’un pictogramme très lisible figurant sur chaque emballage, dans le cadre plus large d’un Toxi-Score. »
Le RES profite de l’occasion pour demander des actions plus fortes au gouvernement. L’association demande par exemple l’interdiction des perfluorés dans les emballages alimentaires, comme le Danemark l’a fait, ou encore « des investissements massifs ». Son ambition : que la Stratégie Nationale sur les Perturbateurs Endocriniens (SNPE) devienne « une politique majeure de prévention et de santé publique », d’un niveau similaire à la politique de sécurité routière.
Le bruit coûte très cher à la société française : 155,7 milliards d’euros précisément, selon une étude récemment publiée par le Conseil National du Bruit (CNB) et l’Ademe. L’évaluation estime que les effets du bruit touchent directement 25 millions de personnes en France chaque année. Pourtant, une part importante de ces coûts pourraient être évitée grâce à quelques mesures d’évitement simultanées du bruit et de la pollution de l’air. L’étude en met en lumière quatre qui présentent « un ratio très intéressant entre les bénéfices attendus et les coûts investis », « les bénéfices sociaux apportés étant très largement supérieurs aux coûts des investissements nécessaires », selon les auteurs.
Des coûts évitables en luttant contre la pollution de l’air
Pour évaluer la portée des mesures d’évitement, les auteurs calculent un ratio bénéfices/coûts. Celui-ci représente le rapport entre les bénéfices sociaux qui pourraient découler de la mesure en termes d’amélioration du bien-être de la population additionnés aux coûts évités pour la collectivité, et le coût de la mise en œuvre de cette mesure. La mesure la plus rentable consiste de loin à réduire les vitesses sur voies rapides : elle présente un ratio bénéfices/coûts sur dix ans de 685. La mise en place de zones à faibles émissions de mobilité (ZFE-m), comme cela a récemment été introduit par la loi Climat, participe également à réduire ce coût social du bruit. La mesure présente un ratio bénéfices/coûts sur 4 ans de 13. L’amélioration de la qualité acoustique des bâtiments scolaires présente pour sa part un ratio annuel de 10. Enfin, l’application d’une charte « chantier propre » présente un ratio annuel de 3.
Ce coût social du bruit provient à plus de deux tiers des transports : 51,8 % sont dus au bruit routier, 9,4 % au bruit aérien et 7,2 % au bruit ferroviaire. En deuxième ligne se trouvent les bruits liés au voisinage (16,9 %) avec en tête le bruit des particuliers, suivi par le bruit des chantiers et des activités professionnelles. Ensuite, l’étude attribue 13,5 % de ce coût social au milieu du travail, à répartir entre les milieux industriel et tertiaire, scolaire et hospitalier. Enfin, les deux organismes ont évalué les dépenses transversales de surveillance, d’information, d’études et de recherche à 1,3 % de ce coût social du bruit.
Des impacts sanitaires qui touchent 25 millions de personnes
Pour chacune des familles de sources de bruit étudiées, les auteurs ont évalué les effets sanitaires. « Gêne, perturbations du sommeil, maladies cardiovasculaires, obésité, diabète, troubles de la santé mentale, difficultés d’apprentissage, médication, hospitalisation, maladies et accidents professionnels », énumèrent les auteurs. Par exemple, la forte gêne liée au bruit concerne 17,2 millions de personnes en France. En plus, 3,9 millions de personnes connaissent des perturbations du sommeil à cause du bruit, 1,4 million deviennent obèses et 1,1 million ont des difficultés d’apprentissage. En plus, la France enregistrerait 154 000 accidents du travail en lien direct avec le bruit et 600 nouveaux cas de surdité professionnelle chaque année.
L’étude a délimité deux types de coûts pour réaliser ces évaluations : les coûts marchands, correspondant aux dépenses directement quantifiables, et les coûts non marchands. Ces derniers sont estimés par la valorisation des années de vie en bonne santé perdues. Ils prennent également en compte la mortalité prématurée du fait de la pollution sonore. Les coûts sanitaires non marchands – gêne, perturbations du sommeil, maladies cardiovasculaires, obésité, troubles de santé mentale, difficultés d’apprentissage et diabète – s’élèvent à 134,3 milliards d’euros. Ils représentent ainsi 86 % de ce coût social du bruit. Les coûts marchands – pertes de productivité, surveillance et R&D, dépréciation immobilière et assurance maladie – s’élèvent à 21,4 milliards d’euros, soit 14 % de ce coût social du bruit.
Crédit : Ademe/Conseil national du bruit
D’après l’Organisation mondiale de la santé (OMS), la pollution sonore constitue le deuxième facteur environnemental provoquant le plus de dommages sanitaires en Europe, derrière la pollution de l’air. Selon l’OMS, environ 20 % de la population européenne, soit plus de 100 millions de personnes, est exposée de manière chronique à des niveaux de bruit préjudiciables à la santé humaine.
Vous avez peut-être raté l’information : le 20 juillet, la loi Climat, inspirée des travaux de la Convention citoyenne pour le climat, a été adoptée par les députés et les sénateurs. 79 députés de gauche (PS, PCF, LFI) ont alors saisi le Conseil constitutionnel au motif que nombre de dispositions s’inscriraient « dans la spirale d’inaction ayant conduit au non-respect de la trajectoire de la France en matière de réduction des gaz à effets de serre ». En somme, ils dénonçaient l’insuffisance de la loi prise dans son ensemble, sans viser de disposition particulière. Dès lors, « leur grief ne peut qu’être écarté », assure le Conseil constitutionnel dans sa décision du 13 août. En effet, l’institution ne « dispose pas d’un pouvoir général d’injonction à l’égard du législateur », rappelle-t-il.
Le Conseil constitutionnel valide la majorité du texte
Le Conseil constitutionnel a validé en grande partie le projet de loi ; il a simplement censuré 16 dispositions sur un total de 305 articles. Pour 14 d’entre elles, l’institution a estimé qu’il s’agissait de cavaliers législatifs, c’est-à-dire que ces dispositions n’ont pas leur place dans le texte car elles sont sans lien avec l’objet du texte de loi. Il ne préjuge en rien de leur conformité avec les autres exigences constitutionnelles. Mais deux articles ont bien été jugés non conformes à l’article 38 de la Constitution. Barbara Pompili, la ministre de la Transition écologique, a réagi en indiquant que le ministère « explorera d’autres voies » pour ces mesures.
La ministre avait indiqué vouloir promulguer rapidement la loi et prendre au plus vite les décrets d’application. La loi est ainsi parue au Journal Officiel du 24 août. Mais les critiques fusent toujours parmi les ONG contre un texte jugé largement insuffisant pour répondre aux défis climatiques et écologiques.
Quelles sont donc les mesures phares retenues ?
Les mesures phares concernent l’aviation avec l’interdiction dès mars 2022 des lignes aériennes lorsqu’il existe une alternative en train de moins de 2h30 (hors correspondance), ou encore la lutte contre la pollution de l’air avec la création de zones à faibles émissions mobilité (ZFE-m) dans les agglomérations métropolitaines de plus de 150 000 habitants d’ici au 31 décembre 2024.
Côté rénovation, après d’intenses débats, le texte retient l’interdiction, pour les propriétaires de passoires thermiques, d’augmenter le prix du loyer de leur logement en location, en absence de travaux de rénovation énergétique. Les passoires thermiques présentant une étiquette G ne pourront plus être louées à partir de 2025, celles disposant d’une étiquette F à partir de 2028. Et à partir de 2034, les logements classés E seront à leur tour interdits à la location.
La Convention citoyenne pour le climat appelait à interdire la publicité vantant les produits les plus polluants. Finalement, la loi retient l’interdiction de publicité pour les énergies fossiles dès août 2022. Les publicités devront en plus mentionner l’impact climatique des produits, et ce dès mars 2022 dans les secteurs de l’automobile et de l’électroménager. À partir de 2028, la publicité pour les véhicules les plus polluants sera interdite.
La loi met en place un délit général de pollution, divisé en deux niveaux. Le premier concerne les atteintes graves et durables à l’environnement, le deuxième le délit d’écocide. Ce dernier vise les délits commis de manière intentionnelle. Les peines peuvent alors atteindre 10 ans d’emprisonnement et 4,5 millions d’euros d’amende (et 22,5 millions d’euros pour les personnes morales). Les atteintes les plus graves commises intentionnellement à l’environnement étaient jusqu’ici passibles d’une peine maximale de 5 ans de prison et 300 000 euros d’amende (750 000 euros pour les personnes morales).
Côté économie circulaire, la loi prévoit que les grandes et moyennes surfaces, de plus de 400 m², consacrent 20 % de leur surface de vente au vrac d’ici 2030. « Malgré des évolutions positives en matière d’économie circulaire concernant par exemple le développement de la vente en vrac, l’interdiction des emballages en polystyrène et l’expérimentation du « Oui Pub », le texte final manque clairement d’ambition notamment au sujet de la consigne pour réemploi des emballages en verre », regrette Juliette Franquet, directrice de Zero Waste France.
« Malgré quelques victoires symboliques, comme l’interdiction tardive sur les produits polluants, le prêt à taux zéro mobilité ou les menus végétariens dans les cantines, nous sommes encore loin du compte. La loi fait l’impasse sur plusieurs enjeux clefs, dont la responsabilité environnementale des entreprises », conclut Pierre Cannet, directeur du plaidoyer du WWF France.
L’opérateur britannique, que l’on croyait en faillite, renaît de ses cendres, et s’approche de la moitié de son objectif, en termes de satellites mis en orbites. En effet, après avoir lancé 34 nouveaux satellites il y a quelques jours via une fusée Soyouz opérée par Arianespace, OneWeb dispose aujourd’hui de 288 satellites en orbite basse.
Pour espérer commercialiser d’ici la fin de l’année 2022 un service d’internet par satellite, la constellation devra disposer d’au moins 648 satellites en orbite basse.
Aujourd’hui, l’opérateur envisage de continuer à mettre en orbite les satellites de sa constellation, le plus rapidement possible, pour avoir une chance d’exister au milieu d’un secteur où la compétition est féroce, avec Starlink, la filiale de SpaceX, qui dispose déjà de 3000 satellites en orbite…
Deux sondes de l’ESA ont survolé Vénus en moins de 33 heures
Les sondesSolar Orbiter et BepiColombo ont toutes les deux frôlé Vénus les 9 et 10 août dernier, à tout de même près de 8800 kilomètres de distance pour Solar Orbiter, qui se dirige vers le soleil, et 550 km pour BepiColombo, qui se dirige vers Mercure.
Les images de la « rencontre » ne sont pas nombreuses , mais elles sont disponibles sur le site de l’ESA.
La Nasa recherche quatre volontaires pour vivre dans une maison « martienne », imprimée en 3D
L’impression 3D pourrait s’avérer indispensable pour imaginer construire un habitat sur une autre planète. La Nasa s’apprête à tester un habitat entièrement construit en impression 3D, et cherche 4 volontaires pour l’habiter pendant une année complète. L’idée est de récolter de précieuses informations pour améliorer le concept, au fur et à mesure.
Icon, géant américain de l’impression 3D, est l’entreprise qui développe ces habitats :
Les quatre locataires de cet habitat auront des missions diverses : simulation de sortie spatiale, communication limitée avec l’extérieur, ressources limitées, pannes… comme l’explique la directrice scientifique du projet à la Nasa Grace Douglas, en évoquant la vie sur Mars : « Nous voulons comprendre comment les humains s’y comportent. Nous examinons des situations réalistes sur Mars. »
Ceci dit, les conditions requises par la Nasa pour postuler sont drastiques. Pour être éligible il vous faut à minima :
Être citoyen américain ;
Avoir un diplôme dans un domaine scientifique lié à l’ingénierie ou l’aviation ;
Avoir entre 30 et 55 ans ;
Ne pas être sujet au mal des transports.
Des profils d’astronautes, en somme. Pour postuler, c’est ici.
Et si l’on pouvait directement puiser l’énergie de l’océan ? Chaque année, la puissance des vagues côtières autour du monde équivaudrait ainsi à la production globale annuelle d’électricité. Problème : les moyens d’extraire cette énergie sont peu efficaces et résistent mal aux conditions marines. Une équipe dirigée par l’université RMIT, en collaboration avec l’université Beihang, s’est donc proposée de mettre au point un outil de conversion de l’énergie marémotrice optimisé. Une meilleure efficacité et une meilleure capacité d’absorption de puissance pourraient doubler la collecte actuelle. Présentée le 2 août 2021 dans Applied Energy, la nouveauté repose sur deux turbines placées l’une au-dessus de l’autre et en rotation dans des directions opposées. Un système de transmission par courroie relié au générateur permet ensuite d’amplifier la vitesse rotationnelle de ce dernier. Le stockage de l’énergie peut donc se faire loin des turbines. Placé dans la bouée située au-dessus de la ligne de flottaison, le générateur est ainsi protégé de la corrosion. Des tests ont été effectués sur des amplitudes de vagues de 80 mm pour une fréquence de 0,3 Hz. Résultat : une efficacité de 11,57 % pour 26,4 mW de puissance. Ce succès conforte les chercheurs, qui ont déjà dans l’idée de passer à un modèle à taille réelle.
Une détection « saine » des rayons X
Depuis une vingtaine d’années, les structures organométalliques semi-conductrices sont étudiées pour le passage aux appareils électroniques de nouvelle génération. Shuquan Chang, Shenqiang Ren et leurs collègues de la Nanjing University of Aeronautics and Astronautics et de l’université de Buffalo ont employé une telle structure pour réaliser un détecteur à rayons X.. non toxique ! En effet, l’imagerie à rayons X a beau être rapide et sans douleurs, les panneaux de détection contiennent des métaux lourds, comme le plomb et le cadmium. Le travail des chercheurs sur une structure absorbante de Ni-DABT (2,5-diamino-1,4-benzenedithiol dihydrochloride) a été publié dans Nano Letters le 4 août 2021. Pour parvenir au résultat final, du sel de chlorure de nickel a été mélangé à du DABT durant plusieurs heures. Puis, cette couche a été prise en sandwich entre des électrodes à films dorés. Ce nouveau type de détecteur pourrait servir dans la surveillance des radiations ou en imagerie médicale.
L’impression de circuits pour toutes les formes
Pour réaliser des diagnostics médicaux, certains capteurs peuvent être invasifs pour le patient. Une façon d’y remédier consisterait à utiliser des circuits imprimés sur des surfaces en 3D de formes complexes. De tels capteurs portables pourraient ainsi être placés directement sur la peau sans occasionner de gêne particulière. Une nouvelle stratégie de fabrication pour l’impression de circuits a été mise en place dans ce sens par une équipe internationale dirigée par Penn State. Décrite le 5 août 2021 dans Materials Today, leur méthode s’appuie sur un transfert de masse de nanoparticules de zinc à l’aide d’une intense lumière pulsée de xénon. La lumière fait monter la température jusqu’à évaporation des nanoparticules. Celles-ci sont ensuite laminées avec des films polymères semi-transparents afin d’atteindre la condensation du zinc sur la surface en 3D. Un motif de zinc pour l’électronique est alors formé, à la fois conducteur et biodégradable. Une preuve de concept a été faite sur des coquillages et des gobelets en verre. Dans le futur, cette nouvelle technique devrait permettre de se passer des chambres à vide, coûteuses et nécessitant de nombreuses heures d’opération.
Plus de 1 400 organisations gouvernementales, de la société civile et des peuples autochtones, se concerteront lors du Congrès mondial de la nature de l’UICN pour définir les priorités et guider les actions de conservation et de développement durable.
Cette semaine sera l’occasion de réunir l’Assemblée des Membres de l’UICN , mais aussi d’un forum pour aborder les aspects économiques, sociaux, scientifiques et techniques de problèmes allant de la faune sauvage aux océans, des zones protégées aux entreprises durables et du changement climatique aux droits de l’homme.
Fresque-galerie sur l’esplanade du parc Chanot à Marseille
En parallèle, se tient une exposition avec au sein de l’exposition des Espaces Générations Nature (EGN), un outil original pour présenter le biomimétisme à un large public : une fresque-galerie géante de 51 mètres de long.
En partenariat avec l’Institut Méditerranéen de Biomimétisme qui s’associe à l’opération, également présent sur les EGN, les visiteurs auront la chance de pouvoir compléter cette découverte du biomimétisme par une plongée immersive dans les récifs coralliens !
Conférence pour une vision d’ensemble des tendances « biomimétisme »
Pour compléter, une conférence se tiendra sur la grande scène du Parc Chanot, le lundi 06 septembre (grande scène, 14h-15h30, hall 7, entrée libre – soumise à la présentation du pass sanitaire). Alain Renaudin interviendra sur le thème « Biomim’Scope » : définition, revue de tendances et galerie d’exemples d’innovations bio-inspirées.
Pour compléter ces outils de sensibilisation au biomimétisme, un programme plus avancé est prévu, avec, entre autres, des excursions apprenantes et un Biomim’expo day le mardi 7 septembre. Voir le programme
Un avant-goût de Biomim’expo
La 6ème édition de Biomim’expo se tiendra à Paris, le 19 octobre 2021. Un programme complet avec des conférences, débats, tables rondes, pitchs de projets, finale du Biomim’Challenge, expositions, forum des exposants, ateliers participatifs, Biomim Lab Show, speed dating, animations, projections de films, plateau TV, corner médias, café littéraire, salon du livre avec dédicaces d’auteurs,… Programme de Biomim’expo
L’étoile de mer dite commune (Asterias rubens) est considérée comme une espèce invasive. Localisée en Europe du Nord, principalement dans la mer d’Irlande, la mer du Nord, la mer Baltique et la Manche, elle peut faire de gros dégâts. En Bretagne, certains éleveurs de moules de bouchot ont évalué des pertes de production liées à sa présence allant jusqu’à 60 % en 2017. Sa prolifération rapide est attribuée au changement climatique qui provoque une augmentation de la température de la mer et un manque d’eau douce, lié aux faibles précipitations.
Des chercheurs du laboratoire IRDL (Institut de recherche Dupuy de Lôme) se sont penchés sur une solution originale pour éliminer ces étoiles de mer. Dans le cadre d’un projet nommé SEMEA (séchage et méthanisation des astéries), ils ont étudié la faisabilité d’une filière locale allant de la récolte jusqu’à la valorisation de cette biomasse, grâce à un processus combinant le séchage et la méthanisation.
« Les quantités d’étoiles de mer sont très fluctuantes, explique Jean-Louis Lanoisellé, professeur à l’UBS (Université Bretagne Sud) et chercheur à l’IRDL. Il est nécessaire de les éliminer rapidement, car lorsqu’elles sont à l’air libre, elles se dégradent, ce qui provoque une odeur nauséabonde. Le séchage permet d’éviter ces odeurs et de les stocker dans de bonnes conditions. Il présente également l’intérêt de limiter leur dégradation, et donc la perte du potentiel de méthanisation. »
Les chercheurs ont étudié un mode de séchage à l’aide d’une technologie par jet d’air impactant qui permet d’améliorer la vitesse de séchage. Objectif : limiter la quantité d’eau présente dans les astéries à environ 10 %. Deux températures ont été testées, toutes les deux à des niveaux relativement modérés afin de limiter la consommation d’énergie. La première, à 40 degrés, a nécessité un temps de séchage de 480 minutes et la seconde, à 70 degrés, a demandé 200 minutes.
« Les températures testées conviennent toutes les deux, précise le chercheur. Après, pour ajuster le niveau, il s’agit d’un compromis entre le temps de séchage, la consommation énergétique et la dimension du séchoir. Cette élimination des étoiles de mer nécessite une collaboration entre des pêcheurs et des agriculteurs en bord de mer possédant des équipements de séchage et de méthanisation. Les séchoirs agricoles ont l’avantage de fonctionner souvent à basse température. »
Un temps de dégradation dans le digesteur d’une trentaine de jours
Une fois séchées, les astéries deviennent très friables et peuvent être facilement fractionnées en petits morceaux de quelques millimètres avant d’être introduites dans un méthaniseur. Dans le cadre de ce projet, la méthanisation a été réalisée en laboratoire. Les scientifiques ont observé un temps de méthanisation de l’ordre d’une trentaine de jours. Comparé à d’autres matières, ce temps de dégradation est jugé assez rapide. Pour les besoins de l’expérimentation, ces étoiles de mer représentaient l’unique matière introduite dans le méthaniseur. Les chercheurs voulaient savoir si les molécules présentes dans les étoiles de mer, et qui sont réputées comme toxiques et antibactériennes, allaient stopper le processus de décomposition de la matière organique par les bactéries dans le digesteur. Il n’en a rien été.
« L’une des difficultés pourrait se situer au niveau de la teneur assez importante en matières minérales présentes dans cette biomasse, analyse Jean-Louis Lanoisellé. Elles ne sont pas digestibles et ne peuvent pas être transformées en d’énergie. Ces matières minérales se décantent et restent dans le fond du digesteur. Ce phénomène pourrait poser un problème sur les méthaniseurs qui ne sont pas conçus avec un système d’évacuation des matières solides présentes dans le fond de la cuve. »
Une analyse du bilan énergétique du processus démontre que la chaleur générée par le biogaz à partir des étoiles de mer pourrait couvrir entre 22 % et 96 % de la chaleur totale nécessaire pour l’opération de séchage. Cet important écart dépend de l’optimisation des procédés mis en œuvre. L’analyse économique révèle quant à elle que la valorisation du biogaz produit via la cogénération pour une production combinée de chaleur et d’électricité ou via l’injection directe dans le réseau de gaz naturel pourrait couvrir le coût du traitement.
« Cette étude préliminaire montre que la voie du séchage et de la méthanisation peut être une solution pour répondre à une problématique locale de cette espèce invasive, déclare Jean-Louis Lanoisellé. Ce travail de recherche pourrait déboucher sur une démarche plus globale puisque la région Bretagne voudrait valoriser les molécules d’intérêt présentes dans les astéries. La méthanisation pourrait ensuite être utilisée pour les éliminer, mais à condition que toute la matière organique des astéries n’ait pas été prélevée lors de l’étape de la valorisation. »
Le Lawrence Livermore National Laboratory (LLNL), un laboratoire public américain, vient d’annoncer qu’il a réussi à battre un nouveau record de production d’énergie produite grâce à la fusion nucléaire. L’expérience a été réalisée au National Ignition Facility (NIF), en Californie, grâce à un laser de recherche extrêmement énergétique. Les chercheurs ont réussi à atteindre un rendement de plus de 1,3 mégajoule, soit huit fois supérieur à celui obtenu au printemps dernier.
Cette performance est d’une grande complexité à mettre en œuvre. Elle a été rendue possible grâce à la concentration de la lumière à l’aide de 192 faisceaux laser, sur une cible de la taille d’un plomb de chasse. Elle a eu pour effet de produire un point chaud du diamètre d’un cheveu, générant plus de dix quadrillions de watts par la fusion, pendant 100 trillionièmes de secondes. « Cette avancée place les chercheurs tout près du seuil d’ignition », indique un communiqué du LLNL. Ce seuil correspond au moment où l’énergie produite dépasse celle utilisée pour provoquer la réaction et qui est alors en mesure de s’entretenir elle-même.
Dans un communiqué du CEA, Daniel Vanderhaegen, directeur du Programme simulation de la Direction des applications militaires (DAM) au CEA, se dit très enthousiaste. « Cette expérience, réalisée au NIF, constitue une avancée considérable, parce que les chercheurs américains, qui ont démarré les expériences laser depuis plus de 10 ans, se sont rapprochés du seuil d’ignition, soit le moment où l’on récupère autant d’énergie thermonucléaire que ce que l’énergie laser a fourni. Les 192 lasers du NIF ont produit 1,9 mégajoule et les Américains ont récupéré 1,3 mégajoule d’énergie thermonucléaire. Le rendement est de 0,7, très proche du gain de 1, le seuil d’ignition, résultat jamais obtenu auparavant. Les Américains ont ainsi obtenu une preuve de concept de la capacité à atteindre l’ignition. »
Malgré tout, il reste prudent dans son analyse en ajoutant : « Pour produire de l’énergie de manière économique et rentable, il faudrait réaliser cette même expérience avec un gain non pas de 1, mais plutôt de 10, de façon répétitive et robuste, avec par exemple 10 expériences similaires par seconde, 24h/24. Mais cela demande beaucoup de préparation : on peut actuellement imaginer en faire une ou deux par semaine au NIF, pas plus. »
Deux voies possibles pour réaliser la fusion nucléaire
Le chercheur du CEA précise un peu plus loin : « Nous sommes actuellement au niveau de la preuve de concept et je ne pense pas qu’il soit possible d’arriver à quelque chose d’économiquement viable avant quelques décennies. Cela supposera certainement d’augmenter encore le nombre de faisceaux et de nous appuyer sur une autre technologie laser, de façon à pouvoir produire les énergies nécessaires. »
Il existe deux voies différentes pour réaliser la fusion nucléaire. Celle basée sur la fusion inertielle est utilisée par le NIF, ainsi qu’en France par le laser Megajoule qui l’exploite pour des applications de défense. Le projet international ITER se base quant à lui sur le confinement magnétique qui utilise des aimants puissants pour confiner le plasma pendant un temps plus long. Un réacteur est actuellement en cours de construction dans les Bouches-du-Rhône.
À la différence de la fission nucléaire, utilisée dans les centrales nucléaires et qui consiste à casser des noyaux atomiques lourds, la fusion est une réaction inverse, encore au stade expérimental, où l’on rapproche à très courte distance des noyaux légers, en particulier des isotopes de l’hydrogène (le deutérium et le tritium), dans le but de générer de l’énergie thermonucléaire. Ce processus se produit au cœur des étoiles. Les défenseurs de cette technique la considèrent comme l’énergie de demain, notamment car elle produit peu de déchets et pas de gaz à effet de serre. De plus, les isotopes de l’hydrogène utilisés pour la fusion se trouvent en quantités importantes sur terre et de façon pérenne.
Ici vous trouverez notre récap’ de l’actualité scientifique et technologique qui a bercé ou chamboulé le mois d’août. Et, comme le veut la tradition : à la fin de cet article, deux informations bonus !
Vroum ! Plouf !
Le mois d’août aura assisté à un regain d’engouement pour le véhicule amphibie. En vidéo, Le Parisien a embarqué à bord du “Marcel”, un bus touristique qui parcourt aussi bien les rues parisiennes que les voies navigables de la Seine. Les bateaux-mouches n’ont qu’à bien se tenir !
Du côté de la BBC, on ne nous parle pas d’engins à quatre roues mais… d’une roue géante équipée de bouées pneumatiques ! C’est la fausse bonne idée d’un inventeur américain qui rêve de courir sur l’eau comme un hamster en cage. Il a fini par s’échouer sur une plage en Floride, bredouille mais indemne, très loin de sa destination. En 7 ans, il s’agit là de la 3ème tentative ratée de Reza Baluchi, qui ne désespère pas pour autant.
D’ailleurs, chez Techniques de l’Ingénieur, nous vous parlions il y a quelque temps de vélos amphibies (mais pas que !), dans un format inédit alliant le récit au dessin, et que vous pourrez (re)découvrir ici.
Gulf Stream en péril
“Marcher” sur l’eau, c’est bien ; la préserver, c’est mieux. Avec une perte presque totale de sa stabilité, le courant océanique Gulf Stream serait en train de disparaître, rapporte The Guardian. Ce phénomène, dont la date est impossible à calculer, aurait des retombées catastrophiques. Selon le média britannique, un tel bouleversement, s’il survenait, réduirait considérablement les pluies, notamment en Inde, en Amérique du Sud et en Afrique de l’Ouest, provoquerait un plus grand nombre d’orages, ainsi qu’un refroidissement, en Europe, augmenterait le niveau de la mer au niveau des côtes nord-américaines, et ne ménagerait guère ni la forêt amazonienne ni l’Antarctique.
Pourrions-nous anticiper ? Comment ? En janvier 2020, nous avons détaillé huit scénarios possibles, à mettre en place face à la montée du niveau de la mer d’ici 2100.
Humanoïdes et athlétiques
Non content de faire la course aux étoiles, avec son entreprise SpaceX, Elon Musk, le patron de Tesla, a annoncé que cette dernière devrait dévoiler le premier prototype de son robot humanoïde (le « Tesla Bot ») l’année prochaine. Un rétro-planning qui ne sera probablement pas tenu, analyse la CNBC. Comme le souligne le site d’information américain, l’entrepreneur est en effet connu pour ses promesses inabouties, qu’illustre notamment son projet de « Robotaxis » prévu initialement pour 2018, reporté à 2020, et qui n’a toujours pas vu le jour.
Dans la foulée, une autre collection de robots a défrayé la chronique. La différence étant que ceux-ci ont fait leurs preuves depuis un bon bout de temps déjà ! Ce sont les célèbres robots humanoïdes Atlas, de Boston Dynamics. De plus en plus performants, le fabricant en a récemment montré, en vidéo, deux spécimens effectuant des acrobaties dignes de gymnastes olympiques. Des mouvements d’une agilité et d’une précision troublantes, à admirer ici :
Parkour is the perfect sandbox for the Atlas team to experiment with new behaviors. Through jumps, balance beams, and vaults, we push Atlas to its limits to discover the next generation of mobility, perception, and athletic intelligence. https://t.co/xZRNVnhrkcpic.twitter.com/E0ssh45ZCi
Vous vous posez des questions sur les dimensions éthiques derrière de si grandes ambitions ? En janvier 2021, nous nous sommes penchés sur l’éthique de la robotique, dans un entretien avec Catherine Tessier, référente intégrité scientifique et éthique de la recherche à l’ONERA (Office National d’Etudes et de Recherches Aérospatiales). À (re)lire ici.
Les bonus !
Bonus 1 : La vérité derrière le nom des gènes
D’où viennent les noms rigolos des gènes ? Comment se fait-il qu’on en ait nommé un d’après Sonic le hérisson bleu de SEGA ? Qui en décide ainsi et surtout : pourquoi ? Le podcast Science Friday vous dit tout.
Bonus 2 : Avis aux amateurs médiévistes
Car la cartographie est une science à part entière : pour le plaisir des yeux, et pour le plus grand bonheur des médiévistes amateurs, voici une carte de l’Europe de 1444, publiée par Visual Capitalist. Ça vaut le détour !
Crédit image de une : Intissar El Hajj Mohamed//Techniques de l’Ingénieur
Model-checking pour l’agriculture de précision Rim Saddem
Doctorat en Systèmes Automatiques et Micro-Électroniques, 20-06-2019 Laboratoire d’informatique, de robotique et de micro-électronique