Le moteur de recherche conçu par Anmol Tukrel, 16 ans, serait encore plus précis que celui de Google. Le lycéen canadien, petit génie de la programmation, a présenté son projet lors de la Google Science Fair, un concours international en ligne ouvert aux élèves âgés de 13 à 18 ans.
L’adolescent affirme que son moteur est 47% plus efficace que Google. L’algorithme d’Anmol Tukrel se base sur la « personnalité » de l’utilisateur, afin d’affiner au maximum ses recherches. Pour cela, le programme analyse les mots-clés de l’internaute lors de ses précédentes recherches, dans son historique de navigation et dans ses applications.
L’historique de navigation : une mine d’or
Toutes ces données sont ensuite stockées, évidemment. C’est le revers de la médaille : pour plus d’efficacité, l’utilisateur est censé accepter la collecte de ses données, ici d’une façon encore plus intrusive que dans le cas de Google.
Exemple fictif d’une personnalité analysée : « Eli est vraiment intéressée par les conflits du Moyen-Orient », indique la description du profil. Les résultats de recherche liste ainsi des URL à partir des habitudes de surf d’Eli : articles du New York Times, principalement.
Toujours grâce à l’historique de navigation, le moteur d’Anmol Tukrel est en mesure de savoir par exemple que Bill est intéressé par la politique américaine, car il a consulté une dizaine d’articles ces derniers mois sur les élections présidentielles, via le New York Times, toujours. Connaître ce centre d’intérêt permettra à l’algorithme d’affiner les recherches, si elles portent sur un sujet proche.
Tous les ans, la Conférence des Grandes Ecoles (CGE), en collaboration avec la CDEFI (Conférence des Directeurs des Ecoles Françaises d’Ingénieurs) et l’Ensai (Ecole nationale de la statistique et de l’analyse de l’information), publie une enquête sur l’insertion des jeunes diplômés de ses écoles membres – parmi lesquelles 2IE, AgroParisTech, le CNAM, Centrale Supélec, Chimie ParisTech et l’Ecole Centrale de Lille.
Selon la dernière étude de la CGE, qui porte sur l’année 2014, les recrutements des ingénieurs diplômés a progressé sensiblement. Ainsi, 63,4% des anciens élèves des écoles membres de la CGE se déclaraient en activité professionnelle au 1er trimestre 2015 – contre 62,6 l’année précédente. Selon l’enquête, “globalement, le taux d’insertion professionnelle des ingénieurs après 3 à 5 mois est satisfaisant, avec une grande majorité de jeunes diplômés recrutés rapidement”.
Après 12-15 mois sur le marché du travail, “même constatation : 80 % des ingénieurs ayant répondu se déclarent actifs (en activité professionnelle ou en volontariat)”, indique la CGE. Toutefois, ce mouvement s’accompagne “d’une augmentation de la proportion d’ingénieurs en recherche d’emploi au moment de l’enquête, passant de 15,9 % pour la promotion 2013 à 16,5 % pour les diplômés de 2014”, peut-on lire dans le rapport.
Une “situation d’inégalité” entre hommes et femmes
A noter que la part des femmes ingénieures en recherche d’emploi “est significativement plus importante (18,9 %) que celle des hommes (15,4 %)”, remarque la CGE. Ainsi, pour les ingénieurs diplômés hommes et femmes, “on observe la persistance d’une situation d’inégalité. Cette situation s’est aggravée dans le cas du taux de diplômés décrochant un emploi en moins de 2 mois”.
Néanmoins, “après 12-15 mois sur le marché du travail, seuls 6,2 % des jeunes ingénieurs sont à la recherche d’un emploi”, selon l’enquête de la CGE. Le pourcentage d’ingénieurs ayant un projet de création d’entreprise en 2014, ”bien qu’encore faible”, a de son côté presque doublé, comparé à 2013 (passant de 0,4% à 0,7%).
Parmi les diplômés ingénieurs, 88% deviennent salariés des entreprises privées. 89% sont cadres. 32% travaillent dans des entreprises de plus de 5000 salariés. Enfin, 48% des nouveaux ingénieurs en 2015 travaillent dans les secteurs de l’informatique, de l’industrie du transport, du BTP et de l’énergie.
Stages et CDI à la clé
Pour accéder à l’emploi, l’immersion professionnelle des élèves ingénieurs reste la clé. “33,6 % des emplois occupés sont obtenus à la suite du stage de fin d’études”, explique la CGE. “L’autre grand moyen pour accéder à l’emploi est Internet, mentionné dans 25,7 % des cas lorsque l’on additionne le pourcentage d’emplois trouvés à l’aide des sites spécialisés type APEC (16 %), ceux des entreprises (7 %) et les réseaux sociaux (2,3 %)”, ajoute l’association.
Le contrat de travail majoritairement décroché reste en outre le CDI (62,3% des ingénieurs de la promotion 2014 en activité professionnelle) – avec toutefois “un écart important entre les hommes (66 %) et les femmes (55 %)”, indique l’étude. Là encore, les données “suggèrent une précarité plus élevée de l’emploi chez les femmes jeunes diplômées”. Ainsi, le taux de femmes ingénieures avec des contrats plus précaires (CDD ou intérim) en début de carrière est de 32,5 % (dont plus de 29 % en CDD) contre 19 % chez les hommes ingénieurs (dont 16 % en CDD).
La révolution de l’impression 3D vous fascine ? Vous rêvez d’imprimer vous-mêmes vos propres créations ? Pour vous remercier de votre fidélité tout au long de cette année 2015, Techniques de l’Ingénieur vous offre la possibilité de tester chez vous l’une des technologies les plus palpitantes du moment, en vous faisant gagner :
Une authentique imprimante 3D haute précision !
Dix clés USB d’une capacité de 4 Go aux couleurs de Techniques de l’Ingénieur.
Jusqu’au 31 janvier 2016, tentez votre chance en participant à notre jeu-concours gratuit, sans engagement, en remplissant le formulaire en bas de cette page. Les gagnants seront tirés au sort et prévenus par e-mail, courant février 2016.
A la faveur de quatre années de guerre en Syrie et d’un chaos géopolitique né de l’intervention américaine en Irak en 2003, l’Etat islamique en Irak et au Levant (Daech) est parvenu à conquérir un territoire grand comme la moitié de la France, à cheval entre les deux pays. Loin d’être une présence fantôme, il prétend régenter la vie des quelques 10 millions de civils qui vivent sur cette zone et confisque, pour les besoins de la guerre, les revenus de l’économie locale, au premier rang desquels, le pétrole.
Or noir
A mesure que la guerre civile s’enlisait en Syrie, Daech étendait son influence au nord-est du pays, à la frontière irakienne. Venues d’Irak, les troupes de l’organisation conquièrent en deux ans une zone où se concentre la majeure partie des gisements syriens. Bien que le pays n’ait pas le potentiel pétrolier de l’Irak, il produisait tout de même en 2011 (date du début des manifestations contre le régime) quelque 400 000 barils par jour, dont environ 150 000 étaient exportés. Cette activité représentait un quart des recettes publiques et 45% des exportations nationales. Depuis, l’or noir a changé de mains.
Si extraire ce pétrole est une chose, le vendre en est une autre. Les terminaux d’exportation étant toujours détenus par le régime de Bachar El Assad, l’exportation du brut est réalisée clandestinement par des réseaux mafieux qui rachètent, en cash, la précieuse marchandise. Le brut est sorti du pays par camions-citernes, motos (voire même par mules) sur les 100 kilomètres de frontière turque. Ce brut a-t-il pu être écoulé en Europe, voire en France ? Interrogé sur une radio nationale à ce propos, le ministre de la Défense, Jean-Yves Le Drian, n’a pu que concéder : « Il y a eu et existe toujours un certain marché noir ».
Ankara joue double
Lors de la réunion du G20 qui s’est tenu le 15 novembre, le Président russe, Vladimir Poutine, aurait présenté des clichés de ces camions-citernes en file indienne sur des dizaines de kilomètres. Il est de notoriété publique qu’Ankara ferme les yeux sur ce juteux commerce, participant à enrichir l’ennemi de ses alliés de l’OTAN, notamment la France (intégrée à l’Organisation depuis 2009). Une preuve supplémentaire pour beaucoup d’observateurs que la position turque devient de moins en moins tenable. La tension est montée d’un cran le 24 novembre dernier après qu’une batterie turque de missiles anti-aériens ait abattu un avion militaire russe à la frontière turco-syrienne. Un incident qui fait voler en éclat l’espoir caressé par François Hollande de créer une grande coalition internationale unie pour éradiquer Daesh.
Pilonnage
Privé de la manne pétrolière, le régime s’est fragilisé tandis que mécaniquement, Daech se renforçait. Soucieux de préparer l’après-guerre, ni le régime syrien, ni les puissances occidentales entrées dans le conflit n’ont voulus, dans un premier temps, viser ces installations coûteuses à reconstruire. Au point qu’à son pic, l’Etat islamiste aurait produit entre 1,5 et 2 millions de barils jour le propulsant virtuellement à la 9ème place des producteurs de l’OPEP (Organisation des pays exportateurs de pétrole)… Avec un cours du baril à 50 $ (fourchette basse), et sachant que les conventions mafieuses prévoient généralement de reverser 20% au « producteur », on obtient un revenu compris entre 15 et 20 millions de dollars par jour.
Mais les attentats de Paris ont marqué un tournant décisif dans la guerre contre Daech. Plus question de laisser l’ennemi extraire du pétrole pour le vendre ou l’utiliser pour ses propres besoins. Interrogé par Techniques de l’Ingénieur, l’Etat-major français des armées confirme avoir frappé quelques jours après les attentats de Paris des installations pétrolières, « des centres logistiques » dans le jargon, sans pouvoir précisé s’il s’agit de sites de production, de transport ou de raffinage. « Ces installations sont une des priorités de l’aviation, au même titre que les centres d’entraînement qui ont également fait l’objet de frappes très récemment », indique l’Etat-Major.
Les aviations américaines et russes ont annoncé avoir pilonné des sites pétroliers. Dans un communiqué de presse de novembre 2015, le ministère russe de la Défense précise avoir détruit 15 installations destinées au stockage et au traitement du pétrole ainsi que 525 camions-citernes.
Raffinage
Les sites de raffinage sont d’une importance primordiale pour limiter les capacités de transport de l’Etat islamiste. Le Département d’Etat américain à la Défense a annoncé en octobre 2014 que les bombardements ciblés de l’armée avaient détruit 50% de la capacité de raffinage de Daech. Ce dernier a eu depuis recours à de petites unités mobiles d’une capacité limitée de 300 à 500 barils jours pour éviter qu’elles ne soient détruites par des raids aériens. Ces mini-raffineries sont indispensables pour produire l’essence destinée aux chars et aux camions-citernes qui exportent le brut hors du pays.
Or, elles nécessitent pour leur bon fonctionnement des pièces de machineries complexes, à remplacer régulièrement. Le maintien d’un strict embargo sur ces matériaux réduirait les capacités de raffinage, obligeant à avoir recours à des techniques plus « primitives », et donc nettement moins efficaces.
Bien que ces opérations réduisent notablement les capacités de manœuvre de Daesh, elles n’impactent que dans une moindre mesure son financement. En effet, depuis deux ans, le cours du baril baisse et l’EI a su diversifier ses sources de revenus. Le pétrole ne représenterait « plus » qu’un tiers de son budget.
Diversification
Selon des documents retrouvés sur les théâtres d’opérations, Daesh se distinguerait des autres mouvances terroristes par son approche financière de la gestion du conflit.
« Des documents récupérés en 2008 montrent l’importance du management financier. Les dirigeants de Daech ont réalisé une sorte de retour d’expérience sur ce qu’ils considèrent être les erreurs d’Al-Qaeda en Irak. Parmi elles, la gestion des ressources financières, leur distribution et l’absence de financement pérennes font l’objet de vives critiques », explique la Financial Action Task Force (FATF). Cet organisme indépendant et inter-gouvernemental, a été créé début 2015 pour lutter contre le blanchiment d’argent et les financements terroristes. L’Etat islamique ferait preuve, selon elle, d’une grande rigueur concernant ses sources de financements et d’une gestion comptable remarquable. D’après le département américain au Trésor, l’Etat islamique aurait saisi pas moins d’un demi milliard de dollars en cash dans les banques suite à la prise de contrôle en 2014 des provinces irakiennes de Ninevah, Al-Anbar, Salah Din, et Kirkuk. Pour autant, Daesh continuerait à faire fonctionner le système financier local allant jusqu’à embaucher des « fonctionnaires » pour piloter la quinzaine de banques sous son contrôle. Ainsi, L’Etat islamique essaierait progressivement de passer d’un système basé sur l’extorsion et le vol à un système de taxation de l’économie locale qui lui assurerait désormais un autre tiers de ses revenus.
Agriculture
Dans la région rurale d’Al-Raqqa, les paysans se voient imposer une taxe, la « zakat », et doivent louer à Daesh les matériels de culture qui leur ont été confisqués par ce dernier. Un moyen de s’assurer l’obéissance des populations et une partie des revenus de cette zone fertile. Selon l’Organisation de Nations-Unies pour l’Agriculture, l’EI contrôlerait 40% des terres agricoles d’Irak. Les productions seraient revendues au marché noir, là encore à des prix inférieurs aux cours locaux. D’après un rapport du Congrès américain, les revenus qu’en retirerait Daesh pourraient s’élever à 200 millions de dollars.
Antiquités
Situé sur un territoire peuplé depuis des millénaires, l’Etat islamique occuperait plus de 4 500 sites archéologiques classés au Patrimoine mondial de l’Unesco, selon le National Géographique. En 2015, une centaine d’artefacts supposés issus de ces sites auraient transités par Londres pour être vendus. La région recèlerait en effet des reliques archéologiques datant de plus de 8 000 ans. Daesh retirerait les fruits de la vente de ces objets, mais taxerait également les passeurs qui opèrent en Irak et en Syrie. Les estimations de ce commerce d’antiquités sont très variables et presque impossible à vérifier. Elles seraient comprises entre quelques dizaines et de 100 millions de dollars, selon les sources.
Financements 2.0
Une particularité de Daesh est l’usage massif des réseaux de communications pour diffuser sa propagande, mais pas seulement. L’organisation a su user des dernières innovations proposer par la toile, par le biais notamment de plateformes de crowdfunding (financement participatif) ou de Bitcoins pour lever des montants non négligeables. Le recours aux réseaux bancaires traditionnels n’est pas pour autant abandonné. La place Londonienne de La City est une nouvelle fois montrée du doigt comme plateforme du financement terroriste. Des cartes bancaires pré-payées (à l’image des cartes téléphoniques) sont également utilisées pour faire circuler aisément de petites mais nombreuses sommes d’argent. La corruption d’agents locaux permettrait même à l’Etat islamique de contracter de faux prêts à l’international.
Détruire un Etat ?
L’évolution du mode de financement de Daech illustre bien sa volonté de constituer un véritable Etat dans le sens traditionnel du terme. Un débat sémantique est apparu en France jusqu’au sommet de l’Exécutif sur la pertinence d’utiliser une telle notion pour Daech. Jusque-là réfractaire à l’idée de le nommer « Etat islamique », le Premier ministre Manuel Valls, s’est finalement fait à cette idée depuis les attentats. Un moyen aussi de crédibiliser l’adversaire pour favoriser l’émergence de l’unité nationale. Donner le titre d’Etat à son adversaire légitime davantage les opérations militaires extérieures menées par la France à son encontre. A noter également l’apparition dans le langage politique de l’expression « armée terroriste », légitimant là encore le terme de « guerre » employé par le Président de la République.
Pour autant, s’agit-il bien d’un Etat ? « Je ne le crois pas car il n’a aucune reconnaissance internationale, qu’il n’a pas la totale maîtrise de son territoire et qu’il n’en connaît d’ailleurs pas les limites. Donc il n’y a pas de frontières », répond Béatrice Giblain, fondatrice de l’Institut Français de Géopolitique. Au-delà de l’aspect linguistique, poser cette question revient à poser celle de l’éventualité de sa totale destruction. Sur le plan militaire, elle semble crédible. Malgré les nombreuses armes capturées à l’armée irakienne, l’influence de Daech s’essoufflerait : « Au départ il s’agit d’une guerre civile entre Irakiens, et Daech a bénéficié du savoir faire stratégique des officiers sunnites de Saddam Hussein ce qui explique ses conquêtes rapides. Mais depuis, Daech ne gagne aucun territoire et est même en repli », estime Béatrice Giblain. Reste à savoir dans quelle mesure une victoire militaire empêcherait la survie clandestine de ce groupe idéologique dans l’attente d’une potentielle reconquête, à l’instar des talibans en Afghanistan. En l’espèce, la solution ne peut être que politique.
Les “assistants personnels” investissent peu à peu nos écrans (smartphones, tablettes, PC). Qu’il s’agisse de Cortana (Microsoft), de Google Now, de Siri (Apple), et bientôt de Viv (conçu par les créateurs de Siri), ces nouvelles formes d’intelligence artificielle permettent de répondre à nos besoins après que nous leur ayons adressé une requête.
Pour fonctionner, Cortana, Google Now et Siri écoutent vos paroles, puis les retranscrivent, avant de les interpréter. Ils fouillent dans votre historique de navigation web, s’appuient sur vos infos personnelles (localisation, préférences, calendrier, e-mails, etc.), recherchent des données sur Internet, puis formulent la réponse adéquate – tout cela en un temps très bref.
Pour l’instant, une “écoute continue, mais passive”
Pour l’instant, comme l’explique James Somers (développeur chez Genius) dans Nautilus, les compagnons créés par Google, Apple et Microsoft utilisent un système de reconnaissance vocale, considérant “la voix comme une interface”. Mais à terme, ces technologies pourraient finir par enregistrer et retranscrire automatiquement tout ce que nous disons. A l’instar des modes “Hey Cortana”, “OK Google” et “Dis Siri”, qui placent les assistants personnels en “écoute continue”.
Afin de leur permettre de se déclencher lorsque vous dites “Hey Cortana” ou “Dis Siri”, votre iPhone ou votre Windows Phone écoutent les conversations aux alentours. Ce qui n’est pas sans inquiéter les défenseurs de la vie privée, comme Bruce Schneier, expert en sécurité informatique, membre du Berkman Center for Internet and Society, qui explique au Business Insider que “même si l’écoute est passive, et même si vous pouvez en théorie effacer vos requêtes à tout moment, la manière dont les données vocales sont utilisées et partagées reste très floue.”
Vers la “speakularité”
A terme, pour James Somers, les compagnons intelligents devraient enregistrer et retranscrire automatiquement (presque) tout ce que nous disons, mais d’une façon proactive, et non plus passivement comme aujourd’hui. “Au lieu de s’évaporer dans les replis de notre mémoire, les paroles que nous prononçons à voix haute vont se calcifier sous forme de texte, dans des dossiers qui seront référençables, recherchables et exploitables. Cela va se produire plus tôt que nous le pensons”, écrit James Somers.
Nous basculerons alors dans l’ère de la “speakularity” – la “singularité de la parole” -, cet instant où, explique le journaliste Matt Thompson sur le site du Nieman Lab, ““la nature par défaut de la parole enregistrée sera cherchable et lisible en temps réel”. Nous laissant juste le choix d’enregistrer ou non nos propos.
Les actions que rendraient possibles un tel système seraient “incroyables”, note James Somers, après avoir consulté quelques spécialistes en I.A. et en reconnaissance vocale : “tout comme il est aujourd’hui possible de retrouver des tas de choses dans vos emails, demain il sera possible de retrouver vos propres discours.”
Ainsi, l’utilisateur pourrait demander à son intelligence artificielle de lui montrer “toutes les conversations” tenues avec un ami, pendant une période donnée, ou encore lui demander “le nom du restaurant que Maman m’a recommandé le week-end dernier”. Pour trouver la réponse, il lui suffira de fouiller dans le “transcript” de vos paroles.
“Nous parsèmerons nos discours de mots-clés”
Pour Robin Hanson, chercheur en Intelligence Artificielle et prof d’économie à l’université George Mason, à Fairfax, ce système pourrait changer notre façon de nous comporter, et même de parler, jusqu’à nous donner l’habitude de “parsemer notre discours de mots-clés, afin de nous aider à les rechercher plus tard”. L’intelligence artificielle pourrait même “rechercher, dans vos anciennes conversations, des détails pertinents à utiliser, pendant que vous parlez avec quelqu’un”.
Finirons-nous, comme le redoute Nicholas Carr dans ‘The Shallows” (“Internet rend-il bête ?”), par nous reposer entièrement sur un tel type de technologie, tout comme nous commençons à “utiliser le Web comme un substitut à notre mémoire personnelle”, jusqu’à prendre le risque de la perdre ?
Pour James Somers, « l’enregistrement permanent ne réduire pas notre mémoire en bouillie”. La retranscription de nos paroles nous “soulagera de la nécessité de faire attention à tous les détails d’une conversation”. Mais elle “ne nous ne fera pas perdre cette capacité d’attention, tout comme nous n’avons pas perdu notre capacité à planifier en inventant le calendrier”. Ainsi, “nous enrichirons nos souvenirs à long terme d’une autre façon”, soutient le développeur.
La fin d’une conversation normale ?
Sachant nos conversations continuellement enregistrées (pas seulement par nous, mais aussi par les autres), changerons-nous consciemment notre façon de parler, jusqu’à ne plus avoir de “conversations normales” ?
Directrice de l’Observe Lab de l’université de Californie, Megan Robbins, professeure de psychologie, a développé un enregistreur sonore, baptisé “EAR” (“Enregistreur activé électroniquement”). Il enregistre de courtes séquences sonores durant le quotidien de son porteur, afin de permettre à son psy de mieux l’analyser à posteriori. “Nous finirons par oublier assez vite que nous sommes enregistrés, jusqu’à nous comporter de façon naturelle”, estime Megan Robbins dans Nautilus.
Le cabinet E-Cube Strategy Consultants a été mandaté par les grands acteurs du biogaz pour faire un état des lieux de la filière. L’objectif était d’analyser les problèmes rencontrés par les méthaniseurs agricoles et territoriaux qui concentrent la majorité du potentiel de développement de la filière et de définir les actions à engager pour les surmonter.
L’étude est exhaustive. Elle porte sur 44 sites agricoles et 10 territoriaux qui valorisent le biogaz en cogénération (production simultanée de chaleur et d’électricité), soit 40% des sites à la ferme, et 100% des sites territoriaux en fonctionnement fin 2013.
Presque tous les méthaniseurs rencontrent des problèmes. En effet, 94% des 54 sites interrogés déclarent subir des aléas : 44% des sites connaissent des pannes et dysfonctionnements du procédé de métahnisation, 31% subissent des pannes et des arrêts de la cogénération. Et 29 % présentent des diffucultées d’approvisionnement en intrants complémentaires. 65 % des sites présentent de ce fait une rentabilité inférieure au prévisionnel, notamment à cause de surcoûts d’investissements et de maintenance. Seulement, 19 % ont une rentabilité conforme, 11 % une rentabilité supérieure et 5 % ne se prononcent pas.
Des équipements non adaptés
L’Allemagne a fait le choix de cultures alimentaires dédiées pour faire fonctionner ses méthaniseurs. Ses intrants sont homogènes, majoritairement des lisiers et de l’ensilage de cultures, qui permettent un approvisionnement régulier tout au long de l’année. La filière française se caractérise au contraire par des intrants beaucoup plus variés, plus fibreux, et avec un taux d’indésirables plus élevé. Elle n’a cependant pas développé d’équipements spécifiques et s’est tournée vers les procédés et équipements pré-existant, notamment allemands. « L’inadaptation du matériel et de la conception aux intrants entraînent des défaillances matérielles sur le procédé de méthanisation (casse des équipements d’incorporation, blocage de brasseurs, besoin de curage prématuré des digesteurs, …) qui se traduisent par un fonctionnement de l’installation inférieur au prévisionnel, analyse le rapport. La rentabilité des installations est affectée par ces pertes de revenus et par les coûts imprévus de changement du matériel suite aux casses, et éventuellement par les investissements complémentaires à réaliser pour adapter la conception du méthaniseur. »
Outre les impacts des intrants sur le matériel, des difficultés d’approvisionnement en intrants complémentaires à la matière organique agricole sont à déplorer. Cela affecte la durée de fonctionnement d’environ 30% sites. Egalement, « des micro-coupures engendrées par les défaillances du réseau électrique dans certaines régions entraînent le désaccouplement des moteurs et l’arrêt de leur production », précise le rapport. Ce problème a un fort impact sur le matériel pour 17 % des sites du panel.
« Les surcoûts de maintenance concernent la phase de digestion pour 50 % des sites enquêtés et le fonctionnement du moteur pour 38 %», ajoutent les consultants. Ces surcoûts sont liés aux différents incidents techniques rencontrés. Par exemple, Jean-Marc Bonot témoigne que sur son installation à la Ferme EARL de Guernequay (56), les frais de maintenance provisionnés se situaient entre 25 et 28 €/MWh. Mais ces frais s’élèvent en réalité à 60 €/Mwh à cause des pannes moteur et des aménagements à faire sur le process initial.
La filière, dans la tourmente, réagit
Alors que les projets devraient se multiplier pour atteindre les 1000 méthaniseurs en 2020, ils diminuent. Si environ 50 nouvelles unités ont été installées en 2014, les acteurs s’attendent à une division par deux du nombre de projets annuels à partir de 2016, avec seulement 20 MWe installés par an. Si cette trajectoire se confirme, les capacités installées seront bien en-dessous des objectifs de développement.
« Lors de l’étude, environ un projet sur trois a été déclaré bloqué, principalement pour des raisons de manque de rentabilité et/ou de financement et/ou d’acceptabilité sociale (recours bloquant provisoirement les constructions), indique le rapport. Notamment du point de vue des financeurs, les niveaux de rentabilité pour ces dossiers ne sont pas à la hauteur des risques perçus.»
Face à toutes ces difficultés, le comité national biogaz a été créé en mars 2015 pour faciliter les échanges entre acteurs et pouvoirs publics. Un travail important de concertation a eu lieu pour réviser les mécanismes de soutien à la cogénération. Un nouvel arrêté revalorise les conditions d’achat de l’électricité pour les sites existants, mais les acteurs déplorent que ce tarif ne soit garanti que sur 15 ans, alors que l’accord initialement prévu le garantissait sur 20 ans. La réévaluation des mécanismes de soutien pour les nouvelles installations est en cours de validation. Par ailleurs, la filière s’engage à développer la recherche pour développer des matériels adaptés aux spécificités du modèle français, mais attend toujours une amélioration de l’intégration des méthaniseurs au sein des réseaux électriques. Cela suffira-t-il pour sauver la filière ?
Grâce à la domotique, à la fibre optique, au chauffage par géothermie, à l’aspiration pneumatique des déchets, à ses 44 000 m² d’espaces verts (jardins partagés, prairie fleurie, 300 arbres fruitiers) et ses 2 300 m² de commerces et services de proximité, l’éco-quartier du Fort d’Issy-Les-Moulineaux a su conquérir le coeur de ses habitants. D’ici la fin de l’année, un jardin japonais verra également le jour et rejoindra l’espace de 1 200 m² dédié au jardinage et aux potagers.
L’éco-quartier du Fort d’Issy s’étend sur 12 hectares, dans les murs d’un fort militaire du 19e siècle. Sur ce site, racheté au ministère de la Défense, 3 500 habitants occupent désormais l’un des 1 623 logements. Dessinés par différents architectes, le quartier comprend 13 immeubles villas et 5 immeubles bastions, entourés d’espaces verts.
Selon un sondage réalisé auprès de 323 résidents et 46 habitants d’autres quartiers, 95 % des résidents sont fiers de vivre au Fort d’Issy. S’il est difficile de créer une vie de quartier à partir de rien, le pari est réussi. Seul point négatif à l’horizon : 51 % des résidents estiment qu’il manque des places de parking. La ville prend donc le problème à bras le corps. Si elle a décidé de ne pas créer de nouvelles de places de parking, elle teste le partage des places existantes, notamment celles du parking de l’école Louise Michel, via une application mobile dédiée.
Une technologie de pointe pour réduire l’impact environnemental
La géothermie permet de couvrir 78 % des besoins de chauffage et d’eau chaude sanitaire du quartier. 70 % des résidents déclarent avoir réalisé des économies sur leur facture énergétique grâce à ce système de chauffage et 78 % sont satisfaits du confort thermique qu’il procure. Par ailleurs, ce réseau permet d’éviter l’émission de près de 2 000 tonnes de CO2 par an.
Concernant la gestion des déchets, la particularité de cet éco-quartier est son système innovant de collecte pneumatique. S’il a demandé un investissement de 9 millions d’euros, 95 % des habitants sondés se disent satisfaits des réductions de nuisances (bruit, pollution) apportées par ce dispositif déployé pour la première fois en France. 115 bornes de collecte de déchets sont réparties sur l’ensemble du Fort. Elles permettent de stocker les déchets dans l’un des 48 containers enterrés, en attendant qu’ils soient aspirés par les camions de collecte, depuis l’un des deux points situés à l’extérieur du fort. Cela évite le passage des camions poubelles dans le quartier.
L’éco-quartier est raccordé à IssyGrid, le smartgrid d’Issy les Moulineaux depuis 2013. 800 logements sont en cours d’équipements de compteurs communiquants Linky. Il sera ainsi possible de suivre en temps réel la consommation des bâtiments et l’optimiser. La ville estime que cela devrait permettre d’éviter la consommation de 3 à 4 gigawattheures (GWh) d’électricité et l’émission de plus de 180 tonnes de CO2 par an.
Des services de proximité pour réduire les déplacements
A proximité des logements, l’éco-quartier du Fort d’Issy propose de nombreux services à ses habitants : un supermarché, deux restaurants, une conciergerie, une boulangerie, mais aussi une piscine Feng Shui, un espace d’animation culturelle, un boulodrome de 3300 m2, un centre sportif et une école de 13 classes construite en bois et isolée avec des bottes de paille. Selon le sondage, 68 % des résidents utilisent ces équipements publics. 8 commerçants sur 9 sont satisfaits de leur niveau d’activité non seulement dynamisé par les habitants de l’éco-quartier mais aussi par les riverains qui affirment se rendre souvent au Fort d’Issy (81%). Et selon la mairie, cette proximité de services permet de réduire les déplacements de 10 à 15 %, soit une baisse des émissions de gaz à effet de serre du quartier de l’ordre de 5 à 7 %. En effet, 57 % des résidents déclarent avoir changé leurs habitudes et utilisent moins leur voiture grâce à la proximité des commerces, des services et des équipements publics sur place.
Ces travaux, menés par des chercheurs du Laboratoire de glaciologie et géophysique de l’environnement (LGGE) de l’Université Joseph Fourier et des chercheurs britanniques de l’Open University, permettent de mieux évaluer l’effondrement possible d’une partie de la calotte glaciaire en Antarctique, par rapport aux modèles climatiques actuels. « Cette instabilité avait d’ailleurs été identifiée par le 5ème rapport du GIEC comme une incertitude majeure pour les projections du niveau des mers », rappelle l’Université Joseph Fourier dans un communiqué.
Dans leur article Potential sea level rise from Antarctic ice sheet instability constrained by observations, les chercheurs ont opposé leur nouveau modèle de calotte polaire à des observations de terrain. Ils ont montré que, sous l’hypothèse d’une stabilisation ou d’une augmentation modérée des émissions des gaz à effet de serre, l’effondrement d’une partie de la calotte glaciaire de l’Antarctique participerait à la montée du niveau des mers avec une contribution la plus vraisemblable de 10 cm en 2100. « Selon leurs estimations, il y aurait un risque sur vingt que ce retrait contribue à plus de 30 cm de la montée du niveau des mers en 2100 et à plus de 72 cm en 2200. Même si ces résultats n’excluent pas pour autant des contributions plus importantes à plus longue échéance .» précise l’Université. C’est nettement inférieur à certaines estimations qui atteignent un mètre de montée du niveau des mers venant de l’Antarctique à elle seule, comme le récent article polémique de James Hansen.
Selon le 5e rapport du GIEC, la perte de glace de l’inlandsis de l’Antarctique connait une accélération : elle est probablement passée de 30 Gigatonnes (Gt) par an au cours de la période 1992-2001 à 147 Gt par an au cours de la période 2002-2011. Selon ce même rapport du GIEC, l’élévation moyenne du niveau des mers serait comprise entre 26 cm et 82 cm, avec des inégalités spatiales, en fonction des scénarios d’émissions. La valeur la plus vraisemblable établie par le GIEC est une montée des eaux de 60 cm. « Nos travaux ne changent pas très sensiblement les valeurs estimées comme les plus probables. Ils montrent que la contribution de l’Antarctique à l’echelle des deux prochains siècles n’atteindra suivant toute vraisemblance pas les estimations les plus hautes proposées », éclaire Gaël Durand, chercheur CNRS au LGGE ayant participé à cette étude.
L’idée d’employer du sodium dans les batteries remonte aux années 80. Elle avait été écartée au profit du lithium très rapidement utilisé dans les batteries équipant aujourd’hui les appareils électroniques portatifs comme les tablettes et les ordinateurs portables, mais aussi les véhicules électriques. Seul problème : le lithium est peu abondant sur notre planète. Des équipes du réseau RS2E porté par le CNRS se sont donc tournées vers le sodium, mille fois plus abondant. S’inspirant des batteries lithium-ion, elles ont conçu des batteries sodium-ion dans lesquelles des ions sodium transitent d’une électrode à l’autre dans un milieu liquide, au fil des cycles de charge et de décharge.
La première étape a consisté à trouver la « recette » idéale de l’électrode positive (cathode) de cette batterie. Elle a principalement impliqué six laboratoires du réseau RS2E (voir liste ci-dessous), tous réunis autour du même objectif : identifier la composition adéquate de cette électrode principalement constituée de sodium. La mise au point d’un prototype a été confiée au CEA, membre du RS2E. Seulement six mois ont été nécessaires pour mettre au point le premier prototype de batteries sodium-ion au format « 18650 », celui des batteries lithium-ion actuellement commercialisées, un cylindre de 1,8 cm de diamètre sur 6,5 cm de hauteur. Cela devrait permettre un transfert facilité au sein des usines de fabrication actuelles. Plusieurs laboratoires internationaux travaillent également sur cette technologie mais aucun n’a aujourd’hui annoncé la réalisation de prototype de ce format.
Cette deuxième étape a permis de passer d’une échelle « laboratoire » (synthèse de plusieurs grammes du matériau formant la cathode) à une échelle « pré-industrielle » (synthèse d’un kilogramme). Elle a rendu possible la fabrication de cellules produisant une puissance inégalée pour ce type de batteries. Cette nouvelle technologie obtient des performances encourageantes. Sa densité d’énergie (la quantité d’électricité que l’on peut stocker par kilogramme de batterie) atteint 90Wh/kg, un chiffre comparable à celui des batteries lithium-ion à leur début. Quant à sa durée de vie, exprimée en nombre maximum de cycles de charge et de décharge sans perte significative de performance, elle est de plus de 2 000 cycles. Surtout, cette batterie est capable à la fois de se charger très rapidement et de restituer son énergie très vite. Son principal atout reste qu’elle s’affranchit du lithium, un élément dont les ressources sont très localisées sur Terre, contrairement au sodium. L’autre avantage est financier : compte tenu de son abondance, utiliser du sodium pourrait permettre de produire des batteries moins coûteuses.
L’ensemble de ces travaux a fait l’objet de plusieurs publications et brevets déposés par le CNRS et le CEA. Il a bénéficié des soutiens notamment du ministère de l’Education nationale, de l’Enseignement supérieur et de la Recherche, du CNRS, du CEA, de l’ANR (Agence nationale de la recherche) et de la DGA (Direction générale de l’armement).
Compte tenu de la similitude des process industriels avec les batteries lithium, cette découverte intéresse d’ores et déjà les industriels, notamment ceux appartenant au réseau RS2E. La prochaine étape est d’optimiser et de fiabiliser les procédés en vue d’un futur déploiement industriel.
Si la Coalition climat 21 regrette qu’aucune solution alternative n’ait été proposée par le Gouvernement, elle accepte la décision d’interdire la Marche pour le climat du 29 novembre. « On ne peut pas prendre la responsabilité en tant que mouvements sociaux de dire on va maintenir cette mobilisation alors que les autorités ne nous assistent pas pour les sécuriser », précise Juliette Rousseau, coordinatrice de la Coalition climat 21. En revanche, elle maintient son appel pour une mobilisation différente de celle initialement prévue. Certes, il n’y aura pas de grands cortèges déambulant dans les rues de Paris, mais le parcours prévu entre République et Nation sera décoré d’installations artistiques visuelles et sonores.
Il y aura aussi de nombreuses manières de représenter les personnes qui auraient voulu marcher. Les réflexions sont encore en cours, mais plusieurs pistes sont à l’étude : installer des paires de chaussures pour symboliser les marcheurs, proposer un signe distinctif, réinstaller la marche sur les trottoirs, aux coins de rues, dans les cafés, par petits groupes, sans pour autant empêcher la circulation… La Coalition climat 21 travaille donc pour que « l’ensemble de la journée du 29 soit sous le signe du climat. Des boulangers, aux cafés, aux terrasses, aux balcons des appartements, aux fenêtres, aux vêtements que les gens vont porter, on va proposer un certain nombre de choses pour que chacun à sa manière, en petits groupes, chez lui ou aves ses voisins puisse montrer son attachement aux questions du changement climatique », explique Marie Yared, responsable de campagne France chez Avaaz.
MARCH4ME, pour marcher ensemble autour du monde
Si la marche est interdite à Paris, 57 marches auront lieu dans le monde. Afin que ceux qui ne pourront pas marcher physiquement à Paris, dans d’autres villes de France, mais aussi à Bamako ou d’autres villes du monde puissent être représentés, la Coalition Climat 21 a développé un outil inédit : Marche4me. Le site www.march4me.org, qui sera mis en ligne le 25 novembre, permettra de mettre en relation une personne qui ne peut pas marcher avec un marcheur en Amérique, en Afrique, en Asie ou en Europe. Ces derniers représenteront les marcheurs « empêchés » en arborant leurs photos et prénoms dans les défilés.
Par ailleurs, la société civile maintient ses autres manifestations prévues dans des espaces fermés. Le Sommet citoyen pour le climat se tiendra les 5 et 6 décembre à Montreuil (Seine Saint-Denis). Il s’agira d’un village mondial des alternatives présentant les solutions existantes pour lutter contre le changement climatique, avec de nombreux débats et conférences. Egalement, la Zone d’action pour le climat se déroulera du 7 au 11 décembre au CENTQUATRE-Paris. Au programme : ateliers pédagogiques, débats, expositions artistiques, projections, points quotidiens sur l’avancée des négociations de la COP21… Enfin, la grande mobilisation du 12 décembre est maintenue mais sera adaptée au contexte actuel. Un appel à mobilisation présentant les modalités d’organisation seront communiquées dans le courant de la semaine.
La Coalition Climat 21 regroupe plus de 130 organisations de la société civile, des syndicats, des associations de solidarité internationale, des organisations confessionnelles, des ONG de défense des droits humains, de l’environnement ou encore des mouvements sociaux. Parmi elles : Avaaz, Greenpeace, WWF, la Fondation Nicolas Hulot pour la Nature et l’Homme…
Un insecte artificiel à ailes résonantes a été conçu à l’aide des technologies de micro-fabrication de la microélectronique. L’objet volant mimant l’insecte (OVMI) sera alors classé dans la catégorie des nanodrones télécommandés susceptibles d’emporter une charge utile et d’effectuer des missions de reconnaissance en milieu confiné.
L’aviation et l’ingénierie puisent depuis longtemps leur inspiration dans l’observation des oiseaux et du monde marin par l’introduction par exemple d’ailettes verticales à l’extrémité des ailes de certains gros porteurs inspirées des ailes des rapaces ou encore par l’utilisation d’une structure similaire à celle de la peau du requin afin d’améliorer les performances hydrodynamiques de certaines machines. Toutefois avec les progrès récents des différentes technologies et de leur miniaturisation, se pose la question de concevoir et réaliser des objets volants fonctionnels et autonomes de plus en plus petits (micro- et nanodrones). Or si deux types de drones sont aujourd’hui très largement employés, les drones à voilure fixe (avion) et les drones à voilure tournante (héli ou quadricoptère) dans les domaines civils et militaires pour des applications en espace extérieur, une rupture technologique semble quasi-incontournable lorsque l’on choisit de réduire les échelles et de travailler en espace confiné. C’est donc très logiquement que nous avons commencé à nous intéresser aux mécanismes de locomotion des insectes.
De l’insecte volant aux nanodrones
Dans ce contexte, un troisième type de drone fait donc l’objet de nombreuses recherches actuellement : il s’agit des micro- et nanodrones à ailes battantes (resp. vibrantes). L’idée est de développer des petits drones télécommandés capables d’effectuer un vol autonome et dont la conception et la réalisation s’inspirent directement du vol de certains petits oiseaux ou des insectes connus pour leurs performances en termes de manœuvrabilité, de rendement énergétique ou encore d’adaptabilité. Comparées aux voilures fixes, les voilures à ailes battantes (resp. vibrantes) et tournantes ont comme avantages principaux, d’une part, de permettre le vol stationnaire, et d’autre part, d’assurer une meilleure manœuvrabilité. Un autre avantage réside dans la discrétion acoustique de ces micro- et nanodrones puisque le bruit généré par les actionneurs est en général inférieur à celui créé par les hélices des drones à voilures tournantes et fixes.
Ces engins sont généralement destinés à intervenir là où l’homme ne peut pas agir notamment dans les milieux confinés ou nécessitant une taille réduite et une grande agilité de déplacement. Les applications possibles concernent les missions de surveillance et de reconnaissance civile ou militaire, ou encore d’exploration. On peut citer à titre d’exemples la surveillance de bâtiments, l’inspection des structures industrielles et des ouvrages d’art et pourquoi pas le monde du jouet.
Les défis à relever
Les nanodrones à ailes vibrantes ont aujourd’hui atteint une certaine maturité au niveau du processus de fabrication et de la modélisation aéro-élastique. En outre, ce prototype est a priori le premier de la taille d’un insecte capable de créer de la portance à l’aide d’une torsion passive et ce, sans aucune articulation. Les objectifs futurs sont d’une part, de produire des forces de portances suffisantes pour le vol et d’autre part, de concevoir et de mettre en œuvre les fonctionnalités électroniques nécessaires pour un contrôle à distance.
Ces nouveaux travaux incluent d’abord l’utilisation des outils de modélisation et des moyens expérimentaux développés précédemment afin d’optimiser la structure et l’actionnement électromagnétique en termes de poids et de consommation d’énergie. Puis le but sera d’obtenir la cinématique optimale nécessaire au vol de l’insecte artificiel. L’outil aéro-élastique aidera à déterminer la géométrie d’aile la mieux adaptée et des expériences viendront compléter les prédictions numériques.
La recherche portera ensuite sur le choix et la minimisation des composants électroniques tels que des microcontrôleurs et des accéléromètres ou des gyroscopes afin de permettre la manœuvrabilité du nanodrone et un jour sans doute le contournement d’obstacles. Les caractéristiques électroniques telles que les commandes de vol et de détection d’altitude seront d’abord validées sur des prototypes d’échelle centimétrique et l’approche adoptée sera de fabriquer une puce intégrant tous ces composants. De plus, les sources d’énergie nécessaires pour alimenter ces composants seront identifiées.
Enfin, l’étude portera sur l’analyse de scénarios de communication pour les réseaux de capteurs sans fil mobiles conformes aux caractéristiques et contraintes des capteurs du nanodrone : c’est-à-dire soit pour des capteurs dont la position dans l’espace peut être contrôlée, et qui peuvent potentiellement agir sur leur environnement, ou pour des capteurs avec très peu de ressource énergétique et de faible encombrement.
Une plate-forme idéale pour la surveillance, la recherche et le sauvetage d’individus
En conclusion, la capacité des insectes au vol stationnaire associée à une transition rapide vers l’avant, constitue une plate-forme idéale pour la surveillance, la recherche et le sauvetage d’individus. Par ailleurs, la compréhension du vol battu et le contrôle des matériaux avec de fortes déformations peuvent avoir des retombées importantes dans les domaines des microsystèmes et en particulier en micro-fluidique et en électronique flexible.
Par Eric CATTAN, Professeur à l’Université de Valenciennes et du Hainaut Cambrésis, Institut d’Electronique de Microélectronique et de Nanotechnologie de Valenciennes (IEMN, UMR CNRS 8520) Sébastien GRONDEL, Professeur à l’Ecole Nationale Supérieure d’Ingénieurs en informatique Automatique Mécanique Energétique électronique (ENSIAME), Institut d’Electronique de Microélectronique et de Nanotechnologie de Valenciennes (IEMN, UMR CNRS 8520)
À titre d’exemples, les forêts fournissent du bois d’oeuvre et des fibres, régulent le climat en absorbant le gaz carbonique et produisent des ressources génétiques utilisées pour les médicaments. Les récifs de corail attirent des touristes, servent de viviers à des espèces de poissons commercialisables et protègent les zones littorales des vagues de tempête. Les systèmes fluviaux offrent de l’eau douce et de l’énergie. Les zones humides filtrent les eaux usées, atténuent les inondations et purifient l’eau.
Tous ces bénéfices, et bien d’autres encore, tirés de la nature
sont qualifiés de «services écosystémiques».
Catégories de services écosystémiques
L’Évaluation des Écosystèmes du Millénaire (Millennium Ecosystem Assessment) a mis en évidence l’importance des services écosystémiques pour le bien-être humain et le développement économique. Cette évaluation a consisté en un audit international des écosystèmes de la planète réalisé sur une durée de 4 ans, impliquant plus de 1 360 scientifiques, économistes, professionnels et autres experts originaires de 95 pays. Ses conclusions représentent la première évaluation scientifique de pointe sur l’état et l’évolution des écosystèmes de la planète et des services qu’ils rendent, en même temps qu’un fondement scientifique à des actions concrètes visant à les préserver et à les exploiter de manière écologiquement durable. L’Évaluation du Millénaire définit quatre catégories de services écosystémiques :
Services d’approvisionnement : biens ou produits tirés des écosystèmes, de type nourriture, eau douce, bois d’oeuvre ou fibre de bois.
Services de régulation : bénéfices tirés de la régulation par l’écosystème de processus naturels tels que le climat, les pathologies, l’érosion, les flux hydriques ou la pollinisation, ainsi que la protection contre les risques naturels. Par «régulation» dans ce contexte, on entend le contrôle de phénomènes naturels ; le terme ne doit pas être confondu avec celui de «réglementation» en matière de politiques ou de législation.
Services culturels : bénéfices intangibles tirés des écosystèmes de type loisirs récréatifs, valeurs spirituelles ou plaisir esthétique.
Services de soutien : processus naturels comme le cycle des nutriments ou la production primaire qui servent de support aux autres services.
On retrouve les bénéficiaires de ces services à différents niveaux, local, régional et/ou mondial, et ceux-ci peuvent s’étendre aux générations futures. Par exemple, une forêt pourra approvisionner la population locale en nourriture, en fibres naturelles ou en bois de chauffe. À l’échelle régionale, elle peut éviter les glissements de terrain, filtrer les eaux et offrir des loisirs aux habitants de la ville proche. Au niveau mondial, cette même forêt peut en outre séquestrer du dioxyde de carbone, permettant ainsi de réguler les concentrations en gaz à effet de serre dans l’atmosphère, et peut par ailleurs héberger une plante rare dont les propriétés pharmacologiques bénéficieront aux populations du monde entier.
Tendances pour les services écosystémiques
Même si la dégradation des écosystèmes peut être en partie compensée par la culture et la technologie, toutes les populations et toutes les entreprises dépendent fondamentalement du flux des services écosystémiques. Pourtant, la capacité des écosystèmes à continuer de fournir ces services à un niveau satisfaisant est aujourd’hui en péril. L’Évaluation des écosystèmes pour le Millénaire (Millennium Ecosystem Assessment) a mis en évidence une modification des écosystèmes causée par l’homme plus rapide et plus intense depuis ces 50 dernières années qu’à n’importe quelle autre période de l’histoire de l’humanité.
Quelques exemples
La superficie de terres mises en culture entre 1950 et 1980 est supérieure à celle des terres converties en terrains agricoles en l’espace de 150 ans entre 1700 et 1850. Désormais, avec un quart de la superficie terrestre de la planète exploitée par les cultures ou l’élevage, toute augmentation du rendement agricole devra vraisemblablement provenir d’une conduite plus intensive des zones de culture existantes.
Plus de la moitié des engrais synthétiques azotés utilisés depuis tous temps l’ont été sur les deux dernières décennies, contribuant au risque de voir augmenter le nombre de cours d’eau se transformant par eutrophisation en «zones mortes» pour les pêcheries commerciales.
Le prélèvement d’eau dans les fleuves, rivières et lacs a doublé depuis 1960, avec des répercussions à long terme sur la disponibilité et les débits d’eau douce dans certaines régions.
Vingt pour cent des récifs de corail de la planète et pratiquement un quart de ses forêts de mangrove ont disparu depuis 1980 environ, en même temps que leur capacité à amortir les ondes de tempêtes le long du littoral.
Les prises de poissons sauvages en milieu marin ont atteint un pic dans les années 1980 et sont restées statiques depuis lors, avec des conséquences majeures pour tous ceux qui dépendent des ressources marines pour leur survie.
Ces modifications ont conduit à une détérioration quantitative et/ou qualitative de nombreux services écosystémiques. L’Évaluation du Millénaire a mis en évidence que 60%, c’est-à-dire 15 des 24 services écosystémiques étudiés, s’étaient dégradés sur les 50 dernières années. Cinq services sont classés en catégorie «moyen,» dénotant une augmentation de l’approvisionnement ou de la qualité dans certaines régions du monde, mais accompagnée d’une diminution dans d’autres régions. Trois services d’approvisionnement – cultures, élevage et aquaculture – sont notés «améliorés», reflétant les efforts consacrés à une bonne gestion de ces écosystèmes pour alimenter la population en croissance. Malgré cela, les actions engagées pour optimiser ces 3 services d’approvisionnement ont conduit par inadvertance à une dégradation de nombreux services de régulation et services culturels, dont la plupart ne présentent aucune valeur marchande… jusqu’à leur disparition. En d’autres termes, il se produit fréquemment des arbitrages ou compromis entre les différents services écosystémiques.
Les odorants participent aux arômes, ils peuvent constituer une signature des états métaboliques ou pathologiques, ils émanent de drogues ou d’explosifs, signalent des polluants domestiques et environnementaux. Par conséquent, il y a un intérêt croissant pour l’émergence de technologies permettant l’évaluation rapide et non invasive des composés odorants volatils. Les dispositifs actuels de nez électroniques basés sur des semi-conducteurs d’oxyde de métaux ou des polymères conducteurs qui identifient spécifiquement des odorants gazeux sont en général lourds et coûteux et donc inadaptés pour l’élaboration de micro et nanocapteurs qui pourraient mimer le système olfactif naturel. Par ailleurs, ils n’impliquent pas l’identification moléculaire des odorants, leur fonctionnement est perturbé en présence d’eau, et ils nécessitent une taille conséquente d’échantillon pour assurer une interaction optimale avec la surface du capteur. Il est donc extrêmement tentant de développer de nouveaux biocapteurs à base de récepteurs olfactifs, pour remplacer les éléments sensibles physico-chimiques des capteurs chimiques. Cela fournirait une nouvelle plate-forme capable de contourner les inconvénients des dispositifs bioélectroniques actuels. Avec la mise en évidence des récepteurs olfactifs et de la grande famille de gènes qui les codent, Axel et Buck (prix Nobel de physiologie et médecine en 2004) ont ouvert la porte à de multiples voies de recherche tant fondamentales qu’appliquées. Les récepteurs olfactifs comme de nombreux composés biologiques ont des propriétés électriques, ce qui rend possible l’élaboration de capteurs basés sur ces biomolécules.
Le potentiel considérable des nanotechnologies
L’approfondissement des connaissances sur l’olfaction est accompagné du développement rapide des nanotechnologies et de leur influence significative dans les divers secteurs médicaux. Les avancées des nanotechnologies offrent un potentiel considérable pour améliorer la vie des malades surtout lorsqu’elles se concentrent sur l’identification de la maladie, de sa cible, le choix des traitements, l’administration des médicaments et le suivi des effets de la thérapie.
Historiquement, le premier biocapteur a été créé pour mesurer la concentration en glucose dans le sang. Pour la première fois, une protéine, l’enzyme glucose-oxydase, a été utilisée comme élément sensible du capteur. Depuis, une centaine d’autres enzymes ont été utilisées pour les biocapteurs enzymatiques. Le domaine des biocapteurs s’est élargi ensuite avec d’autres protéines solubles ou membranaires, les oligomères, les lipides… ainsi que de nouvelles molécules synthétiques, comme les aptamères. Les nanotechnologies ont impacté ce développement en synergie avec les recherches multidisciplinaires permettant des stratégies émergentes, qu’il s’agisse de nouveaux matériaux, ou de systèmes de reconnaissance utilisés dans les points d’intervention (point-of-care), qui sont encore plus rapides et plus robustes et améliorent la qualité et la facilité du diagnostic.
Les nanotechnologies ont accéléré significativement ce développement en améliorant la biocompatibilité, en proposant de nouvelles approches pour l’immobilisation des biomolécules, et pour l’amplification des signaux générés par la bioreconnaissance. Une des principales applications de ces nouvelles technologies est dans le domaine de nouveaux biosenseurs de diagnostic médical. En effet, grâce aux nanotechnologies, la sensibilité et la sélectivité des dispositifs sont augmentées, l’intégration de la microfluidique est devenue possible et les performances analytiques en termes de répétabilité et fiabilité sont améliorées. De réelles perspectives s’ouvrent, du fait de la miniaturisation, pour interagir de façon ciblée avec les entités biologiques, telles que les récepteurs olfactifs. Le concept de biocapteur olfactif désigne un dispositif de détection d’une ou de quelques odeurs cibles. Les caractéristiques recherchées pour de tels dispositifs concernent essentiellement leur spécificité, leur sensibilité, voire la dose-dépendance de leur réponse pour quantifier la présence de l’odorant à détecter. Les capteurs bio-inspirés peuvent utiliser des récepteurs olfactifs, greffés sur des nanostructures (nanotubes de carbone ou de polymère conducteur, etc.) sur lesquelles sont basés des transistors à effet de champ ou des dispositifs électrochimiques ou optiques. Les signaux générés sont ensuite analysés et traités statistiquement afin de caractériser les échantillons.
Pour un diagnostic médical non invasif et précoce
Les biocapteurs dont les éléments sensibles sont des récepteurs olfactifs peuvent déboucher sur des dispositifs médicaux de détection performants, bon marché, permettant une mesure quantitative et directe, sans marqueur. Ils pourront en particulier servir au diagnostic médical non invasif et précoce. Les applications ciblées peuvent être aussi bien des pathologies largement répandues dans des pays aux ressources limitées manquant d’équipements lourds et de support technique pour le diagnostic (tuberculose), que des cancers dont le dépistage systématique se met en place dans les pays développés (cancer de la prostate, du poumon…). Pour chaque application, il s’agit tout d’abord d’identifier un marqueur odorant spécifique de cette pathologie, puis de trouver le ou les récepteurs olfactifs pertinents pour cet odorant, et d’intégrer cet élément sensible dans un dispositif hybride permettant la détection du marqueur odorant, et donc le diagnostic de la pathologie. Les biocapteurs olfactifs sont particulièrement prometteurs dans la mesure où ils exploitent les propriétés intrinsèques des récepteurs olfactifs en termes de détection spécifique à haute sensibilité, et de discrimination fine entre composés odorants de structure chimique très proche.
Par Jasmina VIDIC, Ingénieur de recherche INRA, Virologie et Immunologie Moléculaires, UR892, INRA Jouy-en-Josas
et Édith PAJOT-AUGY, Directrice de recherche INRA, NeuroBiologie de l’Olfaction, UR1197, INRA Jouy-en-Josas
Extrait de l’article Nanobiocapteurs olfactifs pour la détection de pathologies, RE238, rédigé en 2014 par Jasmina VIDIC et Édith PAJOT-AUGY.
Lumière solaire, chargée de rayonnements ultraviolets mortels mais aussi source d’énergie vitale ; et lumière émise, source d’énergie et moyen de communication : deux aspects de la lumière auxquels nous sommes directement confrontés et dont la gestion par les insectes, par des voies complètement différentes des nôtres, peut être à la base d’intéressantes innovations.
Les insectes sont des organismes poïkilothermes : dépourvus de source de chaleur interne et stabilisée, comme les mammifères et les oiseaux, ils doivent capter une partie de leur énergie du soleil, l’autre étant fournie par l’activité musculaire. Les contraintes thermiques auxquelles sont soumis les insectes sont problématiques. Autrefois qualifié d’animal à « sang froid », il n’en est rien : la température interne d’un papillon en vol se situe, au niveau du thorax, entre 36 et 40 °C, bornes vitales étonnamment proches de celles des mammifères. La limite inférieure, déterminante pour la cinétique de l’activité métabolique, n’est pas la plus préoccupante. L’insecte trop froid ne pourra s’envoler, mais il peut entrer dans une sorte d’hivernation et reprendre son activité ultérieurement. La borne supérieure est au contraire problématique car l’insecte peut mourir d’hyperthermie. Éviter la surchauffe est donc vital. Les insectes utilisent différentes techniques pour gérer ces contraintes dont l’ingénieur peut s’inspirer.
Les insectes « capteur solaire »
Les ailes des papillons blancs sont traversées de nervures extrêmement spécifiques qui participent à la rigidité de l’aile mais également à la circulation lymphatique et donc, indirectement, à la gestion thermique de l’organisme. Dans le cas de papillons blancs, ou très clairs comme notre très commune piéride du chou (Pieris brassicae), dont les ailes réfléchissent plus de 70 % de la lumière incidente dans le visible, l’absorption ne peut évidemment se faire directement par les ailes. Tous ces papillons utilisent donc le fort pouvoir réflecteur de leurs ailes pour renvoyer la lumière sur le point stratégique : le thorax, qui abrite les muscles abducteurs et inducteurs du vol, et dont la cuticule est noire et fortement absorbante. Tous ces papillons ont une position de repos « ailes fermées » et gèrent l’absorption, donc la température, de manière active en jouant sur leur orientation par rapport au soleil et sur l’ouverture de leurs ailes. Le procédé est efficace et permet de manière active – et c’est là le point important – d’éviter la surchauffe fatale.
De nombreux papillons présentent des ailes ou des parties d’ailes d’un noir extrêmement profond. Celui-ci est dû à une combinaison d’absorption par des mélanines et de piégeage de la lumière dans des structures spécifiques. Côté absorption, ce dispositif est extrêmement efficace. Chez Morpho helenor par exemple, les zones noires à la base des ailes, au plus près du thorax, absorbent 99 % de la lumière du spectre solaire au maximum. C’est du côté infrarouge qu’il faut chercher l’innovation ! Loin d’être un capteur sélectif parfait, l’aile présente deux gros pics d’absorption, dont le second, entre 5 et 10 μm, se trouve en lisière du spectre d’émission d’un corps à 40°C. Ce pic joue le rôle de butoir pour le spectre d’émission thermique et maintient le papillon en dessous de la température critique. En dessous de 40°C, il n’y a pas d’absorption dans le domaine d’émission thermique, et donc pas de pertes par rayonnement : l’insecte se réchauffe. Au-delà, le spectre d’émission mord sur ce pic d’absorption, l’aile devient émissive et le papillon refroidit. Il y a là un dispositif original d’autostabilisation thermique que l’on peut transposer aux capteurs thermiques pour des températures plus élevées en jouant sur la valeur de la longueur d’onde de coupure.
Que ce soit pour absorber ou optimiser la transparence, les insectes ont développé des structures antireflets connues (et utilisées) sous le nom de « moth eyes structures ». Ces structures en picots produisent une adaptation d’indice continue entre l’air et la chitine, mais confèrent également à la surface des propriétés super-hydrophobes et autonettoyantes en zones tempérées et humides. Il serait intéressant de comprendre comment certains animaux luttent contre le sable, son adhérence et sa forte abrasion. C’est en effet un des grands problèmes des énergies renouvelables en milieux désertiques, riches en soleil mais aussi en vent et en sable, éléments hautement destructeurs des capteurs et éoliennes.
Il semble cependant que certains insectes (coléoptères) parviennent à empêcher les grains de sables extrêmement fins, qui recouvrent les capteurs en quelques heures, d’adhérer à la surface des élytres. De même, certains animaux comme le poisson des sables (Scincus scincus) ou les taupes dorées (Chrysochloris asiatica), bien que vivant et se déplaçant sous le sable présentent des écailles ou des poils dénués de toute trace d’abrasion.
De telles structures adaptées à nos surfaces amélioreraient grandement les performances de nos capteurs.
Les insectes « émetteur de lumière »
De nombreux insectes émettent de la lumière, soit par bioluminescence, soit par fluorescence. Une fois encore, les raisons en sont multiples. Dans le cas de la bioluminescence, il s’agit clairement d’un moyen de communication inter et/ou intraspécifique, et possiblement aussi d’un moyen de chauffage. Pour la fluorescence, la fonction principale est la protection contre les UV, avec une application à la communication une fois encore. Ces fonctions sont évidemment vitales pour les organismes et optimisées grâce à des structures spécifiques.
L’étude et la caractérisation des structures photoniques naturelles, animales comme végétales, a donné lieu à un très grand nombre de travaux qui ont clairement démontré leur efficacité et l’intérêt qu’il y aurait à les incorporer dans nos réalisations industrielles. On peut tenter de les reproduire, mais nos techniques sont actuellement peu adaptées à la réalisation de structures multi-échelles plus ou moins bien ordonnées, du moins à grande échelle. Si on veut conserver cette complexité, la réalisation de moules et la prise d’empreintes est une voie intéressante.
Deux approches sont envisageables : la voie chimique par des méthodes sol-gel ou la voie physique par dépôt plasma (PVD). La première permet de réaliser des empreintes en de très nombreux matériaux, et semble a priori particulièrement adaptée à la reproduction de structures tridimensionnelles. En raison de la directivité des dépôts physiques, la seconde l’est plus pour des structures uni ou bidimensionnelles.
Sources d’inspiration pour l’homme
Tous les organismes vivants, les insectes comme les hommes, sont soumis à des contraintes sensiblement identiques. Tous deux prospèrent sur terre et ont donc trouvé, au fil des millénaires, des moyens d’y faire face. Les approches des deux groupes sont cependant très différentes, voire opposées. Dans le domaine énergétique, depuis la maîtrise du feu, l’homme s’est assez rapidement détourné des énergies renouvelables difficilement maîtrisables. Ce n’est pas le cas des autres organismes vivants, et en particulier des insectes, qui doivent faire face aux différents aléas de la vie avec des moyens réduits. Des structures sont apparues, notamment à l’échelle nanométrique, qui permettent de gérer les échanges entre l’organisme – un milieu relativement stable d’un point de vue physico-chimique – et l’extérieur, extrêmement variable. Passées au travers du redoutable filtre de la sélection naturelle, celles qui sont parvenues jusqu’à nous ont démontré leur efficacité. Que nous apprennent-elles ? Tout d’abord, qu’une « bonne » structure est toujours multifonctionnelle et qu’aucune des fonctions ne prévaut sur les autres : on parle d’« optimisation moyenne ». Ensuite qu’il faut très peu d’éléments chimiques pour les construire. Ces deux contraintes cumulées – faire beaucoup avec peu – imposent la complexité topologique des structures. Désordre et multi-échelle sont les maîtres-mots des structures naturelles. Dans leurs rapports avec la lumière, les insectes ont développé des structures permettant de gérer toutes les configurations envisageables : absorption, transmission, extraction. Ces mêmes structures présentent par ailleurs des propriétés non liées directement à l’électromagnétisme, mais qui participent à leur optimisation globale : mécanique, hydrophobie, anti-adhésion… Les insectes sont ainsi parvenus à résoudre de nombreux problèmes qui sont encore pour nous sans solutions satisfaisantes. Leur approche est assez éloignée de la nôtre, en particulier par l’usage de la complexité et d’un désordre maîtrisé, et ils ont dans ces domaines bien des choses à nous apprendre. Nous avons, quant à nous, l’avantage d’avoir accès à la quasi-totalité des éléments chimiques. En nous inspirant des structures naturelles et en en réalisant des copies avec nos matériaux, nous pourrons ainsi bénéficier de leurs inventions et peut-être améliorer les effets ou en créer de nouveaux. C’est tout l’art novateur de la bio-inspiration.
Par Serge BERTHIER, Professeur, Université Paris Diderot (Paris, France), Institut des nanosciences de Paris, UMR 7588, CNRS, Université Pierre et Marie Curie, Paris
Extrait de l’article Insectes et lumière : approche bio-inspirée des échanges électromagnétiques, RE243, rédigé par Serge Berthier et al. en 2015.
Révolution en cours, le véhicule connectée est un enjeu très transversal pour l’industrie : sécurité, économies d’énergie, baisse des émissions, optimisation des consommations, amélioration du confort pour le voyageur… Richard Keromen, ingénieur marketing pour National Instruments, décrypte cette tendance pour Techniques de l’Ingénieur :
Pourtant, ces écosystèmes et d’autres, se dégradent rapidement sous l’effet des activités humaines. Le Millenium Ecosystem Assessment, le plus vaste audit jamais réalisé sur l’état et les tendances des écosystèmes planétaires, met en évidence que les écosystèmes se sont dégradés plus rapidement et plus intensément ces 50 dernières années qu’à n’importe quelle autre période de l’histoire de l’humanité. En fait, 15 des 24 services écosystèmiques évalués dans l’étude se sont détériorés au cours du dernier demi-siècle. L’Évaluation du Millénaire prévoit la poursuite de ce déclin sur les décennies à venir, en raison notamment de la croissance démographique, du développement économique et du réchauffement climatique. En l’absence de mesures appropriées, cette dégradation risque de mettre en péril le bienêtre économique futur, créant des gagnants et perdants au sein du monde des affaires.
La dégradation des écosystèmes est d’une grande pertinence pour l’activité économique car les entreprises ont d’une part un impact sur les écosystèmes et les services qu’ils rendent, et d’autre part en sont fortement dépendantes. Par conséquent, la dégradation des écosystèmes peut présenter un certain nombre de risques pour la performance des entreprises, mais par ailleurs peut aussi créer de nouvelles opportunités économiques. Ces risques et opportunités peuvent être d’ordres différents :
Opérationnel
Risques liés à la hausse des coûts de l’eau douce en raison de sa pénurie, à un plus faible rendement des installations hydroélectriques dû à l’envasement, ou à des perturbations des activités commerciales du littoral dues aux inondations.
Opportunités liées à l’amélioration de la réutilisation des eaux, comme l’aménagement d’une zone humide in situ pour éviter la nécessité de construire de nouvelles infrastructures de traitement des eaux.
Réglementaire et juridique
Risques liés à la mise en place de nouvelles amendes, droits d’usage, réglementations gouvernementales, ou à des poursuites judiciaires engagées par les collectivités locales souffrant d’une perte de services écosystémiques due aux activités d’une entreprise.
Opportunités liées aux engagements pris par les gouvernements de mettre en place des politiques et mesures incitatives visant à protéger ou à restaurer des écosystèmes offrant des services dont l’entreprise a besoin.
Image et réputation
Risques pour les sociétés de grande distribution d’être visées par des campagnes menées par des ONG sur les achats de papier ou de bois issus de forêts fragiles, ou bien pour des banques menacées par des controverses sur leurs investissements dans des activités provoquant une dégradation d’écosystèmes préservés.
Opportunités liées à la mise en oeuvre et à la communication de pratiques d’achat, d’exploitation ou d’investissement durables susceptibles d’être des facteurs de différenciation.
Marchés et produits
Risques liés aux décisions de clients de changer de fournisseur en faveur de produits ayant un moindre impact sur les écosystèmes, ou à des décisions gouvernementales d’adopter de nouvelles politiques d’achat durable pour les marchés publics.
Opportunités liées au lancement de nouveaux produits et services minimisant l’impact du consommateur sur les écosystèmes, participant à la séquestration de carbone ou à la protection de bassins versants sur des marchés émergents, favorisant l’émergence de nouveaux modèles économiques basés sur des ressources naturelles détenues par l’entreprise, ou proposant du bois, des fruits de mer, des légumes ou d’autres produits éco-labellisés.
Financement
Risques liés à la mise en place par les banques de conditions de prêt plus rigoureuses en matière de crédit aux entreprises.
Opportunités liées à des offres de modalités de crédit plus favorables par les banques, ou bien à des prises de participation par des investisseurs dans des sociétés proposant des produits et services visant à améliorer l’écoefficacité de l’utilisation des ressources naturelles ou à restaurer des écosystèmes dégradés.
Malheureusement, les entreprises omettent bien souvent d’établir le lien entre la santé des écosystèmes et leur rentabilité. Nombre d’entre elles ne se rendent pas réellement compte de l’ampleur de leur dépendance ou de leur impact vis-à vis des écosystèmes, ni de leurs possibles conséquences. De même, les systèmes de management environnementaux et autres outils d’audit environnemental sont fréquemment peu adaptés à la détection des risques et opportunités découlant de l’exploitation et de la dégradation des services rendus par les écosystèmes. À titre d’exemple, de nombreux outils s’avèrent plus adaptés pour gérer des enjeux «traditionnels» de pollution ou de consommation des ressources naturelles. La plupart sont axés exclusivement sur les impacts environnementaux, et non sur l’aspect de dépendance. Par ailleurs, ils se concentrent aussi uniquement sur les risques, et non sur les opportunités commerciales. Les entreprises risquent donc de se trouver prises au dépourvu ou de rater des occasions de bénéficier de nouvelles sources de revenu associées aux évolutions écosystémiques.
L’évaluation des Services rendus par les Écosystèmes aux Entreprises (ESR) a été conçue précisément pour combler ces lacunes. Elle présente une méthodologie structurée permettant aux gestionnaires d’entreprise de mettre au point des stratégies de gestion des risques et opportunités découlant de leur dépendance et de leur impact vis-à-vis des écosystèmes, au-delà de ce que permettrait une simple étude d’impact environnemental. Les entreprises pourront réaliser un audit ESR en tant que procédure autonome, ou l’intégrer dans leur système de management environnemental existant. Dans les deux cas, la méthodologie peut utilement compléter et optimiser les outils d’évaluation dont l’entreprise dispose déjà.
Créer de la valeur
L’évaluation des services écosystémiques peut contribuer à créer de la valeur pour des entreprises de secteurs ayant une interaction directe avec les écosystèmes, de type agriculture, fabrication de boissons, traitement des eaux, exploitation forestière, pétrole, gaz, extraction minière ou tourisme. Elle s’avérera de même pertinente pour les secteurs de la grande distribution, de la santé, du conseil, des services financiers ou autres industries tertiaires, dans la mesure où leurs fournisseurs et/ou clients interagissent directement avec les écosystèmes. Les grands distributeurs par exemple peuvent se trouver confrontés à des risques de marché ou d’image si certains de leurs fournisseurs sont responsables de la dégradation d’écosystèmes et des services que rendent ces derniers.
Ce document décrit les cinq étapes de réalisation d’une Évaluation des Services Écosystémiques (Tableau 1). Il présente un cadre analytique, des études de cas ainsi que des suggestions utiles pour faciliter chacune des étapes. Enfin, un descriptif de moyens et outils à la disposition des gestionnaires d’entreprise pour réaliser une évaluation ESR est proposé en conclusion, y compris une feuille de calcul sur «l’évaluation de dépendance et d’impact», des comptes-rendus scientifiques, des approches d’évaluation économique et autres outils spécifiques à ce domaine.
La dégradation, à l’échelle planétaire, des écosystèmes et des services qu’ils rendent menace de transformer les conditions dans lesquelles opèrent les entreprises. L’Évaluation des Services Écosystémiques est une démarche volontaire permettant aux entreprises de mieux gérer leurs risques et opportunités émergents. Elle leur permettra par ailleurs d’établir le lien entre la santé des écosystèmes et leurs résultats financiers, en encourageant non seulement des bonnes pratiques d’entreprise plus durables, mais également en favorisant le soutien du monde des affaires à des politiques visant à protéger ou à restaurer les écosystèmes.
Nombre de chercheurs veulent aujourd’hui en finir avec les mots de passe, aujourd’hui le standard en terme d’authentification et d’identification, qui quand il est mal utilisé, est facile à détourner.
Dans ce cadre, la biométrie passe pour être la solution miracle. Sauf que l’identification par empreintes digitales a récemment été disqualifiée par plusieurs experts en sécurité. Au Chaos Computer Club (CCC) de Berlin, le hacker “Starbug” a réussi à hacker l’iPhone 5S et son système Touch ID. Il est aussi parvenu à récupérer l’empreinte digitale du ministre allemand de la défense… sur un verre d’eau oublié dans une salle de conférence.
Le hacker du CCC n’a pas reproduit cette empreinte, mais il aurait pu le faire très facilement : ainsi, explique “Starbug” dans le documentaire “Le business de la peur” (Cash Investigation, France 2), “ voler l’empreinte digitale de quelqu’un et la reproduire, la répliquer pour se faire passer pour lui, est à la portée de n’importe qui”. Il suffit ainsi de la récupérer sur un objet, et de l’imprimer sur de la colle à bois ou du silicone, pour créer “une fausse peau”.
La reconnaissance par les veines
Face à ce constat, des chercheurs suisses de l’institut de recherche Idiap, ont (peut-être) trouvé la solution. En 2014, ils se sont rapprochés d’un ingénieur britannique, Joe Rice, qui a inventé en 1984, l’analyse biométrique des veines. Ensemble, ils ont repris ce système, très utilisé en Asie, mais fort peu en Europe, et ont conçu, avec le concours de l’EPFL (École polytechnique fédérale de Lausanne), une montre intelligente capable d’identifier son porteur : la Biowatch.
En gros, un capteur positionné sous le poignet, “lit” les images du réseau veineux de l’utilisateur – un schéma unique, donc une signature électronique à priori inviolable – , afin de l’authentifier et de dévérouiller l’accès aux données de la montre. Pour “lire” le réseau veineux du poignet, un rayon infrarouge illumine les vaisseaux sanguins sous la peau.
“Le capteur intégré dans le bracelet prend une image de vos veines. Puis un algorithme la compare avec celle initialement enregistrée”, explique Matthias Vanoni, chercheur suisse devenu CEO de Biowatch. Une fois l’identité de l’utilisateur confirmée, un signal chiffré (par un système de clés publiques / privées) est envoyé au système d’exploitation de la montre (et d’autres objets connectés environnants), par Bluetooth ou NFC.
Un usage policier, militaire et bientôt grand public ?
Joe Rice et les chercheurs de l’Idiap prévoient d’abord une utilisation de ce système par les policiers et les militaires, “notamment dans le champ des codes d’autorisation de véhicules, d’armes, de systèmes d’information ou encore de systèmes de combat”, selon Intelligence Online.
Mais à terme, il pourrait s’agir surtout d’un moyen d’identification pour le grand public, avant tout pour sécuriser tout paiement en ligne. Cette technologie pourrait s’intégrer dans n’importe quel “wearable” – montres intelligentes, bracelets connectés, mais aussi montres mécaniques intelligentes – porté au poignet.
Selon Matthias Vanoni, le taux de reconnaissance par le réseaux des veines atteint 99,5%. “C’est un taux que nous souhaitons augmenter en ajoutant des informations autres que le seul chemin des veines”, promet-il. Difficile de garantir que la reconnaissance par les veines constitue vraiment un système inviolable, mais selon les inventeurs de la Biowatch, le schéma veineux d’un individu est “quasiment impossible à reproduire”. Notez le “quasiment”.
Les veines de la paume de la main déjà exploitées par Fujitsu
Entre 2005 et 2013, Fujitsu a conçu un système d’identification biométrique utilisant les veines de la paume de la main pour générer une clé de chiffrement 2 048 bits. Comme la Biowatch, il s’agit de scanner le réseau veineux – palmaire, cette fois -, à partir d’un capteur optique qui “photographie” les veines à l’aide de rayons infrarouges.
Le “lecteur”, au dessus duquel l’utilisateur place la paume de sa main, compare le réseau veineux repéré avec des réseaux enregistrés en amont, afin d’identifier la personne. Comme l’expliquait en 2005, Thomas Bengs, directeur produit « Palm Vein » chez Fujitsu Europe Limited, au site ZDNet.fr, “le réseau veineux palmaire est propre à chaque individu, même dans le cas de vrais jumeaux (dits homozygotes). Il ne peut être reconnu que du vivant de l’individu, lorsque les globules rouges circulent dans les veines”.
Ce système, baptisé “Palm Secure”, et qui permet d’éviter un contact avec la peau, est utilisé sur de nombreux distributeurs de billets au Japon. Mais il n’a pas encore eu le succès escompté en Europe – sauf chez certaines banques, comme le groupe bancaire UniCredit -, où l’identification par empreintes digitales tient le haut du pavé.
Pour les concepteurs de la Biowatch, en revanche, l’utilisation d’un capteur placé sous le poignet pourrait être un moyen de toucher, facilement et largement, les entreprises et le grand public, friand de “smartwatchs” et de bracelets connectés. Reste à voir s’il s’agit bel et bien d’un système inviolable.
Par Fabien Soyez
On pourrait raisonnablement penser que les employés en bas de la hiérarchie de l’entreprise sont les moins heureux à leur travail. En effet, ils gagnent moins d’argent que leurs supérieurs, et ont une autorité pour décider comment faire leur travail qui se trouve limitée.
Mais ces supputations sont battues en brèche par une nouvelle étude qui nous dit que non, ‘un peu’ de pouvoir n’est pas toujours préférable à ‘pas du tout’ de pouvoir.
L’étude, menée par un docteur de l’Université de Columbia, Steh Prins, nous prévient que le cas des managers intermédiaires pourrait en fait être le moins enviable. Comparé à leurs supérieurs et à leurs subordonnés, les salariés intermédiaires sont ceux qui présentent le plus de cas de dépression et d’anxiété, selon les résultats de cette recherche.
Ce sont les témoignages de plus de 22.000 salariés à plein temps qui ont pu être analysés. En effet, ces derniers participaient à l’enquête nationale (Aux Etats-Unis) sur l’alcool et les autres addictions chez les travailleurs américains.
Les chercheurs ont décidé de séparer les travailleurs ayant participé à l’étude en quatre groupes :
PDG ou auto-entrepreneurs gagnant au moins 71 500 dollars par an.
Managers, où tout cadre ayant un rôle décisonnel (et ayant une formation BAC au minimum)
Superviseurs (et autres catégories similaires n’ayant pas de formation post-bac)
Travailleurs (ouvriers, travail manufacturé…)
Les résultats montrent que les managers et les superviseurs présentent les taux de dépression les plus élevés.
Les superviseurs, par exemple, développent pour 19 % d’entre eux des syndromes dépressifs ; les managers présentent un taux de 14 %, comparé à 12 % pour les DPG et les travailleurs.
En ce qui concerne les cas d’anxiété, les superviseurs sont concernés à hauteur de 11 % et les managers à hauteur de 7 %. Les PDG et les travailleurs, eux, présentent des taux respectifs de 5 % et 2 %.
Le Docteur Prins et les co-auteurs de l’étude ont développé des théories pour tenter d’expliquer ce surcroît de stress chez certains cadres. Ainsi, l’étude cite d’autres recherches montrant que face à un nombre important de demandes externes, les sujets manquant d’autorité ont une tendance importante à développer les syndromes connus de la dépression.
Le cas du cadre intermédiaire est exactement celui-là : la plupart du temps, il n’est pas en position de contester les ordres venus de sa hiérarchie, et en même temps il doit se dépatouiller entre les exigences verticales de ses collègues, venues d’en haut et d’en bas.
« Les cadres intermédiaires se retrouvent dans cette position unique d’avoir des exigences importantes – dues à la fonction de leur poste – sans l’autorité de décision qui va avec, explique le Docteur Prins. En fait cette catégorie de personnel est constamment tiraillée entre leur hiérarchie et les échelons inférieurs, ce qui est une position difficilement tenable sur le long terme. »
Mais ce n’est pas tout. Les auteurs de l’étude en sont arrivés à émettre l’hypothèse selon laquelle le cadre intermédiaire est dans une position assez solitaire. En effet, ce dernier ne peut s’en vouloir qu’à lui-même quant à ses échecs professionnels. Alors qu’un travailleur peut facilement mettre ses échecs sur le dos de son manager par exemple, l’inverse est impossible, ne serait-ce que pour une raison de responsabilités.
Cet état de fait est tout de même à prendre en compte, insiste le Docteur Prins. Alors qu’il est facile pour des travailleurs de mettre le manager en cause (“c’est de la faute du management, pas de la nôtre”), un échec directement imputable au cadre intermédiaire est souvent plus vécu comme un échec personnel, une faillite humaine. D’où des répercussions psychologiques importantes.
Les auteurs de l’étude sont tout de même plutôt réfractaires à l’idée de tirer de cette étude trop d’interprétations à destination de cadres dirigeants. En effet, le spectre de l’étude, très large, rend difficile toutes interprétation trop ciblée par rapport à des missions précises et des situations particulières. Plus généralement, on pourra conclure que plus d’argent et de pouvoir ne sont pas nécessairement corrélés avec plus de bonheur.
Pour ce qui est de l’activité professionnelle, on conclura qu’il est peut-être préférable de travailler avec une autonomie nulle ou complète, plutôt qu’être bloqué quelque part entre ces deux extrêmes.
Commençons par rendre une nouvelle petite visite à la jeune start-up allemande Festo, spécialisée dans le développement et dans l’innovation des mouvements robotiques. Derniers nés de leur laboratoire de recherche, les papillons « eMotion » respirent la légèreté et se meuvent indépendamment mais en parfaite coordination, dans un ballet des plus aériens. Pour réaliser ce tour de force, pas moins de dix caméras infrarouges auront été nécessaires, quadrillant la zone test de leurs 160 images par secondes (avec une exposition de l’ordre de 250 microsecondes), et suivant la trace des papillons bioniques via leur marqueur infrarouge. Ce réseau offre à l’analyse plus de 3,7 milliards de pixels de données chaque seconde, permettant au superviseur central de contrôler de manière fluide le vol de ces drôles d’insectes.
Comme souvent chez Festo, le système de guidage et de monitorage ne semble pas souffrir de la miniaturisation à l’extrême. Les papillons « eMotion » impressionnent aussi dans leur mimétisme, produisant du haut de leurs 32 grammes un vol groupé étonnamment fidèle à celui de leurs alter ego naturels. Les ingénieurs de Festo n’en sont pas à leur coup d’essai, l’essaim de papillons « eMotion » vient en effet s’ajouter au bestiaire déjà fantastique de la compagnie allemande, composé entre autres d’un goéland robot plus vrai que nature dont nous vous parlions ici, d’une très élégante libellule robotique que vous pouvez retrouver là ainsi que d’un étonnant kangourou bionique.
Spot, nouveau poids plume sans laisse de la Boston Dynamics
La famille de la Boston Dynamics, rachetée fin 2013 par Google, s’agrandit encore ! Le robot-guépard Cheetah, le robot anthropomorphe Petman et les mules-robots Alpha Dog et Big Dog ont un nouveau petit frère, baptisé Spot, plus léger et moins pataud que ses prédécesseurs. Parmi cette invincible armada, Cheetah a été le premier à briser ses chaînes, mais Spot se démarque des prestigieux membres de sa fratrie en étant le premier à naître « libre », sans les encombrants – mais indispensables – câbles auxquels nous avions fini par nous habituer.
Dans la vidéo qui suit, on peut apercevoir les 72 kilos de ce poids plume déambuler tranquillement dans les locaux de la Boston Dynamics, rien d’inhabituel puisque personne ne semble remarquer le petit manège du quadrupède robotique. Bien que le nom soit celui d’un chien, la démarche, elle, fait plutôt penser à celle d’un minuscule cheval au trot sur ses quatre pattes à vérins hydrauliques. La batterie de capteurs qui a élu domicile au niveau de son ciboulot lui permet de se mouvoir sans encombres en terrain accidenté, et de supporter sans broncher les assauts répétés – quelques coups de pied tout de même – de scientifiques mal lunés.
Spot a été développé par la Boston Dynamics avec l’aide du Massachusetts Institue of Technology (MIT) sous la houlette de la DARPA (Defense Advanced Research Projects Agency), agence affiliée au Département de la Défense américain, et chargée de la recherche et du développement des nouvelles technologies destinées à des fins militaires.
« DALER », le robot volant pas très à l’aise au sol
Le biomimétisme a le vent en poupe, et ce ne sont pas les concepteurs de notre gadget qui viendront nous dire le contraire. Le « DALER » (acronyme de Deployable Air-Land Exploration Robot) est un petit robot aux allures de chauve-souris, censé apporter une solution aux problèmes de polyvalence de ces engins lorsqu’ils changent de terrain de jeu et de moyen de locomotion. Plutôt très à l’aise dans les airs, le robot adapte sa morphologie pour s’attaquer au plancher des vaches, avec… moins de succès.
Un ingénieux mécanisme permet aux ailes de la petite bestiole de se replier, les bras ailés faisant ainsi office de pattes de fortune. Pourtant, le moins que l’on puisse dire est que la démarche est mal-assurée, et que la progression du robot semble compromise en extérieur sur terrain difficile. Développé pour rechercher de potentielles victimes lors de catastrophes naturelles, on se prend à espérer que les prochaines versions seront moins malhabiles.
Premier bain réussi pour une pieuvre robotique en mer Égée
Les chercheurs grecs du FORTH (« Foundation for Research and Technology-Hellas ») ne risquent pas de nous contredire, puisqu’ils viennent de présenter la dernière mouture de leur petit protégé, une sorte de pieuvre robotique baptisée « Roboctopus ». Surs d’eux, les scientifiques grecs vont jusqu’à laisser évoluer librement le céphalopode robotique en mer Égée, nageant de manière très réaliste et naturelle, mais toujours sous leur surveillance bienveillante.
Au début de la vidéo, on aperçoit une version antérieure du robot, malhabile, semblant lutter pour se déplacer. L’ajout d’une membrane entre les tentacules et jusqu’à mi-hauteur va alors multiplier la vitesse du robot par deux, tout en réduisant drastiquement ses besoins énergétiques. L’équipe du FORTH lui a également appris à ramper – une démarche qui ne lui semble toutefois pas vraiment naturelle – et à transporter des objets tels qu’une balle. A suivre !
Jessiko, poisson robot social et autonome
On va cette fois-ci du côté de Palaiseau pour rendre visite à la start-up Robotswim, dont le poulain « Jessiko » est un poisson robot social et autonome qui fait de plus en plus parler de lui, et qui semble avoir le vent en poupe.
Las d’organiser des concours de robotique – la coupe de France de football des robots – alors que son cerveau fourmille d’idées et que son carnet d’adresse est plein à craquer, Christophe Tiraby a décidé de franchir le cap et de devenir un acteur de ce marché, avec la mise au point d’un robot poisson de petite taille et au faible coût de production.
Nous sommes en 2005, et Jessiko vient tout juste de naître.
Conçu pour nager en banc, ce poisson d’une vingtaine de centimètres de long réagit à son environnement et aux informations provenant aussi bien de l’extérieur que des autres poissons grâce à deux microprocesseurs embarqués.
Mais c’est surtout sa « tête chercheuse » révolutionnaire, nœud central d’un procédé de localisation basé sur les ondes lumineuses qui donne toute son autonomie à Jessiko, et qui attise par là même les convoitises de nombreux fabricants de robot.
Il peut atteindre une vitesse de pointe de plus de 20 centimètres par seconde grâce aux battements rapides de sa nageoire arrière, la nageoire avant – proéminente – lui permet de contrôler le roulis, et son aileron lui permet de gérer au mieux sa flottabilité en influant sur le volume d’eau déplacé.
Il remporte le Grand Prix de l’Innovation de la Ville de Paris en novembre 2009, catégorie Design, et c’est peut-être là que le bât blesse : Jessiko semble pour le moment n’être destiné qu’à orner les aquariums du monde entier, animant grands magasins et événements en tous genres, mais il pourrait à l’avenir embarquer divers capteurs pour fournir des renseignements sur la qualité de l’eau et sur son pH.
MorpHex, le robot hexapode modulable et télécommandé, est de retour
Il avait promis qu’il reviendrait, Kare Halvorsen a tenu parole. Jetons un œil à la version améliorée de MorpHex, le robot sphérique hexapode mis au point par un ingénieur norvégien plutôt débrouillard et touche-à-tout. Conscient des faiblesses de la précédente version – qui lui a tout de même permis de participer à un concours d’innovation organisé par la société Boca Bearing, le « Boca Bearings 2012 Innovation Competition » – Kare Halvorsen a pris le temps de fignoler sa bestiole télécommandée à six pattes pour enfin pouvoir rouler des mécaniques à ses côtés.
MorpHex a pour principal atout de pouvoir prendre différentes formes en fonction de l’usage qui lui est destiné, ou du terrain qu’il devra parcourir. Capable de se transformer en sphère, puis de retrouver sa forme de robot hexapode à l’envi, le bruyant avorton polymorphe (en cause, les servomoteurs) réussit la prouesse de pouvoir se déplacer sur ses six pattes, tel un insecte, ou de pouvoir rouler lorsqu’il adopte sa forme sphérique. La structure centrale du robot est modulable, permettant au robot d’occuper plus ou moins de surface lorsqu’il est en mouvement.
Si l’on se fie au perfectionnisme de notre méticuleux ingénieur norvégien, il ne reste plus qu’à attendre une nouvelle mouture de MorpHex, d’ici un ou deux ans.
Le robot anthropomorphe Atlas, de la Boston Dynamics, s’attaque à Karaté Kid
Dire que la Boston Dynamics ne chôme pas est un pléonasme… Grande habituée de la Revue du Web, la prolifique société américaine, forte du prestige que lui accordent ses différents poulains (Alpha Dog, Big Dog, Proto PET), ne cesse de nous surprendre par la qualité de son travail, la grande polyvalence de ses robots ainsi que par la cadence infernale à laquelle elle améliore ses petits protégés.
L’un des derniers avortons de cette grande famille, baptisé Atlas, est un robot humanoïde bipède anthropomorphe conçu pour se déplacer en extérieur en terrain difficile, à l’instar de la mule robot Big Dog. Pour son grand retour dans notre Revue du Web, Atlas exécute l’un des mouvements les plus emblématiques du film générationnel Karaté Kid, grand succès et monument du milieu des années 1980.
« DelflyExplorer », le drone libellule tout en légèreté :
Tout vient à point à qui sait attendre… Il aura fallu neuf ans de développement et de dur labeur pour que les chercheurs hollandais de l’université de Delft réussissent à mettre au point leur petit bijou. Pour débuter notre soixante-sixième Revue du Web, penchons-nous sur le fruit de ces neuf années de gestation, « Delfly Explorer », une libellule robotique ultra-légère capable de produire des images en 3D.
Semblant battre des ailes comme son alter-ego biologique, le mini-drone d’à peine 20 grammes embarque deux caméras miniatures basse-résolution qui lui permettent d’évoluer sans encombre dans son environnement, en créant des images tridimensionnelles traitées en temps réel pour guider le petit bolide. Pour affiner le calcul des trajectoires, un baromètre et un accéléromètre viennent parfaire la panoplie de notre drone-libellule, dont l’autonomie de neuf minutes est assurée par une petite batterie au lithium-ion polymère.
Bien que des applications militaires aient été envisagées, les concepteurs préfèrent imaginer des utilisations plus terre-à-terre, telles que le survol des champs pour surveiller le mûrissement des fruits, ou le survol de grands rassemblements (concerts, matchs) sans risquer de blesser qui que soit en cas d’avarie.
Ce n’est pas la première fois que la libellule inspire les scientifiques : au rayon biomimétisme, peut-être vous souvenez-vous de « BionicOpter », la très élégante libellule robot de la société allemande Festo dont nous vous parlions déjà ici.
Cheetah, robot-guépard de la Boston Dynamics, sans la laisse :
Les éminences grises de la Boston Dynamics l’avaient promis, ils l’ont fait. La très prolifique société américaine, dont la réputation n’est plus à faire, s’est encore une fois associée au prestigieux Massachusetts Institute of Technology (MIT) pour libérer Cheetah de ses câbles afin de le tester en conditions réelles et en environnement extérieur.
Vous vous souvenez forcément de Cheetah, le robot-guépard qui court plus vite qu’Usain Bolt. Les chercheurs se sont inspirés des mouvements de l’animal terrestre le plus rapide au monde, le guépard, pour concevoir leur bébé, allant jusqu’à baptiser leur robot du nom du guépard indien, animal maintenant présumé disparu.
Amélioré d’un algorithme lui permettant désormais de sautiller, Cheetah peut courir seul à une vitesse approchant les 16 kilomètres par heure, et se débarrasser d’obstacles d’une trentaine de centimètres de hauteur.
Cheetah a été développé par la Boston Dynamics sous la houlette de la DARPA (Defense Advanced Research Projects Agency), agence affiliée au Département de la Défense américain, et chargée de la recherche et du développement des nouvelles technologies destinées à des fins militaires. Une nouvelle batterie de tests serait en route, tests qui pourraient s’avérer concluants si l’on doit se fier au prestige dont jouit la Boston Dynamics dans la communauté scientifique, notamment grâce à Alpha Dog ou à Big Dog, des mules-robots particulièrement impressionnantes, – ou encore grâce à Petman, leur robot anthropomorphe. Les champs d’applications pourraient être assez nombreux, bien que le Pentagone pense évidemment à des débouchés… militaires.
Crabster CR200, robot monstrueux censé révolutionner les explorations sous-marines :
Le carnet rose de l’Institut Coréen des Sciences Océaniques a cessé d’être vierge. Nous pouvons désormais souhaiter la bienvenue à Crabster CR200, joli bébé de 635 kilos pour 2 mètres de haut, 2,42 mètres de long et 2,45 mètres de large. Derrière ces proportions éléphantesques se cache un monstre que n’aurait pas renié Jules Verne au moment de l’écriture de Vingt mille Lieues sous les mers.
Ses six pattes en aluminium recouvert de fibre de verre lui accordent une résistance et une posture qui devrait lui permettre de supporter des courants qu’aucun plongeur ne pourrait décemment affronter. Les deux pattes avants possèdent chacune une pince pouvant collecter des objets sur place, et lui assurant à la fois stabilité et une plus grande manœuvrabilité.
Un câble de 500 mètres de long permet aux opérateurs humains de contrôler ce crabe/homard robotique à distance, câble véhiculant également les informations collectées en profondeur par le robot coréen. Car il faut pas moins d’un pilote pour le diriger et assurer sa posture, un copilote pour les pinces, et plusieurs autres opérateurs pour superviser la collecte des informations. Et le moins qu’on puisse dire est qu’il est équipé pour : dix caméras HD mobiles dont une capable de filmer ce qu’il se passe à l’extérieur comme à l’intérieur du robot, à des fins d’inspection ; une caméra acoustique utilisant les ondes sonores pour générer des images en eaux troubles, et ce jusqu’à une distance de 15 mètres ; un sonar d’une portée de 150 mètres, capable de cartographier les fonds marins en trois dimensions ; un Doppler acoustique pour jauger la force et la direction des courants.
La nature pour inspiration, avec le kangourou bionique de la société allemande Festo
Pour débuter notre cinquante-neuvième Revue du Web, commençons par rendre une petite visite à la jeune start-up allemande Festo, spécialisée dans le développement et dans l’innovation des mouvements robotiques. Dernier né de leur laboratoire de recherche, le bien-nommé « BionicKangaroo », un kangourou robotique de presque 7 kilos dont le fonctionnement est pour le moins léché, et qui reproduit assez fidèlement le saut caractéristique du célèbre marsupial.
Équipé de deux moteurs au niveau des hanches et d’un moteur pour articuler la queue, le kangourou bionique de Festo allie intelligemment des actionneurs électriques et pneumatiques, offrant à l’ensemble du système un grand dynamisme. La stabilité du saut surprend, de l’impulsion jusqu’à la réception, dans un cycle d’une étonnante fluidité. En l’air, les jambes se placent en avant pour assurer une bonne réception tandis que de menus ajustements de la position de la queue permettent de contrôler l’équilibre en vol. Le contact avec la terre ferme retend les pattes arrières pour amorcer le prochain saut.
Le kangourou bionique vient s’ajouter au bestiaire déjà fantastique de Festo, composé d’un goéland robot dont nous vous parlions ici et d’une très élégante libellule robotique que vous pouvez retrouverlà.
« Sepios », l’élégant poisson robotique aux quatre nageoires :
Les étudiants de l’Institut fédéral suisse de technologie ont de la ressource… S’inscrivant dans la tendance générale du biomimétisme, le projet d’étude de nos jeunes voisins s’inspire des mouvements de la seiche pour aboutir à son mode de propulsion unique à quatre nageoires (qui semble pourtant rappeler l’élégance aérienne d’un gros nudibranche rouge vif, la « danseuse espagnole »). Se distinguant des autres robots nautiques par sa faculté à se mouvoir aisément dans toutes les directions, il fait également preuve d’une très grande maniabilité.
Le mouvement de chaque nageoire est rendu possible par neuf servomoteurs, savamment coordonnés afin de reproduire ce mouvement, cette onde progressive et fluide si particulière. La bestiole, d’une longueur de 70 centimètres pour moins d’un mètre d’envergure, ferait si peu de remous qu’elle paraît idéale pour observer discrètement la vie marine, que ce soit à des fins scientifiques ou pour effectuer des prises de vue, en se cantonnant à une profondeur maximale de dix mètres. « Sepios » pourra mettre à profit son heure et demie d’autonomie pour se fondre dans le décor…
La réalité augmentée et la réalité virtuelle s’annoncent-elles comme le prochain eldorado dans le secteur des nouvelles technologies ? C’est plausible quand on examine les projections du cabinet d’études de marché Digi-Capital : ces technologies devraient peser quelque 150 milliards de dollars en 2020, la réalité augmentée s’octroyant la majeure partie, soit 120 milliards. Les grands noms de l’industrie en semblent convaincus, à en juger par les ressources qu’ils dépensent. Oculus et son casque Rift sont devenus propriétés de Facebook contre 2 milliards de dollars, Intel a investi 25 millions de dollars dans les lunettes de Vuzix, Microsoft a développé le casque HoloLens et Google a donné son nom aux Google Glass, avant de débourser 542 millions de dollars dans Magic Leap… Dans cet inventaire au fort accent américain, une société française tente de tirer son épingle du jeu : Optinvent, créée en 2007 par des anciens de Thomson et conceptrice des lunettes Ora.
Le casque Rift se veut un casque de réalité virtuelle, grâce auquel l’utilisateur est immergé dans l’image, déconnecté de la réalité. Les fabricants de console et les éditeurs de jeu vidéo sont logiquement parmi les premiers intéressés. La réalité virtuelle est quant à elle l’apanage des autres dispositifs. Les données voire les images se superposent au champ de vision de l’utilisateur, qui conserve la perception de son environnement extérieur. C’est un principe qui existe depuis de nombreuses années dans l’aviation militaire : les pilotes de chasse sont assistés par un affichage tête haute projetés sur leur visière et maintiennent ainsi une concentration maximale. Des applications de réalité virtuelles existent maintenant sur les smartphones et les tablettes et exploitent la caméra embarquée. Les lunettes sont un moyen de se rapprocher des yeux, donc un accélérateur. «Les gens dégainent 150 fois leur smartphone par jour pour consulter des informations, explique Khaled Sarayeddine, directeur technique et cofondateur d’Optinvent. C’est une action assez longue à chaque fois. Le but consiste à la court-circuiter.»
Ce bénéfice ne saute pas encore aux yeux du grand public, comme en témoigne le flop des Google Glass à leur sortie. L’acceptabilité sociale est en effet un facteur à prendre en compte, que ce soit pour le porteur ou pour la personne qui lui fait face, susceptible d’être intimidée par la présence d’une caméra. Le nouveau projet Ora-X de Optinvent, en cours de financement sur la plateforme Indiegogo, s’attache à gommer ces réticences. Il s’apparente à un casque audio équipé d’un écran escamotable, dont l’utilisateur pourra faire usage si besoin. Le monde professionnel n’a pas ce genre de scrupule. En permanence à la recherche de gains d’efficacité donc de productivité, il est à l’affût.
Khaled Sarayeddine imagine les pistes à explorer : «Les entreprises de logistique souhaitent une solution mains-libres afin d’augmenter la cadence des scans de colis. Dans l’industrie aéronautique, la réalité augmentée pourrait améliorer la phase d’assemblage, facilitant les processus de vérification et l’accès aux bases de données. Dans les musées, la caméra embarquée pourrait servir à identifier des œuvres et à communiquer les informations appropriées au visiteur. Dans les blocs opératoires, le corps du patient pourrait être modélisé et affiché devant les yeux des chirurgiens, ce qui est intéressant pour la pose de prothèses.»
De nombreuses expérimentations
Des lunettes à réalité augmentée ont été expérimentées par Accenture sur les chaînes d’assemblage de l’Airbus A330, à Toulouse. Dans l’usine de Rio Tinto à Dunkerque, qui produit de l’aluminium, les Google Glass ont été mises à l’épreuve par Cap Gemini pour l’inspection des cuves. Le télédiagnostic et la télémaintenance pourraient éviter le déplacement d’experts, très rares et coûteux dans le cas présent. La réalité virtuelle trouve déjà des débouchés dans la formation des techniciens de l’industrie aéronautique et automobile. Peut-être sera-t-elle plus tard employée pour les futurs chirurgiens, qui apprendront les bons gestes en se basant sur la vidéo d’une opération filmée au préalable. C’est l’objet d’un test qui a été mené à l’hôpital Georges Pompidou en juin 2014, basé sur l’Oculus Rift.
Ces casques et lunettes sont aujourd’hui envisageables à grande échelle parce qu’ils exploitent des composants électroniques standards et abordables, logés dans tous les smartphones. «A l’exception du modem 3G, nos lunettes Ora sont l’équivalent d’un smartphone, constate Khaled Sarayeddine. Elles exécutent des commandes, sont pourvues d’un véritable OS… Mais le modèle économique est l’enjeu fondamental. C’est le même que celui du smartphone, qui permet à des éditeurs tiers de développer des applications spécifiques. Ce ne serait pas viable sinon.»
De nombreux défis techniques restent à surmonter, dont la projection de l’image. «L’afficheur doit rester transparent pour ne pas gêner la vision, précise Khaled Sarayeddine. C’est la condition pour que la réalité augmentée soit possible en mobilité.» Face à la projection sur miroirs semi-réflectifs placés devant les yeux, la technique du guide d’ondes se révèle plus plus prometteuse, l’électronique pouvant être déportée sur le côté de la tête. Le signal lumineux est ensuite guidé dans une lamelle pour finir projeté sur la rétine. Plusieurs méthodes se confrontent – réflective, diffractive, polarisée, holographique…- fruits de travaux de grands groupes tels que Sony, Epson et Nokia (qui a licencié sa technologie à Vuzix) ou de start-ups comme l’israélien Lumus. Pour sa part, Optinvent a déposé 11 brevets protégeant son procédé de projection rétinienne, Clear Vu. Ce nom exprime le fait que la vision du porteur n’est pas gêné. «Le guide ne fait que 4 mm d’épaisseur, poursuit Khaled Sarayeddine. Autre avantage pour la production à gros volume : il peut être moulé en une seule étape.» La technologie qui peut être industrialisée puis déployée à moindre coût a souvent de bonnes chances de l’emporter.
Si vous ouvrez un compte CO2 sur compteepargneco2.com, vos réductions d’émissions de gaz à effet de serre seront récompensées. Vous pourrez soit les valoriser en espèces sonnantes et trébuchantes au prix de 52,64 € la tonne de CO2 évitée, soit en bons de réduction auprès des entreprises partenaires, au minimum de 100 € la tonne. C’est bien plus que sur le marché européen du carbone ! Les réductions se font par exemple chez Europcar, Terra Eco, auprès de la SNCF, du Crédit Mutuel, de vendeurs de vélos électriques ou de chaudières au bois, de salles de spectacles…
Par exemple, si vous remplacez votre ancien véhicule diesel par un véhicule électrique, l’entreprise estime que vous économisez 2 tonnes de CO2 par an. Résultat : elle vous reverse directement 105 € par an ou vous pourrez bénéficier d’au moins 210 € de réductions auprès des entreprises partenaires. « Et si vous remplacez votre chauffage au fioul par une pompe à chaleur à Strasbourg, l’économie pourrait atteindre 10 tonnes de CO2 chaque année », assure Jean-Luc Baradat, PDG de 450. Soit un joli chèque annuel de 526 €. Ces économies sont cumulables avec les aides publiques existantes, notamment les crédits impôts transition énergétique et le superbonus écologique. Elles sont versées pendant 10 ans.
Pour financer ce système, l’entreprise 450 vend à des entreprises des certificats de compensation volontaire sur la base des tonnes de CO2 évitées par les ménages ou d’autres entreprises. Si elles le souhaitent, les entreprises qui ouvrent un compte CO2 peuvent racheter directement les émissions évitées de leurs employés. Ce système d’échange de quotas est reconnu par l’ONU et la France ; 450 est la seule entreprise active sur ce marché au niveau national.
A ce jour, près de 8000 ménages et une centaine d’entreprises se sont laissées séduire. Plus de 200 000 tonnes de CO2 ont ainsi été évitées. « L’idée est de montrer à la COP21 que le kg de CO2 évité est déjà une monnaie », affirme Jean-Luc Baradat. Dans cet esprit, l’entreprise envisage aussi le développement d’un système d’échange de quotas de CO2 entre particuliers du nord et du sud.
Comment sont calculées vos réductions d’émissions ?
Pour calculer vos émissions de CO2 , l’entreprise se base sur vos habitudes de mobilité et de chauffage. A partir de vos factures d’énergie et des relevés kilométriques de vos véhicules que vous utilisez au quotidien, elle dresse votre bilan carbone. Elle prend ensuite en compte l’ensemble des efforts que vous mettez en oeuvre pour réduire vos émissions. Vous n’aurez qu’à fournir les justificatifs demandés et l’entreprise calculera vos réductions d’émissions.
« Grâce aux preuves que vous fournissez pour justifier vos réductions, nous certifions sur le marché de la compensation volontaire que vos efforts en matière de lutte contre le changement climatique ont bien été efficaces… Et ces réductions sont susceptibles d’intéresser les entreprises ou les structures qui souhaitent compenser leurs propres émissions de CO2 ! Il ne reste plus qu’à les vendre ! », explique la société sur son site Internet.
Dernier coup de pouce en faveur de l’Open source, la résolution du Parlement européen 29 octobre 2015. Approuvée par 342 voix contre 274, avec 29 abstentions, elle réaffirme son opposition à la surveillance électronique de masse des citoyens européens. Son 47e article appelle les institutions de l’Union européenne à migrer systématiquement vers des logiciels ouverts et à introduire l’Open Source.
Le Parlement préconise également « l’introduction d’un critère de sélection ‘open-source’ obligatoire dans toutes les procédures de passation de marchés dans le domaine des TIC à l’avenir, et à la mise à disposition rapide d’outils de cryptage ». Indirectement, cet appel pourrait aussi favoriser leur usage dans les entreprises.
Pour l’April (l’association de promotion du logiciel libre, créée en 1996, est un acteur majeur de la démocratisation et de la diffusion du logiciel libre et des standards ouverts), c’est un « signal fort, explicite, à l’attention de la Commission européenne ».
Précisons qu’il ne faut pas confondre (comme le fait d’ailleurs le Parlement européen dans les différents articles de sa résolution), « logiciel libre » et « Open-source ». Leur acception est proche, mais ils ne défendent pas les mêmes valeurs. Selon la définition de la Free Software Foundation, le « logiciel libre » représente un mouvement social qui met en avant la liberté de l’utilisateur. Ils sont classés de facto à l’UNESCO au patrimoine mondial de l’humanité, section « patrimoine culturel immatériel de l’humanité ». L’« Open-source », qui fait référence à celle de l’Open Source Initiative, s’intéresse plus aux questions pratiques en termes de performance. Avec une licence Open-source, on avantage les éditeurs de logiciels qui disposent ainsi d’un code source réutilisable et revendable à leurs clients, sans « remettre au pot ». À l’inverse, avec une licence libre de type GPL (General Public License), c’est l’utilisateur qui est avantagé : il profite d’une totale liberté et réduit sa dépendance vis-à-vis des fournisseurs. Les logiciels « Open-source » ont une vocation économique : réduction des coûts de développement, amélioration des codes, faciliter les collaborations, diffusions dans les secteurs marchands…
« Cette spécificité a aussi des implications sur les exigences que les entreprises (et les institutions, Ndlr) doivent avoir vis-à-vis des prestations qui leur sont proposées et de la façon dont elles sont réalisées. Elles doivent par exemple exiger que les améliorations, modifications ou corrections apportées à un logiciel libre soient proposées à la communauté qui le porte. Elles doivent également s’assurer que les modifications apportées à un logiciel libre ne les mettent pas dans l’impossibilité de changer de version sans avoir à faire reporter les modifications sur la version suivante », rappelle Philippe Scoffoni sur son blog et Directeur associé chez Open-DSI, une entreprise aidant les associations, collectivités locales, TPE et PME à migrer vers des solutions non propriétaires.
Cet appel européen en faveur de l’Open-source sera-t-il entendu ? Rien n’est moins sûr, car cette résolution n’a aucun caractère contraignant. Le monde du logiciel libre reste donc sur ses gardes. Car ce n’est pas la première fois que les politiques soufflent le chaud et le froid. En septembre 2012, une circulaire du Premier ministre Jean-Marc Ayrault encourageait les administrations à avoir recours aux logiciels libres. Un mois plus tard, la société française Linagora décrochait le plus gros marché public accordé à une PME dans le domaine du support informatique. La direction générale des Finances publiques (DGFIP) lui avait confié le « marché de support à l’usage logiciels libres » du ministère de l’Économie et des Finances pour les 4 prochaines années. Trois ans plus, le gouvernement ne semble plus enclin à encourager l’Open-source. La nouvelle version de l’avant-projet de loi numérique ne contient aucune disposition relative aux logiciels libres. L’exécutif attend justement « un bilan sur l’impact » de la fameuse circulaire Ayrault…
Pour schématiser, les grandes oreilles de la NSA (National Security Agency – Agence nationale de sécurité américaine), et des autres services du renseignement peuvent intercepter toute sorte de données dès lors qu’elles transitent par un « tuyau ».
Pourtant, « l’espionnage généralisé a commencé en 1941 avec le traité UKUSA associant les USA, le Canada, le Royaume-Uni, l’Australie et la Nouvelle-Zélande (les 5 yeux), élargi un peu plus tard à d’autres pays incluant la France. Avant PRISM (actif depuis 2007 et révélé en 2013 par Snowden), plus d’une vingtaine de programmes d’espionnage majeurs ont été mis en œuvre depuis 1945 », rappelle Éric Filiol, Directeur du laboratoire de virologie et de cryptologie opérationnelles (ESIEA Ouest).
Sans devenir paranoïaque, il convient de prendre de bonnes habitudes et d’installer certains logiciels pour limiter les fuites de données sensibles et réduire les risques d’être surveillé, voire espionné. Dans un entretien accordé à The Intercept (site cofondé par le journaliste Glenn Greenwald, à l’origine des premières révélations sur l’écoute de la NSA), Edward Snowden délivre ses conseils pour utiliser Internet et son smartphone de façon plus sûre.
À propos des SMS, le lanceur d’alerte indique qu’il ne faut pas hésiter à chiffrer (d’aucuns parlant à tord de « crypter ») ses SMS car cette parade est simple à utiliser avec une application gratuite comme Signal Private Messenger, fruit de la fusion entre TextSecure et RedPhone, deux applications spécialisées dans le chiffrement respectivement des SMS et des appels mobiles. Disponible gratuitement sous iOS et Android, elle permet d’envoyer différents types de contenus chiffrés (texte, images, vidéos…) entre vos contacts ayant installé cette même application.
En matière de communication, il est également conseillé de délaisser Skype au profit de Jitsi (anciennement SIP Communicator), un logiciel libre de communication instantanée, d’appel audio et vidéo et de partage d’écran. De plus, il permet de chiffrer les communications.
Des données sensibles étant de plus en plus accessibles depuis les smartphones, Snowden recommande également d’utiliser un gestionnaire de mot de passe. À l’instar de KeePassX, un logiciel Open source et multiplate-forme, ce logiciel protège vos différents de mots de passe grâce à un « super mot de passe » que vous aurez créé en mélangeant des lettres, des chiffres et des signes de ponctuation. Ainsi, vous ne retenez qu’un seul mot de passe.
Toujours à propos des informations confidentielles, il est nécessaire de les mettre à l’abri dans un volume chiffré sur votre ordinateur ou une clé USB. Depuis les doutes émis à l’encontre de TrueCrypt, il existe une alternative française, Gostcrypt. Ce projet présente la particularité de s’appuyer sur du chiffrement russe appelé GOST (qui provient de GOsudarstvennyi STandard et qui signifie « standard gouvernemental »).
Toujours à propos de chiffrement, Snowden conseille d’utiliser Thunderbird (au détriment d’Outlook, Gmail, Yahoo…) et son module Enigmail. Ce dernier requiert GnuPG (GNU Privacy Guard) pour ses fonctions cryptographiques, mais il est déjà installé par défaut sur les distributions GNU/Linux.
Cette solution s’appuie sur la cryptographie à double clé. Chaque contact possède deux clés qui sont associées à son adresse email : une clé privée et une clé publique.
La première doit être mise à l’abri des curieux (et être protégée par un mot de passe complexe) et ne pas être communiquée à qui que ce soit, car elle a une double fonction : décrypter les messages reçus et signer ceux qui sont envoyés.
La seconde (la clé publique) peut être communiquée à vos contacts qui pourront ainsi vous adresser des messages que vous serez le seul à pouvoir les lire. Elle permet aussi de vérifier que vous êtes bien l’auteur des messages envoyés.
Enfin, il recommande l’authentification à deux facteurs. Cette solution n’est pas généralisée. Elle est pourtant efficace pour réduire les risques d’usurpation d’identité et de vol de données. Son principe est simple : en plus d’un mot de passe, il faut retaper un code reçu par SMS pour authentifier une identité et ensuite accéder à un compte.
Tous ces conseils s’appuyant sur des logiciels ne sont pas suffisants. « Si vous pensez que la technologie peut résoudre vos problèmes de sécurité alors vous n’avez rien compris aux problèmes ni à la technologie », déclarait l’expert en sécurité Bruce Schneier. La vigilance reste prioritaire.
Pour atteindre les 60 mégawatts (MW), l’appel d’offres porte sur l’ensemble des champs de la micro et petite hydroélectricité. Le premier lot, doté d’une puissance de 25 MW, concerne les installations nouvelles pour une puissance supérieure à 500 kilowatts (kW). Le deuxième lot, doté d’une puissance de 30 MW, concerne les ouvrages existants, mais ne produisant pas encore d’électricité. Les écluses ou les ouvrages d’alimentation en eau potable seront ainsi éligibles s’ils proposent une puissance supérieure à 150 kW. Enfin, le troisième lot de l’appel d’offres concerne les anciens moulins et équipements de petits ouvrages existants laissés à l’abandon. Leur réhabilitation sera éligible s’ils ont une puissance comprise entre 36 et 150 kilowatts (kW). Ce dernier lot est limité à 50 projets.
Le cahier des charges prévoit une durée du contrat est de 20 ans. Les candidatures devront proposer un prix supérieur à 60 €/MWh pour l’ensemble des lots, mais inférieur à 200 €/MWh (lot 1), à 150 €/MWh (lot 2) et à 160 €/MWh (lot 3). Le non-respect de ce prix plancher et de ces plafonds entraînera l’élimination des candidatures.
Le ministère de l’écologie précise que cet appel d’offres vise « un développement de la micro et petite hydroélectricité dans le respect des enjeux environnementaux des milieux aquatiques et de la démarche « éviter, réduire, compenser » ». Les cours d’eau classés en liste 1, c’est-à-dire en très bon état écologique, seront par conséquent exclus de l’appel d’offres pour les nouveaux ouvrages et limités pour les ouvrages existants.
« Des mesures de réduction de l’impact des projets seront prévues », prévient le ministère et « les impacts résiduels des projets devront être compensés par les producteurs ». Pour garantir l’efficacité de cette compensation, « une expérimentation sera lancée, notamment avec la Caisse des dépôts biodiversité, pour identifier des projets de compensation bénéfiques pour les milieux aquatiques », précise également le ministère.
L’appel d’offres est en consultation jusqu’au 13 décembre. La Commission de régulation de l’énergie donnera ensuite son avis, avant le lancement de l’appel d’offres début 2016. Les lauréats ne seront désignés que début 2017.
En pleine préparation de la conférence mondiale sur le climat qui se tiendra à Paris à partir du 7 décembre, l’information est passée presque inaperçue. Dans son rapport annuel, le Bureau national chinois des statistiques a publié des données corrigées qui révèlent que le pays a brulé 17% de charbon en plus par an sur les dix dernières années.
Ajustement
Selon les nouveaux chiffres publiés par l’Administration, la consommation chinoise se serait élevée à respectivement 3,3 et 3,8 milliards de tonnes de charbon en 2010 et 2012. Un écart d’un milliard de tonnes par rapport aux données compilées dans le BP Statistical Review, l’une des références mondiales du secteur. Le décalage, qui remonte au moins à l’année 2000 s’est accentué avec le temps. D’après l’Agence internationale de l’énergie, il n’était alors « que » de 400 millions de tonnes… Il apparait que la différence est en grande partie due à la sous-estimation de l’industrie lourde (ciment, acier, produits chimiques), et dans une moindre mesure du parc électrique. La houille produit 70% de l’énergie consommée dans l’Empire du Milieu, ainsi, même une légère variation représente des volumes considérables. Pour 2012, l’écart de consommation ne représente pas moins de 70% de la demande annuelle américaine !
De fait, il ne fait aucun doute que les émissions de CO2 qui y sont liés ont été sous-estimées elles aussi. Le charbon est de loin le combustible fossile émettant le plus de gaz à effet de serre (GES). Il est de notoriété publique que les statistiques officielles chinoises (mais pas seulement) sont à prendre avec méfiance. De nombreuses fermetures « officielles » de mines n’ont, dans les faits, jamais été suivies des actes, leurs productions n’étant simplement plus comptabilisées dans les registres nationaux. Mais ces corrections interrogent sur la véracité d’autres variables fondamentales de l’équation climatique (autres sources d’énergies, agriculture, transport, etc). Une problématique qui dépasse les frontières de la Chine. Ainsi, l’hebdomadaire économique allemand WirtschaftsWoche a annoncé récemment que la Commission européenne aurait été informée que Volkswagen trichait sur ses émissions de particules dès 2011.
Stratégie ?
On peut également s’interroger sur le timing adopté par Pékin dans cette affaire. La révision de la consommation charbonnière chinoise intervient juste avant la COP21 à Paris et de possibles engagements que pourrait prendre la Chine à cette occasion. François Hollande s’est déplacé au début du mois à Pékin pour s’assurer que son homologue était décidé à avancer sur le dossier « Climat ». Il faut dire que la bonne volonté de la Chine est, au même titre que les Etats-Unis, indispensable pour obtenir un accord juridiquement contraignant. Interrogé par le New York Times, qui a révélé l’affaire, Yang Fuqiang, conseiller au Natural Resources Defence Council, explique : « Lorsque le Président Xi Jinping a proposé que les émissions chinoises plafonnent en 2030, il n’a pas précisé à quel niveau elles seraient. Ces révisions peuvent signifier que le pic d’émission sera plus élevé que prévu ». Réévaluer la consommation de charbon aurait ainsi été un bon moyen de donner davantage de marge au pays sans pour autant revenir sur sa proposition.
Outre la portée politique, ce réajustement obligera sans doute les climatologues à revoir leurs études d’impact sur la Chine. Un exercice délicat car plusieurs variables entrent en jeu : nature du charbon, procédé de combustion, capacité de captation des forêts et océans, etc. Déjà les experts divergent quant à l’impact estimé sur les émissions de GES. Dans ces conditions, il est légitime de se demander si l’objectif d’un réchauffement climatique limité à 2 C° est encore crédible.
L’énergie étant un vaste domaine qui peut être abordé sous des angles multiples, l’approche retenue est de commencer par donner une base technique sur l’énergie, et donc l’offre d’énergie, dépendante des ressources et des filières technologiques disponibles, avant de s’intéresser à la demande, c’est-à-dire aux dimensions macro et socio-économiques, puis d’aborder les grandes questions mondiales relatives à l’énergie, et enfin de terminer par l’étude des principales questions qui se posent aujourd’hui dans ce secteur.
Ce MOOC cherche à fournir une base de réflexion sur l’ensemble des problèmes énergétiques. A la fin de ce cours, vous aurez étudié les principales problématiques, présentes et futures, existant dans le domaine de l’énergie.
Ce MOOC vous propose, tout au long des 6 semaines de formation, des vidéos pédagogiques expliquant les notions essentielles, des exercices d’auto-évaluation afin de vérifier votre compréhension de ces notions, ainsi que des exercices guidés pas à pas, afin de vous aider à collecter et traiter les données relatives à l’énergie.
Fin des inscriptions
07 mars 2016
Début du Cours
01 févr 2016
Fin des cours
07 mars 2016
Effort estimé
4 h/semaine
Modalités pédagogiques
Deux modalités de suivi de ce cours vous sont proposées :
un parcours individuel:
Description : ce parcours vous offre la possibilité de suivre le MOOC P.E.G de manière individuelle. Dans ce dernier, vous serez amené à consulter différentes ressources au fil de ces six semaines de formation, afin de vous initier aux notions fondamentales de l’énergétique. Vous pourrez, également, contrôler régulièrement l’acquisition de vos connaissances, en effectuant les exercices d’auto-évaluation interactifs, qui accompagnent chacune de ces ressources.
Public concerné : les personnes disposant d’un temps limité à consacrer au MOOC.
Charge de travail : 4h00 hebdo
un parcours collaboratif :
Description : ce parcours vous offre la possibilité de suivre le MOOC P.E.G de manière collaborative. Ainsi, au-delà de la simple consultation des ressources et de la réalisation des exercices d’auto-évaluation, cette modalité de suivi vous permet de co-construire votre savoir avec les autres participants du MOOC, par le biais de débats et d’échanges sur des points précis du cours, dans les forums. En choisissant ce parcours, vous avez la possibilité d’intégrer la communauté d’apprentissage du MOOC, et de créer votre réseau autour des problématiques de l’énergie.
Public concerné : les personnes désireuses de discuter, débattre, partager connaissances et points de vue argumentés, au sujet des problèmes énergétiques. Que vous soyez professionnels du secteurs, étudiants ou simple curieux, venez vous exprimer sur les espaces d’échange disponibles dans ce MOOC.
Charge de travail : 5h00 hebdo
PUBLIC ET PRÉREQUIS
Professionnels du secteur désireux de mettre à jour leurs savoirs, étudiants ou simple curieux, ce MOOC s’adresse à tous. Certaines ressources sont cependant plus accessibles à ceux qui possèdent un baccalauréat scientifique ou en Sciences Économiques.
LES ENSEIGNANTS
Renaud Gicquel
Professeur à MINES ParisTech où il a effectué l’essentiel de sa carrière, il a été co-fondateur de l’Observatoire Méditerranéen de l’Énergie, et chef de cabinet du Secrétaire général de la Conférence des Nations Unies sur les sources d’énergie nouvelles et renouvelables d’avril 1980 à octobre 1981 à New York.
PLAN ET PROGRAMME DU COURS
Le MOOC se déroule sur 6 semaines
Semaine 1/A : Présentation générale
Semaine 1/B : Les Filières énergétiques
Semaine 2 : Liens entre énergie et économie
Semaine 3 : Les aspects géopolitiques
Semaine 4 : Les politiques énergétiques
Semaine 5 : Les aspects aspects environnementaux
Semaine 6 : Perspectives
LECTURES RECOMMANDÉES
Afin de vous préparez à suivre ce cours, nous vous invitons à consulter les pages dédiées à ce sujet dans le Portail Thermoptim-UNIT
ÉVALUATION
Lors de la sixième semaine du MOOC, vous pourrez effectuer un quiz final pour évaluer les acquis de votre formation. Un taux de réussite de 70 % à ce quiz vous permettra d’obtenir une attestation de suivi avec succès.
PARTENAIRES
Les différents partenaires associés au MOOC Problèmes Énergétiques Globaux sont les suivants :
PARTENAIRES INSTITUTIONNELS
UNIT associe tous les acteurs publics et privés de la formation supérieure en Sciences de l’Ingénieur et Technologie désireux de partager des documents numériques existants, des outils, des expériences, et de co-piloter des projets basés sur les TICE (Technologies de l’Information et de la Communication pour l’Enseignement).
Université de Recherche Paris Sciences et Lettres (PSL)
L’université de recherche Paris Sciences et Lettres rassemble 21 établissements prestigieux, unis par une volonté commune de créer une entité comparable, par ses performances, aux plus grandes universités mondiales. D’une exceptionnelle diversité, ces institutions partagent une culture commune, qui repose sur l’excellence scientifique et le très fort potentiel de leurs étudiants.
Lauréat de l’Initiative d’Excellence (IDEX), PSL est la réponse institutionnelle à une ambition collective : susciter des convergences disciplinaires, encourager et l’interdisciplinarité , dynamiser l’innovation et la créativité, attirer les meilleurs talents, préparer les étudiants à relever les grands défis de demain, et faire de la recherche un véritable moteur de croissance économique et d’innovation sociale.
Fondation UNIT
UNIT, l’Université Numérique Ingénierie et Technologie, est l’une des Universités Numériques Thématiques nationales (UNT) créées à l’initiative de Grandes Ecoles, d’Universités et du Ministère chargé de l’Enseignement Supérieur.
Les effets néfastes des pesticides et herbicides sur l’homme et l’environnement ont été largement étudiés et différentes règlementations tendent à en limiter l’usage. Morten Stigaard Laursen et le département de robotique de l’Université du Sud Danemark (SDU, Syddansk Universitet) ont développé une nouvelle technique qui permettrait de réduire considérablement l’usage des pesticides dans le monde agricole.
Le système consiste en des caméras installées au niveau des pulvérisateurs de pesticides du tracteur. Un algorithme créé par Morten Stigaard Laursen analyse en temps réel les images acquises par les caméras et permet d’identifier si la zone couverte correspond à une mauvaise herbe, à un plant de culture ou à de la terre. La pulvérisation de pesticides est alors adaptée ou stoppée lorsqu’elle n’est pas nécessaire. Cette méthode a permis, selon le type de terrain et le taux de mauvaises herbes présentes, de réduire la consommation de pesticide de 70 à 95%.
Ce genre de technologies existe déjà sur le marché. Cependant, l’algorithme de Morten Stigaard Laursen améliore la détection des mauvaises herbes et a permis de résoudre un problème auquel les systèmes existant ne font pas face, à savoir l’identification des plants lorsque les feuilles se superposent.
Système d’identification de la zone couverte installé au niveau des pulvérisateurs d’un tracteur – Crédits : Ingeniøren A/S,
Bien que ce nouveau système représente une avancée, il est peu probable de le retrouver prochainement sur le marché. Des travaux sont encore nécessaires pour son amélioration sur certains points. La caméra et l’algorithme doivent par exemple être capables d’identifier les types de zones couvertes à une vitesse de passage du tracteur de 25 km/h. De plus, selon les propos de Morten Stigaard Laursen rapportés dans Ingeniøren, le secteur agricole se trouvant dans une situation économique difficile au Danemark, les investissements pour la recherche ne seront pas suffisants ce qui compliquera le développement du projet.
PSR J0540-6919 est exceptionnel à plus d’un titre : c’est à la fois le premier pulsar gamma détecté dans une autre galaxie, et celui qui émet le plus de rayons gamma1. Il est aussi remarquablement jeune : environ 1000 ans, alors que la plupart des pulsars connus sont âgés d’au moins 10 000 ans et jusqu’à des centaines de millions d’années.
Les pulsars, ce sont ces étoiles à neutrons qui « clignotent » tels des phares, vestiges de certaines étoiles massives après leur explosion en supernova. La rotation rapide de ces astres dotés d’un fort champ magnétique induit la création de rayonnements, par des mécanismes encore mal compris. Les faisceaux d’ondes radio, de lumière visible, de rayons X ou encore de rayons gamma des pulsars sont repérés par les télescopes de manière périodique quand ils passent dans le champ de vue de l’instrument, à la faveur de la rotation de l’étoile.
On connait plus de 2 500 pulsars, détectés principalement en ondes radio par des radiotélescopes au sol. Certains pulsars émettent également des rayons gamma et le Large Area Telescope à bord du satellite Fermi de la NASA en a découvert 160, dans notre galaxie ou dans des amas globulaires2 proches. Aujourd’hui, pour la première fois, cet instrument a permis de découvrir des signaux gamma provenant d’un pulsar appartenant à une autre galaxie : le Grand Nuage de Magellan, une galaxie naine satellite de la Voie lactée.
Il a fallu pour cela cumuler les données acquises pendant 75 mois depuis la mise en service du satellite, en 2008. En effet, le signal venu d’une région située à 163 000 années-lumière est faible : il faut collecter suffisamment de photons pour le reconstituer ; puis classer ces photons par ordre d’arrivée pour déterminer si la luminosité varie. Une émission gamma a ainsi été détectée en provenance de PSR J0540-6919, un pulsar qui avait déjà été observé en ondes radio, en lumière visible et en rayons X. Et ce signal présente des pulsations toutes les 50 millisecondes, exactement la période de rotation de l’étoile ! Cela prouve de manière incontestable que cet objet en est la source. PSR J0540-6919 devient ainsi le premier pulsar gamma extragalactique connu.
La détection d’un pulsar situé à une telle distance a aussi été rendue possible par son extraordinaire puissance : sa rotation rapide libère une puissance supérieure à 1031 watt, soit presque 100 000 fois la luminosité du Soleil. Dans le domaine gamma, PSR J0540-6919 est le pulsar gamma le plus brillant connu à ce jour, 20 fois plus lumineux que le pulsar du Crabe, pourtant le plus lumineux en rayons gamma connu jusqu’alors.
Les rayons gamma constituant l’essentiel du rayonnement des jeunes pulsars puissants, ces nouvelles observations devraient permettre d’en apprendre plus sur les mécanismes à l’œuvre dans leur magnétosphère, à l’origine des rayonnements de haute énergie. En attendant, ces observations posent une autre question… sur les rayons cosmiques. PSR J0540-6919 est situé dans la nébuleuse de la Tarentule, une région du Grand Nuage de Magellan très riche en étoiles massives, et on pensait jusqu’ici que l’essentiel de son rayonnement gamma provenait des rayons cosmiques accélérés par l’explosion de ces étoiles massives, et non des pulsars. Une énigme de plus pour les scientifiques, qui devront comprendre pourquoi la contribution des rayons cosmiques est bien plus faible que prévu.
Ces travaux ont notamment reçu le soutien financier du CNES et du CNRS.
La collaboration Fermi LAT regroupe des scientifiques de 12 pays. Les laboratoires français impliqués dans la collaboration sont :
– le laboratoire Astrophysique, interprétation – modélisation (CNRS/Université Paris Diderot/CEA) ;
– le Laboratoire Univers et particules de Montpellier (CNRS/Université de Montpellier) ;
– le Laboratoire Leprince-Ringuet (CNRS/École polytechnique) ;
– le Centre d’études nucléaires de Bordeaux Gradignan (CNRS/Université de Bordeaux) ;
– le Laboratoire de physique et chimie de l’environnement et de l’espace (CNRS/Université d’Orléans) ;
– la Station de radioastronomie de Nançay (CNRS/Observatoire de Paris/Université d’Orléans) ;
– l’Institut de recherche en astrophysique et planétologie (CNRS/Université Toulouse III – Paul Sabatier).
Notes :
1 Les rayons gamma sont les rayonnements les plus énergétiques. Typiquement, le rayonnement gamma observé par le Large Area Telescope de Fermi est un milliard de fois plus énergétique que la lumière visible.
2 Un amas globulaire est une concentration très dense d’étoiles. Certains amas globulaires sont situés en orbite autour de la Voie lactée.
Références :
An extremely bright gamma-ray pulsar in the Large Magellanic Cloud, The Fermi LAT collaboration. Science, 13 novembre 2015. DOI : 10.1126/science.aac7400
La Lune est donc dans le collimateur de l’ESA. Le message a été lancé par son nouveau directeur général Johann-Dietrich Woerner, lors du 66e Congrès international d’astronautique, et il semble avoir été bien reçu. D’autant plus que la mission de la station spatiale internationale (ISS) prendra bientôt fin : aux alentours de 2024 ! La suite se profile, donc, et peut-être prendra-t-elle l’apparence d’un village lunaire avant que les scientifiques ne s’attellent à la conquête de Mars !
Et de village parlons-en…
Celui qu’aimerait bâtir M. Woerner n’est évidemment pas du genre de ceux que l’on peut trouver sur Terre. Il s’agirait davantage d’un nouveau centre de recherche, particulièrement intéressant du fait de son éloignement de la Terre et donc stratégique pour sonder encore plus profondément diverses zones de l’Univers. La face cachée de la Lune serait un lieu de travail attrayant car elle permettrait de protéger des radiations atmosphériques de la Terre le télescope que l’ESA escompterait installer pour parcourir l’espace.
Le fruit d’une coopération internationale
L’ESA n’oublie pas d’autres acteurs tel que la Russie ou la Chine pour l’aider dans sa mission. Elle souhaite que l’effort soit mondial, et pas uniquement pour les financements mais surtout pour réunir les compétences. Dans la vision du directeur de l’Agence Européenne, la base lunaire doit être une sorte de lieu accueillant les activités scientifiques de tous les pays. C’est donc un projet qu’il voudrait fédérateur, surtout devant l’imminence de l’arrêt de l’ISS.
Au-delà du « village lunaire », se préparer pour Mars
C’est un fait établi, les États-Unis (la Nasa, SpaceX entre autres) ambitionnent de se rendre sur la planète rouge. Mais pour le dirigeant de l’ESA, ce n’est toujours pas réalisable à l’heure actuelle. Mieux vaut se préparer à un voyage de moins grande distance. Et la Lune fait office de candidat idéal pour cet entraînement. Réussir à s’y installer, y mener des activités scientifiques, y vivre au quotidien, serait dans un premier temps un bon test, une sorte d’expérience permettant de découvrir les inconvénients qu’il y aurait à vivre sur Mars. Bien sûr, les robots participeraient grandement à la réalisation de ce village.
Ce n’est encore qu’un projet, une idée, ou en quelque sorte une impulsion lancée par le directeur général de l’ESA. Il est donc trop tôt pour savoir quelles sont ses chances d’aboutir un jour, mais on attend avec impatience de nouvelles informations.
Utiliser la lumière pour stocker des données de manière permanente : c’est l’idée de l’équipe de chercheurs de Harish Bhaskaran, expert en nanoingénierie de l’université d’Oxford. Les chercheurs travaillent sur une puce photonique, faite d’un matériau présent dans les DVD réinscriptibles, et qui permettrait de lutter contre la perte de mémoire, d’améliorer la puissance des CPU, et d’augmenter la capacité de stockage.
Concrètement, la puce hypothétique utiliserait des photons plutôt que des électrons pour stocker des données de manière permanente. Actuellement, les puces électroniques utilisées quotidiennement sont rapides mais restent très lentes comparées à une potentielle puce photonique.
Tout comme un ordinateur quantique démultiplierait la puissance de calcul, une puce utilisant les photons et non les électrons permettrait de déplacer les données à une vitesse très rapide. En effet, les électrons “’s’entrechoquent” quand ils se déplacent dans les composants d’une puce électronique, ralentissant le transfert de données, et chauffant le matériel. Or, les photons, qui voyagent à la vitesse de la lumière, ne s’entrechoqueraient pas, et le transfert serait quasi-instantané. Ce qui rendrait la puce presque immortelle.
Ecrire et lire des données simultanément
Les chercheurs menés par Harish Bhaskaran utilisent le GST (germanium-antimony-tellurium), une fine couche d’alliage de germanium, d’antimoine et de tellure, qui se trouve dans les CD et DVD réinscriptibles. Bombardé par un laser, comme le font les lecteurs de CD/DVD (mais avec une faible intensité), le film GST change sa structure atomique, absorbant puis reflétant alors la lumière.
Les scientifiques d’Oxford ont tenté d’utiliser le GST pour stocker et lire des données, de manière permanente. Pour cela, ils ont équipé une puce électronique standard d’un appareil de nitrure de silicium (un guide à ondes), qui canalise et permet de transférer des pulsations de lumière. Puis ils ont placé un film GST, d’une taille nano, au dessus de l’appareil.
En maintenant le champ électromagnétique de la lumière à une intensité modérée pour éviter de “faire fondre” le film GST, et en envoyant de faibles pulsations de lumière via le “guide à ondes”, les scientifiques ont réussi à écrire des données sur la puce, et à les lire. En envoyant plusieurs longueurs d’onde de lumière en même temps à travers le guide à ondes - la lumière se diffusant partout en même temps -, les chercheurs ont même réussi à écrire et à lire des données simultanément. Exactement comme un ordinateur quantique serait capable d’effectuer plusieurs calculs en même temps.
Dans la revue Nature Photonics, Harish Bhaskaran explique qu’une puce photonique permettrait “d’augmenter drastiquement les données qu’on peut stocker sur un support”. A supposer que les scientifiques réussissent à “intégrer une mémoire photonique avancée avec une logique et des interconnexions photoniques”, les puces “pourraient être plus rapides de 50 à 100 fois par rapport à nos processeurs actuels”, assure le chercheur.