Techniques de l’ingénieur :Après un Bac S mention TB tu te diriges naturellement vers une prépa scientifique. Mais tu n’exerceras jamais le diplôme d’ingénieur…
Sylvain : J’ai fait math sup/math spé au Lycée Thiers à Marseille. A l’époque je ne savais pas trop quoi faire et je ne me sentais pas à l’aise avec mes camarades de prépa. J’ai donc préféré me présenter à un concours parallèle orienté école de commerce. J’ai pu rentrer à Télécom Ecole de management, à Evry, un compromis entre une école d’ingénieur et une école de commerce.
T. I. :Comment as-tu découvert le poker ?
S. L. : J’ai commencé à jouer en 2006. Un ami avait monté une association pour animer des tournois. Il avait d’ailleurs noué un partenariat avec Winamax qui venait à peine de se créer. J’ai tout de suite accroché. J’ai un profil de gamer. Je faisais partie d’une des meilleures équipes française du jeu Counter Strike, idem pour le jeu de stratégie Age of empires, je me suis littéralement pris au jeu du poker. J’ai commencé à jouer sur internet, à consulter des forums, à lire des livres spécialisés. Très vite, j’ai gagné quelques centaines d’euros par mois.
T.I. :Tes gains ont-ils vite grimpés ?
S.L. : Oui. Au bout de 2-3 mois j’arrivais à gagner quelques milliers mensuels. Des sommes qui ont encore augmenté au cours du temps.
T.I. : La fin de tes études arrive. Ingénierie ou poker, il faut choisir…
S.L. : Après 6 mois de césure à Londres grâce au programme Erasmus, j’achève un Master 2 Marketing Stratégie à Paris Dauphine en 2010. Il n’était pas toujours facile de concilier mes études avec le poker. Je m’orientais vers un job salarié, du consulting. Mais mon salaire n’aurait jamais égalé mes gains au poker. De plus, devenir joueur professionnel me permettait de vivre de ma passion tout en étant libre.
T.I. : Ta réussite te donne raison. Tu as commencé par des parties en ligne de cash-game. Comment as-tu basculé sur du jeu en live ?
S.L. : C’était à l’été 2013. J’ai décidé de jouer les World Series of poker à Vegas. Il s’agit d’un évènement qui dure 2 mois et regroupe une soixantaine de tournois. C’est l’évènement le plus prestigieux du monde du poker. C’est vrai que je viens du cash-game, mais je savais que le niveau des tournois était un peu inférieur, et même si c’est un format que je travaillais peu, j’ai voulu tenter ma chance. J’ai atteint la table finale ! J’ai fait partie des 9 derniers joueurs sur près de 6400 engagés. C’est comme ça que je me suis fait repérer. Les plus gros sites de poker m’ont fait des propositions et j’ai choisi d’intégrer la team Winamax. Cela m’a permis de m’entraîner durant les 2 mois séparant ma qualification à la table finale et l’ultime partie.
T.I. : Ton travail a porté ses fruits puisque tu as terminé 4ème, empochant 2 792 533$. Quel est ton secret ?
S. L. : En intégrant l’équipe Winamax j’ai pu bénéficier du coaching de Davidi, un grand nom du poker. Cela m’a permis de progresser rapidement. J’ai aussi beaucoup travaillé les maths !
T.I. : Le poker ne serait qu’une affaire de calcul ?
S.L. : Effectivement, il y a beaucoup de calcul de probabilités. Pour nous entraîner nous utilisons des logiciels qui calculent les mains probables de l’adversaire pour aboutir à un calcul d’équité, c’est-à-dire notre pourcentage de chance de gagner. Ces outils d’aide à la décision nous permettent de déterminer la stratégie optimale et de savoir, selon la configuration, si l’on doit bluffer, miser ou checker (ndlr : passer) Il existe des softs spécialisés dans l’analyse de situations de table finale. Ce sont des situations bien particulières avec des paliers de gains très importants. Il faut toujours viser la 1ère place, les décisions ne sont pas les mêmes. Au final, c’est un jeu de situation.
T.I. : N’y a-t-il pas une dimension humaine ?
S. L. : Si bien sûr. On dispose d’informations sur les joueurs adverses, leur façon d’aborder telle ou telle situation. Cela nous oriente sur le fait de devoir suivre la stratégie optimale ou pas. On va capitaliser sur les erreurs adverses. Dans chaque situation tu as une décision optimale. Tu construis un arbre de décisions, parfois complexe. Mais tu n’es pas obligé de le suivre…
Le vieillissement, autrement appelé sénescence, se manifeste par l’augmentation, avec l’âge, de la probabilité de mourir. En France, la mortalité est minimale pendant l’enfance, puis, à partir d’environ trente ans, elle augmente avec l’âge et plus on vieillit, plus cette augmentation est rapide. Elle est en fait exponentielle : le risque de mourir double en moyenne tous les 9 ans. Ainsi, une personne âgée de 80 ans a 45 fois plus de « chances » de mourir pendant l’année qu’une personne de 40 ans, et plus de 600 fois plus qu’un enfant de 10 ans.
De précédentes études montrent aussi que l’âge à partir duquel la mortalité commence à augmenter et sa vitesse d’augmentation varient fortement entre les espèces. Par exemple, les chimpanzés commencent à vieillir plus tôt que les Hommes mais relativement plus lentement. Ces différences entre espèces existent-elles au sein d’une seule et même espèce ? En d’autres termes, commençons-nous tous à vieillir au même âge et vieillissons nous tous à la même vitesse ? C’est ce qu’a voulu étudier l’équipe de scientifiques de l’iEES Paris.
Afin d’observer comment la mortalité augmente au cours de la vie et si elle varie en fonction des individus, les chercheurs ont travaillé avec une espèce de Collembole. Ce petit insecte du sol a la particularité de pouvoir se cloner naturellement. Ils ont ainsi pu comparer des milliers de copies clonales provenant de deux individus génétiquement différents. En les élevant dans un environnement semblable, les scientifiques ont pu, en quelque sorte, faire vivre des milliers de fois la même vie aux deux individus. Cela leur a permis de mesurer des milliers de fois l’âge de leur mort pour pouvoir déterminer précisément leur trajectoire de mortalité.
Les résultats montrent des différences marquées entre les individus sur leur espérance de vie, leur mortalité quand ils sont jeunes, l’âge à partir duquel ils commencent à vieillir ou encore la vitesse à laquelle ils vieillissent. Les chercheurs ont ainsi découvert que des individus d’une même espèce peuvent vieillir de manière fondamentalement différente.
Les êtres humains ont-ils tous le même risque de mourir pendant l’enfance ? Commencent-ils tous à vieillir en même temps et vieillissent-ils tous à la même vitesse ? Difficile de répondre à ces questions car, l’incapacité de l’être humain à se cloner, rend impossible la mesure du taux de mortalité d’un individu en particulier… De plus, les différences d’environnement, d’habitats ou encore de mode de vie sont autant de facteurs qu’il faudrait prendre en compte. En comparaison, si les collemboles avaient la même espérance de vie que les Hommes en France, cela signifierait que le vieillissement pourrait démarrer vers 20 ans pour certains individus et après 100 ans pour d’autres ou aller deux fois plus vite chez certaines personnes.
Cette étude démontre ainsi que le vieillissement est un phénomène complexe et multidimensionnel qui touche les individus d’une même espèce ou d’espèces différentes de manière singulière. Cette étude souligne aussi que l’utilisation d’indicateurs démographiques simples tels que l’espérance de vie ne dit que peu de choses sur le processus de vieillissement et son évolution.
C’est le nombre d’entreprises en France. Un chiffre en constante augmentation.
364 904
Créations d’entreprise en 2014, soit une progression de 2%.
99.8 %
C’est la proportion de PME/TPE. Elles sont 3 118 863 et représentent l’imposante majorité. La France compte moins de 5000 ETI (Entreprise de taille intermédiaire) et seulement 243 GE (grandes entreprises).
110 768
C’est le nombre de sociétés créées, les autres créations sont des entreprises individuelles.
78 %
Des français comptent sur les PME/TPE pour relancer l’économie !
Confiance en hausse
Le moral est là. Pour le premier semestre 2015 la confiance des patrons de PME/TPE et d’ETI est à 73% contre 64% le trimestre précédent.
30 %
Des français disent souhaiter créer ou reprendre une entreprise un jour. Fini la volonté de devenir fonctionnaire, désormais ce sont les entreprises qui font rêver.
Etre libre
51% des français déclarant vouloir entreprendre sont motivés par la quête de liberté. La deuxième motivation concerne l’épanouissement personnel pour 45% d’entre eux, puis l’envie de gagner de l’argent pour 32%.
38 %
C’est le pourcentage de femmes créatrices d’entreprises individuelles. Si c’est encore une minorité, cela pourrait bientôt changer. En effet, 5 millions de françaises se disent prêtes à se lancer.
50 %
C’est la proportion des 18-24 ans qui ont envie d’entreprendre (sous réserve d’en avoir la possibilité). C’est bien plus que les autres catégories de français puisque « seuls » 34% des français partagent cette ambition.
Prêts bancaires
Parmi les sources de financement envisagées pour lancer son entreprise, 41% des futurs patrons pensent recourir à un ou plusieurs prêts bancaires. C’est moins que l’utilisation de fonds propres envisagé par 45% des personnes concernées. Viennent ensuite les aides publiques (35%), le soutien des proches et enfin le recours à un fonds de capital investissement.
Par Audrey Loubens
Source : baromètre OpinionWay-Banque Palatine et INSEE
Les imprimantes 3D n’ont qu’à bien se tenir si elles ne veulent pas être reléguées au rang d’antiquité. La relève approche. Elle porte un nom : la Multifab. Une imprimante 3D nouvelle génération capable de gérer jusqu’à 10 matériaux pour une même impression quand ses concurrentes, dans le meilleur des cas, n’en utilisent que trois en même temps.
Pour l’heure à l’état de prototype, la Multifab, développée par le Laboratoire d’informatique et d’intelligence artificielle du MIT, exhibe donc de belles perspectives pour l’avenir de l’impression 3D. Elle serait en mesure d’imprimer des objets complexes avec une précision de l’ordre de 40 microns et d’assembler les différentes parties desdits objets. Chose qu’il faut faire manuellement pour le moment.
Les chercheurs du MIT l’ont doté d’un scanner afin d’assurer la visualisation du process en temps réel. Cela permet d’arrêter à tout moment la progression de l’impression en cas de bévue, de connaître très précisément l’état d’avancement de fabrication de l’objet que l’on veut concevoir, mais aussi, très important, de recalibrer au fur et à mesure la tête d’impression. La marge d’erreur est ainsi considérablement amoindrie.
La fabrication de la Multifab a nécessité 7 000 dollars de budget à l’équipe du Laboratoire du MIT. Ce qui fait d’elle une imprimante presque « low cost ». Cette somme est encourageante si l’on peut dire, en comparaison des plus de 200 000 dollars de l’Object500 Connex3 de l’entreprise Stratasys. Ce qui, convenons-en, s’avère douloureux, même si leur imprimante est, comme le prétend Stratasys, « l’imprimante 3D multimatériaux la plus polyvalente au monde ».
L’attente va sans doute sembler bien longue avant la commercialisation de ce petit bijou, en espérant qu’elle ait lieu un jour.
Quatre forces fondamentales régissent notre monde visible : la gravitation, l’interaction électromagnétique, l’interaction faible, responsable de la radioactivité, et l’interaction forte au cœur de la matière. La force nucléaire, dérivée de l’interaction forte, lie les nucléons (protons et neutrons) entre eux au sein du noyau des atomes. Elle est à l’origine de phénomènes quantiques complexes et de la fabrication des atomes, des plus légers aux plus lourds, dans les étoiles. Certains noyaux, pour des nombres spécifiques de neutrons et protons, sont particulièrement stables par rapport aux autres. Les physiciens parlent alors de ‘noyaux magiques’. Ils cherchent à comprendre les mécanismes responsables de cette stabilité relative et une description universelle des noyaux reste un défi pour les théories modernes.
Un programme d’excellence européen et un accélérateur japonais unique au monde
Pour rechercher des éléments de réponse à ce défi, le système Minos, un instrument scientifique a été construit pour effectuer la spectroscopie des noyaux instables, c’est-à-dire mesurer leurs niveaux d’énergie. Il est opérationnel depuis 2014 auprès de l’accélérateur Radioactive Isotope Beam Factory (RIBF) de l’institut de recherche japonais Nishina Center de Riken, la machine la plus performante au monde pour produire des noyaux riches en neutrons et observer des noyaux qui n’avaient encore jamais été étudiés.
Lever le mystère des nombres magiques
Au terme de cinq ans de développement technique au CEA et d’analyse de la première campagne expérimentale, l’équipe franco-japonaise vient de publier ses premiers résultats. La toute première expérience a permis d’étudier les noyaux de chrome et de fer les plus riches en neutrons accessibles à ce jour. Ces mesures sont publiées dans Physical Review Letters et questionnent le caractère magique de N=50 (nombre de neutrons) pour les noyaux riches en neutrons de cette région. Minos va continuer à être utilisé par d’autres expériences et la moisson de résultats ne fait que commencer. En particulier, il contribuera à élucider les mystères des nombres magiques pour les noyaux instables et à améliorer notre compréhension et modélisation du noyau atomique. 2/2
La participation française
Conçu et mis au point par une équipe de l’Institut de recherche sur les lois fondamentales de l’Univers (CEA Irfu), Minos est financé par le European Research Council (ERC), le programme d’excellence scientifique de l’Union européenne. L’ERC est la première agence de financement pan-européenne pour une « recherche à la frontière de la connaissance ». Initié en 2007, l’ERC constitue un des piliers du programme Horizon 2020. Les expériences ont été réalisées par les équipes de l’Irfu et de l’Institut de physique nucléaire d’Orsay (IPNO, CNRS/Université Paris-Sud). Les calculs théoriques ont été réalisés à l’Institut pluridisciplinaire Hubert Curien (IPHC, CNRS/Université de Strasbourg) et leur interprétation a impliqué l’IPHC et l’Irfu.
A propos du modèle en couches
Dans le noyau, la structure nucléaire est régie par l’interaction nucléaire entre les nucléons et dépend notamment des nombres de protons et de neutrons. Un modèle de structure nucléaire dit ‘en couches’ a été mis au point dans les années 40-50, grâce à l’étude des noyaux stables. Dans ce modèle, les nucléons sont rangés sur des niveaux d’énergie bien définis (appelés orbitales) de façon analogue aux orbitales des électrons dans le modèle atomique. Pour certaines combinaisons de nombres de neutrons et protons, un noyau est particulièrement stable en comparaison de ses voisins lorsque des ensembles d’orbitales (les couches) sont entièrement remplies. Il est alors plus difficile à exciter et on parle dans ce cas de noyaux ‘magiques’. Le modèle en couches traditionnel établi avec les noyaux stables est remis en cause lorsqu’on étudie non plus les noyaux stables mais les noyaux radioactifs, aussi appelés ‘noyaux instables’. De fait, les nombres magiques de protons et neutrons ne sont pas les mêmes pour les noyaux stables que pour les noyaux instables.
Référence : Extension of the N = 40 Island of Inversion towards N = 50: Spectroscopy of 66Cr, 70,72Fe, C. Santamaria et al., Physical Review Letters, 3 Novembre 2015. volume 115, eid 192501, doi 10.1103/PhysRevLett.115.192501.
« Après un examen complet du dossier, y compris une analyse approfondie menée par le Département d’Etat, j’ai décidé que l’intérêt national des États-Unis serait mieux servi en refusant à TransCanada un permis présidentiel pour le pipeline Keystone XL ». C’est par ces mots prudents et bien choisis que John Kerry, secrétaire d’Etat américain et ancien candidat à la présidence, a annoncé la nouvelle avant de dérouler l’argumentaire présidentiel. Car si Barack Obama ne l’a pas annoncé en personne, il s’est fortement investi dans ce dossier qui le poursuit depuis le début de sa première présidence.
Enjeux
Keystone XL est un projet de pipeline géant reliant sur 1 900 km (dont 1 400 aux Etats-Unis) les sites d’extraction de sables bitumineux de l’Alberta (Canada) vers les raffineries texanes du golfe du Mexique. Cela revient à traverser les Etats-Unis du nord au sud sur six états. Il répond à un besoin canadien de traiter son pétrole lourd (nécessitant des processus de raffinage plus complexes) dont l’exploitation s’est accrue ces dernières années. Lancé en 2008 par le consortium TransCanada, il représente en fait une augmentation de capacité d’un oléoduc existant mais totalement congestionné par la hausse de la production canadienne. A pleine capacité, Keystone XL a pour objectif d’acheminer 830 000 barils de brut par jour.
Si les volumes sont impressionnants, les projets d’infrastructures énergétiques entre le Canada et les Etats-Unis ne sont en revanche pas inédits. Historiquement, le grand frère américain a toujours absorbé les excédents de production ainsi que 98% des exportations du pays. Mais la mise en exploitation massive des pétroles et gaz de schiste sur les terres de l’Oncle Sam a totalement changé la donne. Les Etats-Unis, qui ont une longue histoire pétrolière et une filière dédiée, sont devenus en quelques années le premier producteur du monde, devant l’Arabie Saoudite. Le marché et les infrastructures américaines ont rapidement été inondés de gaz et de pétrole, rendant les excédants canadiens moins désirables et surtout difficilement transportables. C’est pourquoi, faute de conduites suffisantes pour exporter le brut extra-lourd, les compagnies canadiennes ont eu recours de plus en plus au transport ferroviaire. Mais en juillet 2013, un convoi a déraillé dans la localité de Lac-Mégantic, faisant 47 victimes et rasant la ville entière. Cet accident a alerté l’opinion publique sur les dangers de ce type de transport et poussé Ottawa à faire pression sur Washington. Sans succès. Il est de notoriété publique que les relations américano-canadienne ne sont gère équilibrées…
Symbole
Dès son élection en 2008, Barack Obama a rompu avec la stratégie énergétique historique du pays, basée sur les énergies fossiles. La politique environnementale du président démocrate aura sans conteste été au centre des débats internes aux Etats-Unis, exception faite du Medicare (ou Obamacare). L’obligation faite aux électriciens de réduire de 32 % leurs émissions de dioxyde de carbone d’ici 2030 a fait grincer des dents. Il faut dire que 67,2% de la production électrique est générée par des combustibles fossiles (39% avec du charbon et 27% par du gaz naturel, et 1% de pétrole selon les chiffres 2014 de l’US Energy Information Administration). Le soutien au développement des énergies renouvelables s’est heurté au boom des pétroles et gaz de schiste, qui a considérablement augmenté la production d’hydrocarbures domestique. De fait, les prix ont baissé, et l’industrie pétrolière américaine, qui n’avait pas connu telle activité depuis longtemps, est revenue sur le devant de la scène économique. Le projet Keystone est devenu le symbole d’une filière renaissante, pourvoyeuse d’emplois, de retombées économiques, soutenue par l’industrie lourde (chimique au 1er rang) et les Républicains.
Comprenant les risques, la Maison Blanche a tout fait pour retarder la décision en jouant de manœuvres dont sont coutumiers les politiciens de Washington. Ainsi, sous la pression des Conservateurs, le Congrès vote en 2011 un texte obligeant le Président à prendre une décision. En vain. L’administration Obama a également joué sur les différents échelons de décision caractéristiques des Etats-Unis. En avril 2014, elle s’est ainsi appuyée sur un litige avec l’état du Nebraska pour suspendre la procédure d’évaluation. Grâce à tous ces reports, Barack Obama a gagné du temps et minimisé l’impact électoral qu’aurait eu un refus en pleines élections de mi-mandat. Il s’offre par ailleurs une crédibilité écologique bienvenue à la veille de la COP 21 à Paris.
Objectif Paris
Le timing observé sur le dossier Keystone est en effet loin d’être hasardeux : « Les Etats-Unis ne peuvent pas demander aux autres nations de faire des choix difficiles pour combattre le changement climatique si nous sommes incapables de les faire nous-mêmes. Refuser le pipeline Keystone XL est l’un de ces choix difficiles, mais il s’agit de la bonne décision pour l’Amérique et le monde », indiquait John Kerry. Un discours de bon augure pour la COP21 et qui montre un changement de perception majeur sur la question environnementale. Il faut en effet se rappeler qu’il y a moins de dix ans, les Etats-Unis ne voulait pas entendre parler de traité international contraignant en la matière. Barack Obama a d’ores et déjà annoncé qu’il voulait un accord ambitieux à Paris. Un moyen pour lui, à l’approche de la fin de sa présidence (les élections auront lieu le 8 novembre 2016), de marquer dans le marbre le virage écologique qu’il a initié. Reste à savoir dans quelle mesure cet engagement liera son successeur quel qu’il ou elle soit. Déjà, Marco Rubio, l’un des favoris des primaires Républicaines a prévenu : « Lorsque je serai Président, (le projet) Keystone sera approuvé et les politiques énergétiques d’un autre temps du Président Obama arriveront à terme ». Un symbole on vous dit…
Avec près de 3500 véhicules Bluecar en autopartage à Paris pour 90 000 abonnés, l’opération est un succès pour le groupe Bolloré. Grâce à ce pari lancé en 2011, l’industriel a pu exporter avec succès son concept d’autopartage dans plusieurs villes. Avec sa filiale Blue Solutions, Bolloré veut aller plus loin. Avec le lancement de la décapotable Bluesummer, de la Blueutility, mais aussi du Blueboat, du Bluebus et désormais du Bluetram, le groupe s’impose comme un incontournable de la mobilité électrique.
Blue Solutions veut profiter de la COP21 pour faire connaître l’ensemble de ses solutions et booster ses commandes. Pour cela, le coup de com’ a été bien pensé et repose sur deux fronts. 6 Bluetram seront testés sur les Champs-Elysées du 15 novembre au 15 janvier. Par ailleurs, la RATP dévoilera le Bluebus de 12 mètres de l’industriel, lors de la COP21.
Le Bluebus, de 6 à 12 mètres
Blue Solutions produit un bus électrique de 6 mètres à Laval et à Ergué-Gabéric. Si ce bus a séduit quelques villes (Luxembourg, Vannes, Laval, Reims, Tours…), le marché reste de niche. Le bus de 6 m possède 3 pack batteries, offrant une énergie embarquée de 90 kWh et une autonomie de 120 km. Ses batteries se rechargent complètement en 8 heures. « Un bus sort tous les trois jours et le 148e vient de quitter la chaîne de montage», confie Glenn Raude, Responsable Qualité-Environnement du site d’ Ergué-Gabéric. Mais grâce à son nouveau bus de 12 m, Bolloré va pouvoir se positionner sur le gros du marché. « Le 6m concerne un marché de niche. Mais le 12m, c’est 90 % du marché » confirme Glenne Raude.
Dans le cadre de son plan Bus 2025, la RATP vise à remplacer les 4 500 bus de son réseau francilien par un parc 100% électrique et biogaz d’ici 10 ans. Ce plan engendre une commande très intéressante pour les industriels du secteur : 3 600 bus électriques et 900 bus au biogaz. Bolloré espère remporter une bonne partie de la future commande. Il est déjà assez bien parti. Disposant d’une autonomie espérée par la RATP allant de 180 km à 250 km grâce à ses 8 pack batteries placées sur le toit, le Bluebus de 12 mètres a été retenu pour un test grandeur nature de deux ans. Courant 2016, la ligne 341 sera entièrement exploitée par 23 Bluebus. Les premiers prototypes de Bluebus seront livrés dans les prochaines semaines à la RATP. Une nouvelle extension de l’usine d’Ergué-Gabéric devrait ouvrir en janvier 2016 pour lancer la production industrielle.
Par ailleurs, la RATP testera le matériel proposé par d’autres constructeurs sur les lignes 21 et 147. Pendant environ deux mois, plusieurs prototypes de bus électriques seront testés, parmi ceux de l’espagnol Irizar, du polonais Solaris, du chinois Yutong associé au français Dietrich Carebus Group, du hollando-chinois Ebusco ainsi que du français Heuliez. L’appel d’offre définitif sera lancé en 2017 et les premières livraisons massives de bus électriques sont prévues pour 2019.
Le Bluetram, entre bus électrique et tramway
Le dernier né de Blue Solutions est le Bluetram. Equipé de pneus, ressemblant à un bus, il fonctionne sans rail ni caténaire. Une ligne de six Bluetram desservira gratuitement neuf stations entre Charles de Gaulle-Etoile et Concorde, sur les Champs-Elysées, du 15 novembre au 15 janvier. Il n’existe pas encore de projets commerciaux d’installation pour le moment. Bolloré compte donc sur cette opération lors de la COP21 pour démontrer la facilité d’installation et concrétiser les commandes des villes qui pourraient être intéressées.
Le Bluetram fonctionne grâce à deux supercapacités rechargées à chaque arrêt, pendant la montée et la descente des passagers. Ces supercapacités se rechargent en 20 secondes, ce qui suffit pour donner jusqu’à 2 km d’autonomie et propulser le véhicule jusqu’à l’arrêt où il se rechargera à nouveau. D’un point de vue technique, ces supercapacités sont composées de 30 modules de 20 super-condensateurs de 3000 farads chacun, placés sur le toit du Bluetram. Ils sont rechargés par un bras télescopique qui sort de la station et se branche au véhicule, à chaque arrêt. Le Bluetram dispose tout de même d’un pack batterie de 30 kWh pour pouvoir faire un détour ou se rendre au dépôt en cas de besoin.
Selon Bolloré, la construction d’une ligne de Bluetram ne nécessitant ni rails ni caténaires, se révélerait de 5 à 10 fois moins cher qu’une ligne de tramway classique. En revanche, les premiers Bluetram existant sont construits sur la même architecture que les bus de 6 mètres et n’ont donc qu’une capacité de 22 passagers. Néanmoins, un nouveau modèle de 12 mètres pourrait sortir dès l’année prochaine. Des modèles de 18 m et 24 mètres sont également en projet.
Dans l’usine d’Ergué-Gabéric, l’atelier d’assemblage commun aux Bluebus et aux Bluetram de 6 mètres est silencieux et sans poussières. Au cours des 7 étapes d’assemblage, tout se fait manuellement, sans robots. Le bus présente une structure alu-acier-composite, qui sera facilement recyclable, car l’assemblage ne se fait que par boulonnage, sans soudures. Un véhicule sort de la ligne d’assemblage tous les 3 jours.
Les Rendez-vous Carnot sont l’événement de référence de la R&D au service de l’innovation des entreprises. Porteurs de projets d’innovation et dirigeants d’entreprises peuvent y rencontrer les 34 instituts Carnot, ainsi que les autres acteurs majeurs de la R&D et du soutien à l’innovation en France. Ils trouveront ainsi le meilleur accompagnement R&D en réponse à leurs besoins d’innovation.
Techniques de l’ingénieur participe aux Rendez-vous 2015, avec un stand pour vous accueillir mais aussi et surtout en ayant travaillé sur une série de conférences techniques, avec des spécialistes de grands secteurs et des témoignages de partenariats Public/Privé de recherche et d’innovation. Notre partenariat vous permet d’avoir, à travers ces conférences, des visions prospectives et des réponses aux grands défis technologiques et économiques. Ariane Mizrahi, directrice éditoriale de Techniques de l’Ingénieur, nous en dit plus.
Techniques de l’Ingénieur : Quels sont les liens entre l’Association des instituts Carnot et Techniques de l’ingénieur ?
Ariane Mizrahi.Techniques de l’Ingénieur et l’AI Carnot sont deux acteurs essentiels qui agissent au côté des industriels, pour les accompagner dans leur démarche d’innovation, de R&D et d’industrialisation, en lien avec les plus éminents laboratoires de recherche publique et les experts qui y travaillent.
Il était donc tout naturel que, un jour ou l’autre, nous collaborions. C’est aujourd’hui chose faite et nous assisterons lors des Rendez-vous Carnot en novembre à la concrétisation de ce partenariat.
Quel est le rôle de Techniques de l’Ingénieur dans ce partenariat ?
Ariane Mizrahi. Ces Rendez-vous Carnot ont pour objectif de permettre aux industriels et aux instituts Carnot de se rencontrer en vue de monter des partenariats R&D. C’est l’occasion de montrer aux industriels les possibilités offertes par les différents instituts Carnot.
Par sa connaissance des besoins des industriels et des technologies, Techniques de l’Ingénieur a proposé à l’AI Carnot plusieurs sujets au cœur des préoccupations des industriels et qui connaissent une actualité technologique.
Ensemble, nous avons sélectionné ceux qui semblaient les plus à même de mettre en valeur les instituts Carnot. Nous avons également mis en commun nos « carnets d’adresse » pour identifier et contacter les experts de ces sujets.
Chaque conférence permettra de cerner les enjeux aussi bien technologiques que socio-économiques, et des retours d’expérience, des réalisations concrètes issues de partenariats public-privé seront présentés. Cela a été l’occasion de discussions avec les différents conférenciers afin de préciser le cadre et le contenu de leurs interventions.
Ainsi, nous avons travaillé à l’élaboration d’un programme que j’espère varié et qui permettra aux participants des Rendez-vous Carnot d’enrichir leurs connaissances et d’identifier des partenaires potentiels.
Quels sont les sujets abordés lors des conférences qui se tiendront pendant les Rendez-vous Carnot, à Paris les 18 et 19 novembre 2015 ?
Ariane Mizrahi : Les conférences techniques sont au nombre de 8 et traiteront des thèmes suivants :
Matériaux fonctionnels – Revêtements et traitements de surface : Fonctionnaliser les surfaces pour améliorer le comportement en service des matériaux
Radiocommunications M2M, sureté de connexion : Déploiements de réseaux sans-fil en environnements difficiles et pour applications critiques
Méthodes pour l’efficacité énergétique des procédés industriels : De l’audit avancé à l’innovation technologique
Matériaux architecturés pour les véhicules : Allégement et traitement vibroacoustique
La médecine personnalisée : Le traitement à la carte en cancérologie : espoir ou réalité ?
Intensification des procédés au service de la chimie durable : L’illustration par quelques exemples industriels: bio-solvants et procédés séparatifs
Les Risques hydro-climatiques continentaux et Climat : Risques hydro-climatiques sur le continuum Montagne – Plaine : de la Recherche à l’application
La robotique collaborative : Application en polissage
Consultez le cahier d’actualités de Techniques de l’Ingénieur concernant les Instituts Carnot.
Une équipe du Cern situé près de Genève a dans l’idée de repousser les connaissances de la physique actuelle en traquant des indices attestant l’existence d’autres dimensions. Pour ce faire, les scientifiques vont s’appuyer sur le plus grand collisionneur de particules au monde (LHC), désormais à pleine puissance, afin de créer des trous noirs microscopiques à partir de collision de protons.
Tout part d’une question : pourquoi la gravité n’exerce pas autant de force que les trois autres forces connues qui régissent les interactions entre particules. Et d’une réponse probable… Une partie de la gravité s’échappe dans des dimensions qui nous sont invisibles en passant par des trous noirs.
Ces autres dimensions ne sont pas synonymes de mondes parallèles, comme on pourrait s’en faire l’idée, mais plutôt des dimensions indétectables qui permettraient de mieux comprendre certains mystères de l’Univers tel que celui de la force gravitationnelle et peut-être d’élaborer une nouvelle physique.
Une telle découverte ne serait donc pas à prendre à la légère ! En l’état actuel des connaissance, le Modèle standard n’explique pas tout. Des théories comme la théorie des cordes, qui prédit l’existence d’au moins dix dimensions, ont été élaboré pour aller au-delà. Mais elles n’ont pas été confirmées. D’où l’importance de ces potentielles dimensions. Comme l’a indiqué le Cern dans un communiqué de presse : « Découvrir des dimensions supplémentaires pourrait aider les physiciens à mieux comprendre la gravité et éventuellement à réaliser une unification des forces, ou à déterminer la validité de la théorie des cordes. ».
Une force incroyable doit être dégagée pour former un mini trou noir. Apparemment, au moins 9,5 Tera électron volts (TeV) seraient nécessaires et 11,9 TeV seraient l’idéal pour découvrir si des dimensions supplémentaires existent. Or, le LHC a atteint sa force maximale dernièrement (13 TeV). Ces tests au Cern font figure de dernière chance pour l’équipe qui a déployé ces ultimes ressources a expliqué Sandrine Laplace, chercheuse au CNRS.
L’entreprise est sans commune mesure, inouïe, mais peut-elle être dangereuse. S’agit-il de l’expérience de trop où l’homme se frotte à des forces qui le dépassent et risque-t-on, comble de l’ironie, d’être englouti dans un trou noir que l’on aura créé ? Cela ne va pas manquer d’en faire siffler plus d’un, c’est sûr ! L’accélérateur de particules a toujours eu ses détracteurs. Mais il semblerait qu’il n’y ait pas de risque avec des trous noirs microscopiques et puis, ils sont encore théoriques.
Quoi qu’il en soit, la portée de cette découverte, si elle venait à être validée par le biais des recherches du CERN, serait phénoménale. Une telle constatation aurait pour conséquence, directe et brutale, de modifier grandement notre vision de la science !
Pour gagner du temps et de l’argent, Rob Rhinehart, un développeur informatique américain, a conçu (au gré de “ses recherches autodidactes”) en 2013 une boisson nutritive destinée, selon lui, à remplacer les repas. Car manger, c’est connu, est une activité chronophage et coûteuse…
Le “Soylent” (référence au film de science-fiction “Soleil Vert”) est une boisson beige fabriquée à base d’une poudre nutritive, censée contenir tous les nutriments dont notre organisme a besoin. Déjà sur la table de nombre de travailleurs de la Silicon Valley qui n’ont pas le temps de manger à midi, ce substitut alimentaire a été testé par Rob Rhinehart lui-même, à la place de tout autre aliment.
“Désintoxification” contre dépression
“Je ne m’étais jamais senti aussi bien. Je ne sais pas s’il y a une science de la désintoxification, mais c’est à peu près comme ça que je me suis senti. C’est comme si j’avais la gueule de bois depuis des années, et tout d’un coup, je ne l’avais plus. Il faut dire que mon alimentation était assez mauvaise avant”, raconte l’informaticien à The Atlantic.
En 2014, un journaliste américain, Brian Merchant, a tenté l’expérience pour Motherboard. Dans son documentaire, “comment j’ai cessé de manger pendant 30 jours« , il reconnaissait avoir perdu du poids en buvant cette boisson “au goût fade de crème sans sucre”, et ne jamais avoir eu faim… mais indiquait aussi s’être senti très fatigué, déconcentré, sans forces. Pire, il se serait senti déprimé (à force de manger “sans plaisir”), à cran, au point de connaître quelques accrochages avec sa femme.
“Tous les composants nutritifs d’un régime équilibré”
Selon Rob Rhinehart, le Soylent pourrait être un substitut alimentaire de premier choix dans les pays du Sud, où la nourriture constitue le gros des dépenses, mais aussi dans les cuisines de “ceux qui ont peu de temps et qui n’ont pas le temps de réfléchir à ce qu’ils vont manger”. Son invention serait aussi la solution à la surpopulation galopante et à la faim dans le monde, promet l’ingénieur.
Et peu importe si les nutritionnistes pointent du doigt le manque de variété d’aliments ingérés : pour Rob Rhinehart, sa “boisson du futur” est sans danger pour la santé. Elle contient même “tous les composants nutritifs d’un régime équilibré”, avec 3 fois moins de calories.
Concrètement, le Soylent contient de la farine d’avoine, de la maltodextrine, des protéines de riz et de soja, de l’huile de colza, des fibres. Dans cette poudre (à dissoudre soi-même dans de l’eau, en utilisant un mixeur), “il y a tout ce dont on a besoin, des vitamines, les minéraux, les macronutriments comme les acides aminés, les hydrates de carbone et les lipides (huile d’olive et de tournesol), ainsi que les glucides (des oligosaccharides)”, expique Rob Rhinehart à VICE.
Soylent 2.0
Mais le Soylent coûte tout de même un peu cher – 54 $ par mois. Alors l’informaticien a lancé durant l’été 2015 une version “2.0”, qui ne nécessite aucune préparation (“plus de blender bruyant”, garantit Rob Rhinehart), et qui coûte entre 29 et 34 $ par mois. Cette mixture prête à l’emploi, embouteillée, a une durée de vie d’un an, et n’a donc pas besoin d’être conservée au frigo.
Selon Rob Rhinehart, une bouteille de Soylent 2.0 contient “20% des apports journaliers” en vitamines et en minéraux, avec “un indice glycémique bas et des ingrédients uniquement végétaliens”. Parmi ces ingrédients, on retrouve des protéines de soja.
La farine d’avoine et l’huile de tournesol de la version 1.0 ont cédé la place à de l’huile d’algue, et à de l’isomaltulose, un sucre présent dans le miel – “ce qui permettra de réduire l’impact écologique de la production alimentaire”, et “d’aller vers un monde où la nutrition optimale est la nouvelle norme”, promet l’ingénieur. Mais à la différence de la poudre originelle, le Soylent 2.0 est considéré par Rob Rhinehart comme “un complément alimentaire, plus que comme un remplacement de repas”.
L’accélération des réseaux cellulaires qui nourrissent nos smartphones se compte elle-aussi en «G» : 1G, 2G, 3G, 4G et bientôt 5G. Cette cinquième génération annoncée pour 2020 promet un débit de l’ordre de plusieurs gigabits par seconde, histoire de satisfaire notre appétence pour des médias de plus en plus volumineux, vidéos en tête.
Mais tous les objets et appareils communicants, présents dans les bâtiments, les villes, les industries, n’en demandent pas tant. Pour la plupart, ces contributeurs de l’Internet des objets et du «Machine to machine» (M2M) n’ont besoin d’échanger que des petits messages, parfois juste un chiffre de temps à autre. Il s’agit d’un index de consommation, dans le cas d’un compteur d’eau ou de gaz, de coordonnées, d’une alerte, etc. Les réseaux évoqués plus haut sont souvent inadaptés car disproportionnés. A partir de 2012 se sont donc développées des nouvelles technologies qui combinent bas débit, grande autonomie, longue portée et faible coût. Elles sont regroupées sous l’acronyme LPWA (Low Power Wide Area) et surnommées «0G» ou «SIMless». La startup française Sigfox est l’une des plus emblématiques du secteur.
«Les réseaux cellulaires sont optimisés pour le haut débit, explique Thomas Nichols, responsable marketing de Sigfox. Le prix à payer, c’est la complexité. Par conséquent le silicium embarqué est cher à fabriquer. En outre, même si le réseau est désactivé sur un téléphone portable, il continue d’interroger le téléphone pour maintenir un lien. Ce sont des données inutiles qui consomment de l’énergie. Avec les réseaux longue portée, c’est l’objet qui se réveille et décide d’amorcer une communication.» Résultat : l’autonomie d’un objet fonctionnant sur batterie dépasse une dizaine d’années, ce qui répond à de nombreux besoins de l’industrie des services dont le smart metering (télérelève de compteurs). Un résultat hors d’atteinte du WiFi, qui épuiserait la même batterie en quelques jours.
Un débit de quelques centaines de bits par seconde
Quant à la question économique, équiper un produit d’un émetteur-récepteur LPWA revient à quelques euros, contre 10 à 20 euros pour une technologie de type GPRS qui nécessite en supplément une carte SIM. En ce qui concerne l’abonnement à l’année, l’écart est du même ordre de grandeur. Le réseau LPWA a l’avantage d’utiliser les bandes de fréquences ISM (industrielle, scientifique et médicale) à usage libre, qui ne requièrent pas de coûteuses licences d’exploitation. Ces bandes de fréquence sont multiples – le WiFi utilise celle à 2,4 GHz notamment – mais les communications LPWA sont essentiellement acheminées en 868 MHz en Europe (902 MHz aux Etats-Unis). A cette fréquence, la portée s’élève à plusieurs kilomètres en champ libre, moyennant un très faible débit : « celui du réseau Sigfox est fixé à 100 bits par seconde dans les pays européens et à 600 bits/s aux Etats-Unis» précise Thomas Nicholls. Un réseau dédié est bien entendu nécessaire mais la portée est telle que sa densité est relativement faible. Sigfox couvre par exemple 93 % du territoire français à l’aide de 1500 stations de base (ou antennes) seulement, chacune étant susceptible de prendre en charge un million d’objets, selon Thomas Nicholls.
Le réseau LPWA n’est pas unique car plusieurs approches coexistent : celle de Sigfox, à spectre étroit, et LoRa (pour Long Range), à spectre étalé, qui entre parenthèses est aussi d’origine française. Sigfox et l’alliance LoRa, qui regroupe entre autres Cisco, IBM, Sagemcom et Bouygues Telecom, ne manquent pas une occasion d’opposer leurs arguments. Ainsi, le réseau Sigfox est-il régulièrement accusé d’être monodirectionnel. Ce qui est faux, bien qu’un spectre étroit ne soit pas la panacée pour des communications bidirectionnelles. Mais un spectre étroit serait moins affecté par les interférences propres aux bandes ISM, à en croire Thomas Nicholls. Les querelles devraient se poursuivre à mesure que de nouveaux concurrents font irruption sur ce marché naissant : l’angevin Qowisio, qui exploite une technologie à spectre étroit, l’anglais Neul acquis l’an dernier par Huawei…
Ce n’est forcément la technologie elle-même qui est décisive, mais plutôt le modèle économique. Sigfox a pris de l’avance et se hâte de déployer son réseau un peu partout dans le monde. La société se positionne en tant que véritable opérateur et propose des forfaits de connexion par an et par objet. Les réseaux de type LoRa avaient une vocation plus privative jusqu’à présent. Illustration avec la start-up toulousaine Actility, qui vend du service d’efficacité énergétique aux industries en se basant sur des capteurs et son réseau LoRa. Mais la donne change puisque Bouygues Telecom a annoncé en mars dernier le lancement d’un réseau national LoRa dédié à l’Internet des objets. S’il fallait mesurer l’enjeu, la société d’études de marché Machina Research prévoit que les réseaux LPWA s’arrogeront 14% du total des communications M2M en 2024, dans un marché mondial qui pèsera 1600 milliards de dollars.
Sébastien Moulinet et Mokhtar Adda-Bedia du Laboratoire de physique statistique (CNRS/UPMC/ENS/Université Paris Diderot) viennent d’expliquer ce phénomène : lorsqu’une fissure se propage à la surface d’un ballon, si elle atteint une vitesse limite, elle se déstabilise et se sépare en deux nouvelles fissures. C’est par ce mécanisme de multiplication des fractures que le ballon vole en morceaux. Ces travaux, publiés dans Physical Review Letters, contribuent à une meilleure compréhension des phénomènes de fragmentation de matériaux soumis à des impacts ou à des explosions.
Le processus de fragmentation implique de grandes vitesses de déformation et des échelles de temps courtes entre la rupture initiale et la propagation des fissures. Ce processus se retrouve dans tous les types de matériaux, du verre aux métaux, en passant par les roches. L’explosion d’un ballon en caoutchouc étant simple à filmer au ralenti, il est un parfait modèle pour comprendre cette physique particulière de la fragmentation. Il présente deux régimes d’explosion : soit en deux parties distinctes quand il est peu tendu, soit en dizaines de morceaux sous forte tension.
Les physiciens Sébastien Moulinet et Mokhtar Adda-Bedia ont cherché à identifier et à décrire les conditions dans lesquelles chacun de ces mécanismes se produit. Plutôt que d’utiliser des ballons de baudruche, ils ont construit un dispositif dédié permettant de filmer, à des fréquences allant jusqu’à 60 000 images par seconde, l’explosion de feuilles de latex qu’ils gonflent comme des ballons.
Les chercheurs ont observé que tant que la membrane reste modérément tendue, une fracture unique se propage et coupe le ballon en deux. D’autre part, ils ont également observé que la vitesse à laquelle progresse la fissure croît avec la tension du ballon. Lors de l’explosion d’un ballon gonflé à son maximum, les fissures atteignent une vitesse limite à laquelle elles deviennent instables. Cette instabilité se traduit par la division successive des pointes de fissures qui forment ainsi un vaste réseau arborescent, initialement né d’une fracture unique. La vitesse limite à laquelle se produisent ces embranchements, d’environ 570 m/s, pourrait correspondre à la vitesse du son dans la membrane.
Bien que ces résultats partent d’un questionnement ludique, ils permettent une meilleure compréhension des phénomènes génériques de fragmentation de matériaux soumis à des impacts ou à des explosions. Les chercheurs espèrent ainsi contribuer à la mise au point de matériaux innovants dont les processus de fragmentation seront parfaitement maîtrisés.
Réseau wi-fi, objets connectés, imprimantes réseau, salariés travaillant avec leur propre ordinateur… Pour les pirates et les officines spécialisées dans l’espionnage économique, les multiples connexions des entreprises sont du pain béni. Ce sont autant de pistes pour récupérer des données.
Tout le monde a encore en mémoire les vols dont a été victime Orange l’année dernière. En mai 2014, l’opérateur téléphonique avait reconnu un nouveau vol de données personnelles chez quelque 1,3 million de clients et prospects, trois mois après une intrusion qui avait touché près de 800 000 d’entre eux. Quinze jours plus tard, c’était au tour d’eBay de reconnaître le piratage d’une de ses bases de données en février et début mars.
Or, ces piratages peuvent avoir un impact (en terme économique, mais aussi en terme d’image) sur les entreprises. Selon l’entreprise française CybelAngel, le coût moyen par employé d’une cyberattaque touchant une entreprise de grande taille s’élève à 324 €.
Cette situation inquiétante est confirmée par l’édition 2015 de l’étude annuelle « State of Data Security Intelligence » réalisée par le Ponemon Institute et parrainée par Informatica. 15 600 DSI et professionnels de la sécurité IT européens ont été interrogés. Résultat, 44 % des entreprises indiquent avoir été victimes d’un vol de données, qui aurait pu être évité, sur les douze derniers mois.
Un aveu de faiblesse, car 70 % des répondants reconnaissent que la mise en place de solutions permettant de détecter des fuites de données sensibles serait une solution efficace. Et bien sûr, c’est la faute aux autres ! La moitié des personnes interrogées estiment que les fuites sont dues à des erreurs commises par des intérimaires, des sous-traitants et des sociétés spécialisées dans la gestion des données (dans le Cloud).
C’est un peu vite oublier que la principale source de piratage et de vol de données se trouve à l’intérieur de l’entreprise elle-même. Très souvent, leur politique de sécurité n’est pas assez contraignante : contrôles des accès pas assez surveillés, absence de chiffrement des données, utilisation de solutions pas assez sécurisées, qu’il s’agisse de logiciels de messagerie, mais aussi des périphériques connectés.
Une autre étude de Ponemon Institute, menée l’été dernier auprès de plus de 2 000 professionnels internationaux de la sécurité, indique en effet que seulement « 44 % des personnes interrogées disent que les imprimantes connectées, pourtant tout aussi intelligentes que les PC, sont aujourd’hui couvertes par la politique de sécurité de leurs entreprises ».
Or, pour améliorer sa sécurité informatique, il est essentiel de récupérer des preuves du piratage pour connaître les techniques employées et les faiblesses du réseau informatique. Mais pour l’instant, très peu d’entreprises appliquent cette méthode connue par les spécialistes sous le terme de Forensic (techniques d’investigation et d’analyse de supports numériques).
« En France, la législation n’incite pas trop les entreprises à acquérir des preuves. Elles recherchent principalement des solutions de réponses à un incident ou permettant de détecter un piratage. Aux États-Unis, la collecte de preuves numériques s’est considérablement développée et démocratisée. Les lois obligent de plus en plus les entreprises à avoir recours à ce type d’investigations. Et c’est en train d’arriver en France », déclare Solal Jacob, président d’ArxSys, une entreprise française spécialisée dans le Forensic.
Les Gaulois aiment tenir tête aux empires. En matière de recherche sur le web, Qwant ambitionne de résister au rouleau compresseur de l’empire Google. Avec 93,5 % des requêtes effectuées en France (selon AT Internet) Google règne en maître dans la vie des internautes. La concurrence est très loin derrière avec Yahoo ! (2,6 %), Bing (2,4 %), Orange (0,4 %) et Ask (0,3 %).
Pour faire mieux que les concurrents et attaquer le marché européen avec des déclinaisons en différentes langues, Qwant bénéficie d’un nouvel actionnaire de poids. La Banque Européenne d’Investissement a en effet décidé d’investir environ 25 millions d’euros. Selon Qwant, « ce Financement s’inscrit dans le cadre de l’initiative Horizon 2020 et notamment du Programme « InnovFin – financement européen de l’innovation » qui offre des produits sur mesure pour le financement de projets de recherche et d’innovation (R-I), menés par des entreprises de petite, moyenne et grande dimension et par les promoteurs d’infrastructures de recherche ». La BEI rejoint ainsi le second actionnaire de Qwant, Axel Springer. En 2014, le groupe allemand avait décidé de prendre une participation de 20 % dans la start-up en y injectant cinq millions d’euros.
A cette époque, Eric Leandri expliquait que l’accord avec le Groupe Springer représentait « un super tremplin pour l’international. Cet important groupe allemand connait très bien les médias, l’Internet, les droits d’auteurs et il a un grand respect de la presse. Nous allons leur apporter nos compétences en sécurité informatique, en recherche… ».
« Tenter de faire la même chose que Google est un échec assuré »
Fondé en 2011 par Jean Manuel Rozan et Eric Leandri et officiellement lancé en 2013, Qwant est devenu aujourd’hui une sérieuse alternative à Google et aux autres moteurs de recherche américains. Avec un mot d’ordre : le respect de la vie privée des internautes. A la différence des géants du Web, l’Européen ne récolte pas de données sur les requêtes et la navigation des particuliers et des professionnels. Autre point fort : il assure la neutralité des résultats de recherche. Le principal reproche formulé par de nombreux sites à l’égard de Google est que ce dernier ne se prive pas de mettre en avant ses autres services comme Google Shopping.
« Tenter de faire la même chose que Google est un échec assuré. Avec Qwant, les internautes peuvent trouver des informations publiées sur des réseaux sociaux qu’ils n’auraient pas découvertes avec un moteur de recherche classique. Nous ne disons pas que nous fournissons des résultats plus pertinents que ceux de Google par exemple. Mais nous fournissons, grâce à notre interface, plus d’informations qui proviennent de différentes sources. Cela permet à l’internaute d’ouvrir ses options de recherche et d’être plus efficace », insiste Eric Leandri.
Annoncé lors d’une conférence franco-allemande sur le numérique, ce financement « démontre que les acteurs français, allemands et européens considèrent que Qwant a une place à prendre dans le panorama numérique européen. Cela ne fait pas de Qwant un succès planétaire en soi, nous en sommes bien conscients, mais c’est un signal très encourageant et cela va nous aider à grandir », a expliqué Eric Leandri.
Mais la route est encore longue avant que Qwant n’inquiète le géant Google. L’Européen revendique 6,1 millions de visiteurs uniques en septembre 2015 et se place à la porte des 5000 premiers sites les plus visités au monde.
Il faut espérer qu’il n’ait pas le même sort que Quaero. Présenté à l’époque comme l’Airbus du numérique, ce moteur de recherche réunissait entre autres Thales, Thomson, Deutsche Telekom et France Télécom. Malgré 198 millions d’euros de fonds, dont une large part de subventions, Quaero n’a jamais percé. Mais sa R&D a néanmoins été bénéfique à l’Europe.
Responsable du département de géo-cryologie (l’étude des sols éternellement gelés des zones froides) de l’Université d’État de Moscou, Anatoli Brouchkov a isolé une bactérie vieille de plusieurs millions d’années, « Bacillus F », et l’a testée sur des souris et des mouches. Puis il a décidé de se l’inoculer lui-même. Afin de “vivre plus longtemps”.
Selon le chercheur, la bactérie serait bénéfique pour l’organisme sur de nombreux points, donnant une meilleure fertilité et une plus grande longévité. Brouchkov serait dorénavant capable de « travailler plus longtemps », et n’aurait plus eu de grippe « depuis 2 ans », indique-t-il au Siberian Times.
“Il y a peut-être des effets secondaires”
Inoculer la Bacillus F ne serait en outre pas dangereux, la bactérie se trouvant déjà dans l’eau consommée par l’homme. Toutefois, le scientifique reconnaît que son expérience n’était pas « scientifique », mais personnelle, réalisée sans observateurs. Et qu’une étude rigoureuse menée en laboratoire reste à mener.
Au Siberian Times, Anatoli Brouchkov explique qu’il y a « peut-être des effets secondaires ». Mais il indique, avec espoir, qu’il doit sûrement « exister des équipements médicaux pour les repérer ».
La bactérie anti-vieillissement Bacillus F avait déjà été examinée, mais pas vraiment en profondeur, par l’Académie russe des sciences, en 2012. L’expérience avait été menée en laboratoire, et testée sur des souris. Selon les scientifiques de l’époque, le vieillissement des cobayes aurait été ralenti et le métabolisme, augmenté.
Depuis 2013, l’étiquetage des produits de construction et de décoration vendus en France est devenu obligatoire et le 3ème plan National Santé Environnement prévoit l’extension de cette mesure aux produits d’ameublement. Dans ce cadre, l’Anses a été saisie par les ministères en charge de la santé et de l’écologie afin d’identifier puis de sélectionner une liste de substances chimiques prioritaires. L’Anses publie ce jour la liste de 31 substances qu’elle juge prioritaires en vue d’appuyer les pouvoirs publics dans la mise en œuvre future de l’étiquetage des produits d’ameublement relatifs aux polluants volatils.
Les matériaux de construction, les produits de décoration et les produits d’ameublement sont régulièrement cités comme des sources de pollution des environnements intérieurs du fait de leurs émissions en polluants volatils, voire semi-volatils. L’article L. 221-10 du Code de l’Environnement prévoit que les produits de construction et d’ameublement soient soumis à une obligation d’étiquetage des polluants volatils.
En 2009, l’Agence a proposé une procédure de qualification des émissions de composés organiques volatils (COV) issues des produits de construction et de décoration.
A la suite de ces travaux, et depuis le 1erseptembre 2013, l’étiquetage des produits de construction et de décoration vendus en France est devenu obligatoire en application du Code de l’Environnement.
Limiter les expositions aux substances émises par les meubles
Le Plan de la qualité de l’air intérieur (2013), repris dans l’action 49 du Plan national santé environnement 3 (PNSE 3) (2015-2019), préconise de développer l’étiquetage pour les produits susceptibles d’émettre des polluants dans l’air intérieur, intégrant les produits d’ameublement. Dans l’attente de l’entrée en vigueur de l’étiquetage obligatoire à l’horizon 2020, »un accord volontaire pourrait être négocié avec les fabricants et distributeurs de meubles, les principaux metteurs sur le marché du mobilier de bureau pour les institutions publiques […] et les collectivités, avec comme objectif que 80 % des meubles pour enfants soient étiquetés ».
Dans ce contexte, l’Agence a été saisie par les ministères en charge de la santé et de l’écologie afin d’identifier et de sélectionner une liste de substances chimiques prioritaires dans le cadre de la mise en place future d’un étiquetage des produits d’ameublement.
Une exposition à de multiples substances, 31 considérées comme prioritaires
Les produits d’ameublement sont constitués de multiples matériaux qui peuvent être traités, décorés ou protégés. Ils peuvent émettre de multiples substances volatiles ou semi-volatiles auxquelles peut être exposée la population générale.
Sur la base de la dangerosité des substances et de leur possibilité d’être émises par des produits d’ameublement, 41 substances ont été identifiées comme substances d’intérêt, dont 31 prioritaires. Ces substances sont toutes classées cancérogènes, mutagènes et/ou reprotoxiques par le Règlement (CE) no1272/2008 du Parlement européen et du Conseil du 16 décembre 2008 relatif à la classification, à l’étiquetage et à l’emballage des substances et des mélanges (CLP), et/ou ont été classées cancérogènes des groupes 1, 2A ou 2B selon la classification proposée par le Centre international de Recherche sur le Cancer (CIRC).
Par ailleurs, parmi ces 31 substances, 21 d’ores et déjà mesurables par la norme ISO 16000 utilisée dans le cadre de la procédure d’étiquetage des produits de construction et de décoration, ont fait l’objet d’une proposition de concentrations limites d’intérêt (CLI), dont l’objectif est de prévenir la survenue d’effets sanitaires lors d’une exposition à long terme, qui devrait permettre d’appuyer les décideurs sur les mesures de gestion à mettre en place.
Les recommandations de l’Agence
Au vu de la présence potentielle de substances classées cancérogènes, mutagènes, et/ou reprotoxiques à l’émission des produits d’ameublement, l’Agence souligne la nécessité notamment :
de limiter l’exposition de la population à ces substances et de tendre à terme vers une interdiction de ces substances à l’émission, dans l’objectif d’éviter la mise sur le marché de tout produit d’ameublement pouvant induire une exposition à ces polluants, quelle qu’en soit la concentration ;
d’assurer la traçabilité des substances présentes dans les produits d’ameublement, des fabricants jusqu’aux distributeurs, en se dotant d’outils permettant de recenser les substances entrant dans la composition des produits et celles qui sont émises ;
de faire évoluer les méthodes de prélèvement et d’analyse afin d’améliorer leur performance en termes de niveaux de détection et de représentativité (répartition entre la phase gazeuse et la phase particulaire) ;
Enfin, l’Anses rappelle l’intérêt d’étudier de façon complémentaire les émissions en polluants issus de l’ensemble des produits de consommation (produits désodorisants tels que bougies parfumées, encens et autres masquant d’odeurs, produits d’entretien) en vue d’un futur étiquetage de ces produits, comme le prévoit le Plan d’action sur la qualité de l’air intérieur (2013), intégré au Plan national Santé-Environnement de 2015-2019 (PNSE 3).
Elon Musk, le fondateur et dirigeant de Tesla Motors et SpaceX a beau mener trente-six vies en parallèle… Il a ses limites, comme tout le monde. Aussi, lorsqu’il lance le projet de train Hyperloop en 2013, il le lance sur la « place publique », pour que ceux qui le souhaitent se l’approprient et le développent pour lui.
Deux ans plus tard, deux sociétés se sont accaparées les plans d’Elon Musk et oeuvrent à sa réalisation. Il s’agit d’Hyperloop Transportation Technologies (HTT) et d’Hyperloop Technologies. Deux sociétés bien distinctes malgré un nom très analogue qui, il faut le reconnaître, pourrait générer une certaine confusion.
Dirk Ahlborn, est à la tête d’Hyperloop Transportation Technologies – qu’il a d’ailleurs fondé. Cet américain a mis en place un système de travail unique en son genre. Grâce au site participatif JumpStartFund, il a attiré dans son giron des collaborateurs volontaires de tous horizons (étudiants, professeurs, ingénieurs de Boeing, du CERN, d’Airbus, de la NASA, de Tesla) qui se sont engagés à fournir au moins dix heures de travail, sur leur temps libre, pour réfléchir aux différentes problématiques liées à la concrétisation d’Hyperloop et faire avancer les choses. Ces travailleurs bénévoles des quatre coins du monde seraient environ 450 aujourd’hui. Et si l’argent n’est pas leur motivation – ils n’en touchent pas actuellement – ils se verront attribuer des stock-options qui pourraient s’avérer très fructueuses un jour prochain.
Cet aspect collaboratif a beau surprendre, HTT avance. La prochaine étape consiste en la réalisation d’une piste de 8 kilomètres pour l’Hyperloop, au sein de la future ville éco-technologique Quay Valley, située entre San Francisco et Los Angeles. HTT aurait déjà l’autorisation à défaut d’avoir obtenu complètement les fonds nécessaires. Entre 100 et 150 millions de dollars sont espérés d’ici au début 2016. Période à laquelle Dick Ahlborn escompte d’ailleurs démarrer les travaux.
L’un des objectifs de la société HTT, avoué, est de faire rentrer des bénéfices. Là où certains y voient un moyen de transport futuriste capable d’atteindre plus de 1 000 kilomètres par heure, Dirk Ahlborn, lui, y voit un business. De ses propres mots, l’homme d’affaires souhaite concevoir un service rentable : « pour la première fois, un moyen de transport va produire de l’énergie, donc des revenus ». Les panneaux photovoltaïques installés à la surface du tunnel devraient en effet produire plus d’énergie que l’hyperloop n’en aurait besoin. Cela sera un avantage pour les pouvoirs publics ainsi que pour les usagers qui auront plus de chance d’avoir un transport bien entretenu. Dans le futur, Dick Ahlborn pourrait voguer vers les mégalopoles asiatiques pour offrir ses services.
La seconde start-up, Hyperloop Technologies, fondée par Shervin Pishevar, opte pour une approche plus traditionnelle. C’est-à-dire qu’une équipe composée d’une trentaine de permanents planche sur l’élaboration d’un prototype de capsule qu’il veut tester en juin 2016 à Hawthorne. Lieu qu’à choisi SpaceX pour construire un premier tronçon d’1,2 kilomètres pour effectuer les tests grandeur nature mais surtout challenger les candidats. Arrivée bien plus tard dans la compétition, nous avons moins entendu parler d’Hyperloop Technologies mais il nous tarde d’avoir davantage de ses nouvelles.
En étudiant les ondes générées à la surface de centaines d’étoiles géantes rouges, les scientifiques ont pu sonder l’intérieur des astres et reconstituer leurs structures (c’est le principe de l’astérosismologie), caractérisant en particulier les phénomènes magnétiques internes. Ils ont pu découvrir ainsi l’existence d’un champ magnétique interne jusqu’à 10 millions de fois plus élevé que celui généré au coeur de la Terre. Ces résultats permettront aux chercheurs de mieux comprendre l’évolution des étoiles où le champ magnétique joue un rôle fondamental. Ils sont publiés dans Science le 23 octobre 2015.
Les géantes rouges sont des étoiles plus âgées et plus grosses que notre Soleil. Les mouvements convectifs agitant leurs régions externes génèrent des ondes sonores qui interagissent avec des « ondes de gravité », lesquelles pénètrent profondément dans les coeurs stellaires. De forts champs magnétiques peuvent perturber la propagation des ondes de gravité, qui restent alors piégées dans les couches internes de l’étoile selon un phénomène d’« effet de serre magnétique ». Étudier les caractéristiques des ondes permet ainsi de reconstituer les propriétés magnétiques de l’intérieur de l’étoile.
Jusqu’à présent, les astrophysiciens ne pouvaient étudier que les champs magnétiques de la surface des étoiles et devaient recourir aux supercalculateurs pour tenter de simuler le champ magnétique interne et les comportements magnétiques sous-jacents. « Le champ magnétique interne de ces étoiles était totalement inconnu. Grâce aux mesures du satellite Kepler2, nous venons d’ouvrir une nouvelle fenêtre sur le comportement magnétique dans le coeur des étoiles », explique Rafael García, chercheur au service d’Astrophysique du CEA-Irfu (Saclay), qui a participé à toutes les analyses sismiques de l’étude.
Les travaux qui viennent d’être publiés ont mis en évidence que le champ magnétique à l’intérieur des étoiles géantes rouges peut atteindre des valeurs 10 millions de fois plus importantes que celle du champ magnétique terrestre.
Bien qu’il s’agisse d’une technique d’observation indirecte des champs magnétiques internes, cette approche devrait à terme permettre de clore le débat animant la communauté scientifique sur l’origine des champs magnétiques intenses observés à la surface de certaines naines blanches et étoiles à neutrons, des corps stellaires qui se forment après la mort d’une étoile.
La plupart des pays en développement qui ont rendu leurs contributions pour la COP21 qui se déroulera à Paris du 30 novembre au 11 décembre prochain conditionnent une partie ou la totalité de leurs engagements à l’existence d’un mécanisme de solidarité, notamment la consolidation des 100 milliards de dollars promis lors du sommet de Copenhague.
Où en est-on des financements?
L’OCDE a fait le point sur les questions de financement climatiques. Elle estime à 62 milliards de dollars en 2014 les financements climat publics et privés existants, en hausse de 10 milliards de dollars par rapport à 2013. « Les financements publics bilatéraux et multilatéraux ont représenté plus de 70 % des apports durant la période 2013-14, tandis que les financements privés mobilisés ont représenté plus de 25 % et les crédits à l’exportation, la part restante », fait savoir l’OCDE. Il reste donc 38 milliards de dollars à trouver.
Plus des trois quarts du total estimé des financements climatiques ont soutenu des activités d’atténuation, un sixième environ a été consacré à l’adaptation et une faible proportion a appuyé les deux objectifs. Pour la Fondation Nicolas Hulot pour la Nature et l’Homme (FNHNH), « les financements climat publics devraient être constitués dans une plus grande proportion de subventions pour pouvoir financer l’adaptation des pays les plus vulnérables » et « les financements publics manquants ne devront pas provenir du transfert de budgets existants sur d’autres enjeux de l’aide publique au développement ».
Où trouver les milliards manquants ?
Plusieurs pistes portant sur de nouveaux mécanismes financiers sont à l’étude, en particulier la mise en place d’une taxe sur les transactions financières (TTF). 11 pays européens – l’Autriche, la Belgique, l’Estonie, la France, l’Allemagne, la Grèce, l’Italie, le Portugal, la Slovaquie, la Slovénie, et l’Espagne – travaillent sur cette question. Ils représentent environ 90 % du PIB de la zone euro. La Commission européenne a estimé que cette TTF pourrait rapporter annuellement au sein de ces 11 pays entre 24 et 30 milliards d’euros, dont 6 à 10 milliards d’euros en France. La majeure partie de cette taxe serait affectée à la lutte contre le changement climatique, ainsi qu’à la lutte contre les pandémies (sida, paludisme, tuberculose…).
Les ONG proposent aussi de taxer la pollution des transports maritimes et aériens internationaux. Ces deux secteurs bénéficient en effet d’exemptions particulières dans le cadre du Protocole de Kyoto, alors qu’ils sont fortement émetteurs de GES. Plusieurs acteurs proposent également de mettre fin aux subventions aux énergies fossiles. Selon le Fonds Monétaire International (FMI), ces subventions s’élèvent à 4740 milliards d’euros par an dans le monde, soit 6,5 % du PIB mondial. L’institution financière estime que leur suppression permettrait de réduire de 20 % les émissions mondiales de GES, et permettraient aussi de révolutionner le monde de l’énergie en finançant pleinement l’adaptation au changement climatique de tous les pays en développement.
Longue requête des écologistes, la création d’une taxe carbone mondiale semble avoir été évacuée des négociations. Malgré son efficacité pour se détourner des énergies fossiles les plus polluantes et diminuer les émissions de gaz à effet de serre, elle ne sera pas à l’agenda de la COP 21.
100 milliards de dollars, est-ce suffisant?
Selon les estimations de la FNHNH, sur la base de 39 pays qui ont chiffré leur besoin, les 100 milliards de dollars couvriront un peu moins de la moitié des besoins d’investissements identifiés nécessaires aux pays en voie développement (PVD) et aux pays les moins avancés (PMA). « Le reste devra provenir d’investissements nationaux, d’investissements du secteur privé non comptés dans les 100 milliards ou provenant d’autres pays du Sud, comme la Chine », estime la Fondation. Il faudra donc que les contributions financières soient réévaluées, « par exemple tous les cinq ans », propose la FNHNH.
100 milliards de dollars, cela ne représent que 0,2 % du PIB des pays de l’Annexe 1 de la Convention-Cadre des Nations Unies sur les Changements Climatiques (CCNUCC). Mais les investissements qu’ils rendront possibles dans les PVD et PMA représentent en moyenne 8 % du PIB actuel des 39 pays qui ont chiffré leurs besoins, selon les calculs de la FNHNH. On comprend mieux que les pays en développement conditionnent leurs engagements au versement de ces aides.
Plus de 100 institutions culturelles ont inscrit l’un des 294 évènements déjà prévus à l’agenda ArtCOP21. « Imaginé comme une plateforme qui stimule et encourage la mobilisation des artistes et des acteurs culturels sur les enjeux climatiques, ArtCOP21 programme des actions et relaie les meilleurs initiatives culturelles engagées autour de la COP21 », expliquent les associations COAL et Cape Farewell, à l’initiative du projet.
Lors de la COP21, des oeuvres seront installées sur les lieux officiels des négociations, mais aussi partout dans Paris, pour sensibiliser les citoyens. Les institutions culturelles, les artistes et de simples citoyens bouillonnent d’initiatives pour faire de la COP21 un moment culturel capital.
Les temps forts d’ArtCOP21
Trois rencontres décisives sont inscrites à l’agenda d’ArtCOP21 d’ici décembre. La Conférence des Parties Créatives réunira de grands artistes et intellectuels du monde entier à la Gaîté lyrique, du 1er au 11 décembre, afin de développer « l’imaginaire d’un monde possible, positif et durable ». En parallèle se dérouleront les quartiers généraux de la culture à la Gaîté lyrique. Au menu : rencontres, débats, projections, concerts, jeux vidéo sur le climat, ateliers, brunchs… « pour échanger, se rencontrer et réfléchir ensemble aux grands enjeux culturels du climat et de l’écologie ». Les 3 et 4 décembre, un atelier professionnel à la Gaîté lyrique réunira les acteurs culturels et du développement durable pour favoriser l’intégration du développement durable et de ses enjeux dans le secteur culturel.
Rien qu’à Paris, une centaine d’évènements sont inscrits à l’agenda d’ArtCOP21. Ils sont à découvrir au Centre Pompidou, au Musée de l’Homme, à la Gaîté Lyrique, à la Fondation Cartier, au Musée de la Chasse et de la Nature, à l’Institut Culturel Suédois, au 104, à Universcience, au Museum national d’Histoire naturelle, sur les Berges de la Seine, au Grand Palais, à la Sorbonne, à la Tour Eiffel, dans les grandes gares parisiennes, etc.
L’association COAL Art et Écologie et l’agence LEMOAL&LEMOAL Architectes a développé la COPBox qui permet à tout citoyen d’enregistrer un message vidéo personnalisé destiné aux négociateurs de la COP21. Elle s’installera sur la place du Village de la Société Civile du Bourget prendant toute la COP21 et auparavant dans une dizaine de lieux d’Île-de-France.
par Matthieu Combe
> Retrouvez l’ensemble des programmations près de chez vous jusqu’en décembre sur http://artcop21.com.
En amont de la COP-21, les Etats-Parties doivent publier leur contribution nationale (INDC), qui présente les plans de réduction des émissions de gaz à effet de serre (GES) à partir de 2020 et éventuellement un programme d’adaptation au changement climatique. Seules des lignes directrices souples et non contraignantes ont été fixées lors de la COP-20, ce qui fait que les INDC rendues par les pays sont très différentes.
Par exemple, les INDC peuvent comprendre un objectif de réduction en pourcentage d’émissions totales par rapport à une année de référence (1990, 2000, 2005 ou bien par rapport au scénario tendanciel à l’horizon temporel visé), ou en réduction de GES par unité de PIB. L’échéance est soit 2025, soit 2030. Les objectifs peuvent concerner les les 6 GES du Protocole de Kyoto, les 7 GES du Protocole de Kyoto 2, ou seulement 3 GES (CO2, CH4 et N2O). Les pays peuvent recourir aux mécanismes de flexibilité créés par le Protocole de Kyoto, à savoir les mécanismes de développement propres ou des crédits d’émission internationaux, intégrer ou non les forêts de leur territoire comme puits de carbone. Ces contributions sont publiques et disponibles au fur et à mesure de leur publication sur un site internet.
Ce manque d’homogénéité rend difficile leur comparaison. Néanmoins, un rapport de synthèse mesurant l’ambition de toutes les contributions rendues avant le 1er octobre sera publié le 1er novembre prochain par le Secrétariat de la Convention cadre des Nations Unies sur le Changement Climatique (CCNUCC). En attendant, des ONG comme la Fondation Nicolas Hulot, avec son thermomètre des engagements, réalisent régulièrement des points d’étapes sur le niveau d’engagement des différents Etats.
Des INDC insuffisantes pour limiter le réchauffement à 2°C
Au 9 octobre, date du dernier thermomètre réalisé par la Fondation Nicolas Hulot pour la nature et l’homme (FNHNH), 148 pays sur les 195 pays ayant signé la CCNUCC avaient rendu leurs contribution nationale. Ces 148 pays représentent plus de 85 % des émissions mondiales de GES en 2012.
En analysant ces contributions et en estimant les contributions attendues à partir des premières informations disponibles, la FNHNH estime que les émissions de GES mondiales atteindront 60 gigatonnes de CO2 équivalent (GTe CO2) en 2030. « Plusieurs gros émetteurs, notamment l’Inde et la Chine ont rendu des INDC avec des hypothèses de croissance très optimistes et des objectifs de réduction de leurs émissions inférieurs à ce qu’ils pourraient atteindre avec les politiques déjà mises en place, analyse néanmoins la Fondation. Des hypothèses plus réalistes sur ces deux pays conduiraient à 56 GTe CO2 en 2030 ». La décarbonisation de l’économie tant prônée par les Etats sera malgré tout que relative dans la trajectoire actuelle. La future croissance mondiale s’accompagnera inévitablement d’une hausse globale des émissions de GES.
Selon le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC), pour avoir 2 chances sur 3 de limiter le réchauffement climatique à +2°C en 2100, les émissions mondiales de GES doivent être comprises entre 30 et 50 GteCO2/an en 2030, avec une valeur moyenne de 40 GteCO2/an. En 2010, les émissions mondiales étaient de 49 GTe CO2. Les INDC actuellement transmises ne sont donc pas en adéquation l’objectif des pays du G7 d’atteindre « le haut de la fourchette » préconisée par le GIEC. Ce surplus d’émission compris entre 6 et 26 GTe CO2/an en 2030 pour limiter le réchauffement est « non négligeable puisqu’il nous met sur la route d’une hausse des températures de 3 voire 4°C » en 2100, estime la FNHNH.
Quel budget CO2 est disponible par habitant ?
Dans les scénarios du GIEC, avec 8,4 milliards d’humains en 2030, chaque individu devra émettre au maximum entre 3,6 et 5,9 tonnes équivalent CO2 par an (moyenne de 4,8 teCO2/hab) pour limiter le réchauffement climatique à 2°C en 2100. Les trajectoires actuelles ne nous parviennent pas de parvenir à ces chiffres. « Les engagements des 148 pays correspondent à une augmentation de 22 % du total de leurs émissions à l’horizon 2030 [par rapport à 2010], relève la FNHNH. Pour ces pays, cela amène à des émissions d’environ 7,2 teCO2/habitant. »
Néanmoins, les contributions actuelles sont d’ambitions diverses. Elles vont de 1,1 teCO2 /habitant pour l’Ethiopie à 16 teCO2/habitant pour l’Australie en 2030. Tous les pays du G20 (sauf l’Union européenne, le Mexique et le Brésil) ont des engagements insuffisants « puisque leurs engagements les mènent vers des émissions supérieures à 6 teqCo2/habitant voir 10 teCO2/hab pour certains », prévoit la FNHN qui « appelle les pays les plus émetteurs du G20 à montrer l’exemple et à rehausser dès maintenant, leurs engagements de 10 à 15 points afin de respecter l’objectif adopté à Copenhague par les 195 Etats signataires de limiter la hausse des températures à 2°C ».
Parmi les pays en voie de développement ayant rendu leur contribution, 28 se sont engagés à avoir des émissions par habitant inférieures à 2 tonnes équivalent CO2 par habitant en 2030, dont le Bhutan et le Costa Rica. Mais une partie ou la totalité de leurs engagements sont conditionnés à l’existence d’un mécanisme de solidarité (moyens financiers, transferts de technologies…). Certains Etats particulièrement émetteurs n’ont pas rendu leur contribution dont notamment les pays riches en hydrocarbures (l’Arabie Saoudite, le Qatar, l’EAU, le Venezuela, l’Iran, Oman, le Nigeria, l’Angola…) mais aussi des pays fortement peuplés comme l’Egypte ou encore le Pakistan.
Les pays ont jusqu’au début de la COP21 le 30 novembre pour réhausser leurs objectifs de réduction. Mais puisque le niveau d’ambition de l’accord risque fortement de ne pas être compatible avec l’objectif des 2°C, les négociateurs prévoient que les engagements des Etats puissent être revus à la hausse par la suite afin d’être finalement compatibles avec cet objectif. Il devront créer un mécanisme obligeant les États à réviser leurs objectifs à la hausse tous les 5 ans.
Dans leur déclaration commune, 10 grandes compagnies pétrolières et gazières – Total, BP, Eni, Shell, Saudi Aramco, Statoil, Repsol, Reliance, Pemex et BG Group -, regroupées depuis 2014 au sein de l’Oil and Gas Climate Initiative (OGCI) affirment avoir diminué leurs émissions de gaz à effet de serre (GES) d’environ 20 % au cours des 10 dernières années. « Nous avons également réalisé des investissements significatifs dans le gaz naturel, le captage et le stockage de CO2 (CSC) et les énergies renouvelables, ainsi que dans la R&D pour réduire nos émissions de gaz à effet de serre et l’innovation », défendent-ils.
Ils s’engagent à renforcer leurs actions et investissements pour réduire l’intensité en GES du mix énergétique mondial. Pour ce faire, ils visent notamment l’amélioration de l’efficacité énergétique de leurs opérations et carburants, veulent augmenter la part du gaz naturel par rapport au charbon, déployer la technologie CSC et favoriser les énergies renouvelables.
Les pétroliers et gaziers auraient donc pris conscience de l’importance du réchauffement climatique et décidé d’adapter leurs process. Malheureusement, derrière ces beaux discours, l’association britannique InfluenceMap dénonce un double discours. Cette association s’est employée à recenser, analyser et noter l’influence – positive ou négative – sur les politiques climatiques des cent plus grandes multinationales et de trente associations patronales. L’objectif était de montrer l’écart entre les déclarations officielles et leurs lobbying en coulisse.
Elle en conclut que 45 % de ces 100 plus grandes entreprises mondiales font obstruction aux législations permettant de lutter contre le changement climatique. Et 95 % d’entre elles sont membres d’associations professionnelles faisant obstruction aux politiques climatiques, dont, au niveau européen, Business Europe, CEFIC (chimie) ou ACEA (automobile). Les mieux notés récoltent un B, les pires un F.
Le double discours des pétroliers et gaziers
Le classement d’InfluenceMap est sans appel. Parmi les 10 compagnies ayant signé cette déclaration commune, Shell et Eni récoltent un D, Total un E+, BP un E et Reliance un F. Les autres groupes n’ont pas été considérés.
Le 16 octobre, InfluenceMap a également publié le rapport « Les supermajors du pétrole et l’obstruction aux réglementations climatiques ». En analysant 10 000 données (déclarations publiques, consultations publiques…) portant sur 3 réformes politiques clés – la taxe carbone, le marché carbone et la régulation des émissions de gaz à effet de serre -, l’ONG montre l’opposition systématique entre les déclarations de ces entreprises et les activités de lobbying des associations professionnelles qu’elles financent.
Si l’on s’intéresse au géant pétrolier français, Total a un engagement « actif et largement négatif » sur les politiques climatiques, selon InfluenceMap L’association remarque de « fréquentes contradictions dans le message ». Bien que Total s’affiche comme activement engagé dans la lutte contre le changement climatique, « il a milité contre une réduction drastique des émissions lors de la consultation des objectifs européens pour 2030 ». D’un côté, il « a pris part à des initiatives soutenant la transition énergétique et la suppression des subventions aux énergies fossiles ». De l’autre, « il semble ausi soutenir l’utilisation future de toutes les sources d’énergie et sa campagne publicitaire 2014-2015 présentait le pétrole comme une « énergie meilleure » ».
Les entreprises pétrolières et gazières « semblent avoir transféré leur opposition directe aux législations climatiques à certaines associations professionnelles clés », note Dylan Tanner, directeur exécutif d’InfluenceMap dans un communiqué de l’ONG. « Les investisseurs et décideurs doivent être conscients que ces puissantes organisations professionnelles des secteurs de l’énergie et de la chimie sont financées par, et agissent sur instruction de, leurs membres clés et devraient donc être considérés comme des extensions des activités et positions de leurs entreprises membres », souligne-t-il.
Pour limiter le réchauffement climatique à 2°C en 2100, les scientifiques du Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC) estiment qu’il faudrait laisser les deux tiers des réserves en énergies fossiles enfouies dans le sous-sol. Si les entreprises pétrolières et gazières communiquent beaucoup sur leurs engagements, aucune n’est prête à se retirer entièrement de l’extraction des hydrocarbures. Limiter l’exploitation des gisements pour limiter le réchauffement climatique? Cela n’est pas à leur programme.
« COP », voici un acronyme bien mystérieux faisant référence à une « Conférence des Parties ». « 21 » signifie simplement qu’il s’agit de la 21e édition. Mais qu’est-ce qu’une Conférence des Parties ? C’est une conférence annuelle se déroulant sur 15 jours, généralement entre novembre et décembre. Elle réunit l’ensemble des « Parties » ayant signé la Convention cadre des Nations Unies sur le Changement Climatique (CCNUCC), lors du sommet de Rio en 1992. Cette convention reconnaît les causes anthropiques du changement climatique et la nécessité d’agir pour en minimiser les effets sur les générations futures. Elle est signée par 195 Etats et l’Union européenne en tant qu’espace d’intégration économique qui négocie pour l’ensemble des ses pays membres (28 Etats à ce jour).
La première COP (COP-1) a eu lieu en mars 1995 à Berlin et la dernière en date est la COP-20 (fin 2014 à Lima). La COP- 21 qui se déroulera à Paris du 30 novembre au 11 décembre 2015 sera décisive, car elle doit permettre d’adopter un accord incluant tous les pays du monde dans la lutte contre le changement climatique à partir de 2020. Elle devra permettre de réduire les émissions de gaz à effet de serre (GES), s’adapter au changement climatique, définir des transferts de technologie, financer l’adaptation et l’atténuation des émissions. Le seuil de réchauffement à ne pas dépasser retenu par les scientifiques est de 2°C en 2100 par rapport à la période pré-industrielle, soit 1750. Or, selon le Groupe d’experts intergouvernemental sur l’évolution du climat (GIEC), les températures mondiales ont augmenté de +0,85°C entre 1880 et 2012. Il faudra donc que l’accord limite le réchauffement à +1,15°C entre 2012 et 2100.
Une COP traditionnelle réunit entre 10 000 et 20 000 participants. Lors de la COP-21, plus de 40 000 participants sont attendus : les négociateurs, les ministres et délégations des Etats parties, des entreprises, des ONG, des syndicats, des journalistes…
Être « Partie » à la Convention, c’est accepter des devoirs !
En signant la CCNUCC, les Parties ont accepté un certain nombre d’engagements. Elles doivent par exemple rédiger et soumettre périodiquement des rapports, ou communications nationales. Celles-ci contiennent des informations sur leurs émissions de GES et les mesures prévues pour s’adapter aux impacts des changements climatiques. Les Parties doivent aussi promouvoir le développement et l’utilisation de technologies bas-carbone, sensibiliser et éduquer aux changements climatiques et à leurs impacts. Elles doivent gérer durablement les forêts et autres écosystèmes qui peuvent capter les GES dans l’atmosphère, et coopérer avec d’autres Parties dans ces domaines.
Dès 1992, la CCNUCC a prévu de diviser le monde en deux types de pays. D’une part, on trouve les pays les plus développés à l’époque, historiquement responsables des émissions de GES. Au nombre de 43 Parties, ils sont énumérés à son annexe I. On y trouve 28 pays industrialisés, 14 pays européens en transition vers une économie de marché et l’UE en tant qu’organisation régionale d’intégration économique.D’autre part, on retrouve l’ensemble des autres pays du monde, soit les pays en développement, dont les grands pays émergents d’aujourd’hui. Ils sont regroupés sous la dénomination « Parties hors annexe I ».
Les pays industrialisés, listés à l’Annexe I de la Convention, ont pris des engagements supplémentaires. Ces Parties ont initialement accepté d’entreprendre des politiques et mesures ayant pour objectif de ramener, en 2000, leurs émissions de GES aux niveaux de 1990. Les Parties à l’Annexe I devaient aussi fournir des communications nationales plus fréquentes et des rapports annuels séparés sur leurs émissions nationales de GES.
De Kyoto I…
Le Protocole de Kyoto peut renfermer des concepts flous pour beaucoup de non-initiés. Celui-ci a été adopté le 11 décembre 1997 au terme de la COP-3 à Kyoto et est entré en vigueur le 16 février 2005. Toutes les Parties de la CCNUCC ont accepté de poursuivre la mise en œuvre des engagements pris au titre de la Convention. Mais le Protocole de Kyoto fixait des objectifs contraignants de réduction d’émissions des GES pour 39 Parties (38 Etats et l’UE), énumérés à l’annexe B du Protocole. Seules 4 Parties de l’Annexe I ne sont pas Parties au Protocole de Kyoto : Belarus, Chypre, Malte et la Turquie. Si les Etats-Unis sont bien dans l’annexe B du Protocole de Kyoto, ils n’ont jamais ratifié ce traité. Le Canada, qui l’avait ratifié, s’en est retiré en 2011. Les pays en développement ont été déchargés de toute action de réduction contraignante. Etaient visées les émissions agrégées de six GES : dioxyde de carbone (CO2), méthane (CH4), oxyde nitreux (N2O), hydrofluorocarbones (HFC), hydrocarbures perfluorés (PFC) et hexafluorure de soufre (SF6). L’objectif global de réduction des GES était de 5,2 % sur la période d’engagement 2008-2012 par rapport aux niveaux de 1990.
Pour réduire les émissions, les mesures mises en oeuvre par les Parties devaient en priorité être prises sur le territoire nationale. Mais pour aider les pays industrialisés à atteindre ces objectifs juridiquement contraignants et promouvoir le développement durable des pays en développement, le Protocole de Kyoto a adopté trois mécanismes de flexibilités permettent aux Etats d’acquérir des crédits carbone supplémentaires au cas où ces mesures se révèleraient insuffisantes : le mécanisme de développement propre ou MDP, la mise en œuvre commune (MOC) et l’échange d’émissions.
Comme de nombreux accords internationaux, l’entrée en vigueur du Protocole a été conditionnée à un processus distinct et officiel de signature et de ratification par les gouvernements. La condition arrêtée pour l’entrée en vigueur du Protocole était sa ratification par 55 Parties à la Convention au minimum, parmi lesquelles les Parties visées à l’annexe I dont le total des émissions de dioxyde de carbone représentait en 1990 au moins 55 % du volume total de ce groupe. La ratification par la Fédération de Russie le 18 novembre 2004 a permis l’entrée en vigueur du Protocole le 16 février 2005. Aujourd’hui, le Protocole de Kyoto est ratifié par 192 Parties. A l’heure du bilan, le protocole de Kyoto aura permis une baisse des émissions des pays de l’Annexe B de 4 %, proche de l’objectif de 5,2 %.
… à Kyoto II
Lors de la COP-13 à Bali en 2007, la « Feuille de route de Bali » a été adoptée. Elle prévoyait un processus de deux ans avec des négociations devant s’achever en 2009 pour aboutir à un accord mondial de lutte contre les changements climatiques s’appliquant fin 2012. Mais en 2009, le sommet de Copenhague a échoué sur ce point. Après une phase de latence de deux ans, les pays ont fixé à Durban (COP-17) une nouvelle date pour la signature de cet accord : décembre 2015, à Paris, pour une entrée en vigueur cinq ans plus tard, en 2020. L’accord de Paris aurait ainsi dû être adopté à Copenhague, il y a déjà 6 ans !
A la COP-18 à Doha, fin 2012, faute d’un nouvel accord mondial, il a fallu miser sur l’existant. Un amendement au Protocole de Kyoto a été formellement adopté par plus de 190 Parties pour acter une deuxième période d’engagements, allant de 2013 à 2020. Là encore, seulement 37 Parties ont pris des objectifs contraignants de réduction des émissions de GES : l’UE des 28, l’Australie, le Belarus, l’Islande, le Kazakhstan, le Liechtenstein, Monaco, la Norvège, la Suisse et l’Ukraine. Les États-Unis n’y participent toujours pas ; pas plus que le Canada, le Japon et la Nouvelle-Zélande.
Un nouvel objectif global de réduction des émissions de GES a été fixé pour ces 37 Parties à atteindre sur la période 2013-2020 : au moins -18% par rapport au niveau de 1990. L’annexe A du Protocole de Kyoto a été amendée pour ajouter un septième GES aux six visés jusque-là, le gaz fluoré NF.
Les 37 Parties engagées ne représentent plus que 15% au maximum des émissions mondiales de GES, car les émissions des pays émergents ont littérallement explosé depuis 1992. De ce fait, la deuxième période d’engagement n’aura qu’un impact très limité sur la réduction des émissions mondiales de GES d’ici 2020. Les pays émergents et en développement, y compris le Brésil, la Chine, l’Inde et l’Indonésie, sont Parties prenantes au protocole mais ne sont pas concernés par l’engagement de réduction d’émissions. La Chine et les Etats-Unis sont pourtant les plus grands émetteurs de CO2 de la planète : ils représentent à eux deux 35% des émissions mondiales.
Désormais, la COP-21 prévoit un accord global incluant tous les pays du monde pour une application en 2020. La codification Parties à l’annexe I/hors annexe I étant dépassée,l’accord devra faire évoluer cette division binaire.
Ratifier Kyoto II avant la COP-21 serait un message fort
A l’heure actuelle, 195 Parties ont déposé leurs instruments de ratification, d’accession, d’approbation ou d’acceptation du protocole de Kyoto. Mais concernant Kyoto II, c’est une autre paire de manche. Les gouvernements portant leur attention sur les préparatifs pour trouver un accord post-2020 et d’autres questions plus pressantes, le taux de ratification national pour valider pleinement la deuxième période d’engagement est très lent.
Au 1er septembre 2015, seules 43 Parties l’avaient ratifié, dont uniquement 4 des 37 Parties ayant souscrit à des engagements de réduction, à savoir le Liechtenstein, Monaco, la Norvège et la Suisse. Cet amendement ne pourra entrer en vigueur que lorsque 144 Parties l’auront ratifié. Espérons que cela arrive 2020.
Minority Report, plus si loin ? Après Predpol, le logiciel de prédiction algorithmique utilisé par la police new-yorkaise pour prédire à quel endroit les risques de délits sont les plus probables, voici le dernier programme de Hitachi.
L’algorithme de l’entreprise niponne prétend aller plus loin. Son système, “Visualization Predictive Crime Analytics” (PCA), permettrait de prédire le lieu et l’heure des crimes – et pas simplement d’en avoir une estimation statistique.
Selon le site Quartz, le logiciel puise “dans les données des réseaux de transport, les conversations sur les réseaux sociaux, les bulletins météo, et plus encore”. Selon Hitachi, interrogé par Fast Company, les messages postés sur le réseau social Twitter sont particulièrement utiles, car ils augmentent la précision du PCA de 15%, grâce à la géolocalisation des tweets et aux hashtags (mots-clés). Car c’est bien connu, les criminels sont aussi sur Twitter, et parlent en public de leurs forfaits.
Une “zone à risque” de 200 m2
Le logiciel japonais est bien sûr loin d’être un programme « miracle ». Comme Predpol, en réalité, il ne fait que donner un « pourcentage de risque », avec la nature du crime probable. Mais les résultats seront plus précis, Predpol ne se basant que sur des données de la police, et non sur des données collectées un peu partout sur le Web. Une zone à risque de 200 m2 est constituée, avec un pourcentage de risque.
Selon l’un des responsables du projet, cité par Fast Company, PCA permettra de faire gagner du temps à la police, car “un humain ne peut pas gérer quand il y a des dizaines ou des centaines de variables qui pourraient influer un crime”. Le logiciel n’aurait, en outre, pas besoin d’intervention humaine. Et cerise sur le gâteau, « il apprend tout seul », selon le principe du Machine Learning.
Subsiste hélas l’éternel problème des faux positifs. Ainsi, le risque reste grand de patrouiller dans une zone où il ne se passera en réalité rien, et d’interpeller à tort un innocent, suivant les préjugés des policiers, pendant les fameux « contrôles au faciès ».
Selon Hitachi, “une demi-douzaine” de villes américaines, dont Washington, devraient tester ce programme prochainement.
La fabuleuse machine à construire des ponts en Chine
On ne perd pas de temps en Chine. L’empire du Milieu n’en finit pas de construire des routes, des ponts, des villes, afin de parfaire le maillage de son gigantesque territoire, peuplé par plus d’1,3 milliards d’habitants. Pour débuter notre quatre-vingt-cinquième Revue du Web, concentrons-nous sur la fantastique machine de la Beijing Wowjoint Machinery Company, un molosse de 580 tonnes pour 92 mètres de long, capable d’assembler un pont de la plus belle des manières.
Plutôt que d’utiliser une classique grue de chantier ou une grue sur chenilles, les Chinois se servent ici du SLJ 900/32 pour acheminer puis soulever et enfin déposer minutieusement une gigantesque portion de tablier sur deux piles d’un pont en construction. Une fois en position sur le pont, le mastodonte étend son bras horizontalement jusqu’à la prochaine pile pour y prendre appui, puis fait lentement coulisser le segment de tablier avant de le faire descendre très précautionneusement sur les deux piles en place. Il ne reste plus alors à l’engin qu’à rétracter son bras, une fois le travail accompli.
« Petit » bémol néanmoins, six ponts se sont effondrés en Chine en 2012… Bien que ces constructions n’aient à priori aucun rapport avec notre méga-machine – la mauvaise qualité des matériaux, le manque de fiabilité des fondations et la corruption des apparatchiks du régime seraient à pointer du doigt – il serait dommage de ne pas réussir à maîtriser toutes les étapes avec autant de brio que l’assemblage présenté dans la vidéo ci-dessus.
Le ballet des quadricoptères autonomes, construisant un pont de corde
On reste dans la thématique des ponts avec l’école polytechnique fédérale de Zurich et son projet de construction d’un « pont de singe » en corde par une petite flottille de drones autonomes. Reliant deux échafaudages distants de 7,4 mètres, le pont suspendu est constitué de neuf segments de corde pour une longueur totale de corde utilisée de 120 mètres. Le matériau composant la corde n’est pas anodin : commercialisé sous le nom de « Dyneema », ce polyéthylène de masse molaire très élevée a un excellent rapport poids/résistance.
Une fois les rudiments concernant la construction de structures suspendues bien « appris » (et codés sous forme d’algorithmes) les quadricoptères réalisent seuls les connexions, liens, tressages et nœuds divers entre la structure et les cordes, puis entre les segments de corde eux-mêmes. Équipés de bobines motorisées leur permettant de contrôler la tension du cordage durant son déploiement, les quadricoptères déroulent leur petite chorégraphie sans accroc, aidés par un système vidéo de capture de mouvements, offrant à chaque instant le positionnement exact de chaque drone, ainsi qu’une évaluation comportementale de chacun des appareils volants.
Un moteur V6 en papier complètement fonctionnel
Aliaksei Zholner est doué avec ses mains. Le jeune prodige du « do it yourself » n’hésite pas à le prouver régulièrement sur sa chaîne youtube, exclusivement dédiée à son hobby, la miniaturisation, et à ses nombreuses réalisations. Féru de mécanique, le biélorusse s’est mis en tête de réaliser un moteur V6 complètement fonctionnel… mais en papier ! Tout est bien là, bielles, pistons et cylindres de papier, actionnés d’abord avec précaution manuellement, puis par un ballon de baudruche, ersatz cheap mais efficace d’un système à air comprimé. Seules les surfaces des pistons sont renforcées à l’aide de ruban adhésif.
Le gadget (inutile?) de la semaine : le retour de Colin Furze
Vous vous souvenez de Colin Furze, l’inventeur le plus dangereusement enthousiaste du monde ? Nous vous parlions déjà de son univers loufoque ici et là, réalisant sur sa chaîne Youtube un grand écart inquiétant entre l’univers Marvel et le « Jet Bicyle », qu’il définit lui-même, non sans fierté, comme le vélo le plus dangereux au monde. La bonne nouvelle, c’est qu’il a survécu, envers et contre tout. La mauvaise nouvelle, c’est qu’il continue de faire des doigts d’honneur à sa bonne étoile, garantissant ainsi un bel avenir à notre rubrique du gadget (inutile?) de la semaine qui, vous l’aurez compris, lui est consacrée.
Le jeune inventeur s’est cette fois-ci mis en tête de concevoir un propulseur de grappin ainsi qu’une lame de couteau rétractable, tout droit tirés de la franchise de jeux vidéos à succès « Assassin’s Creed », développée par le géant français Ubisoft. Alors que le sixième opus vient de sortir un peu partout dans le monde, Colin Furze se fend la poire avec ses nouveaux joujoux ultra-dangereux. Il ne fait aucun doute que la bonne étoile du jeune Anglais a encore du pain sur la planche.
Bonus : on frôle les Darwin Awards à l’aide d’un airbag (et d’un pneu)
Pour conclure cette quatre-vingt-cinquième Revue du Web, on touche au génie avec ce groupe de trentenaires américains qui a eu la – très – lumineuse idée de poser un pneu de voiture sur un airbag, au beau milieu d’un petit carré de pelouse entouré par des voitures, des maisons, la route à proximité et… leurs têtes, non protégées. Une fois l’airbag actionné, la magie opère. Sans surprise, le pneu est littéralement propulsé à plusieurs mètres de hauteur sous la puissance du déclenchement du dispositif de sécurité, pneu que les principaux protagonistes semblent même perdre de vue.
Après un suspense insoutenable, le pneu revient dans le champ de la vidéo… en s’écrasant lourdement sur le toit d’une voiture à proximité, provocant l’hilarité consternée des expérimentateurs en herbe. On frôle ici un Darwin award – prix satirique venant récompenser des personnes décédées suite à un comportement stupide, remerciées ainsi d’avoir « contribué à l’amélioration globale du patrimoine génétique humain » – somme toute bien mérité.
L’ADEME a étudié une dizaine de mix électriques potentiels à l’horizon 2050, présentant une part d’énergies renouvelables (ENR) de 40 %, 80 %, 95 % ou 100 %. Suivant un cas de référence, différentes hypothèses ont été testées en fonction de divers critères d’appropriation sociétale, de coûts des énergies, d’accès au financement ou encore de maîtrise de la demande.
Dans son scénario de référence à 100 % d’ENR, le parc électrique français aurait une puissance de 230 gigawatts (GW), à comparer aux 128,9 GW de fin 2014. L’évolution du mix électrique reposerait avant tout sur le développement de l’éolien, du solaire et des moyens de stockage. Entre 2014 et 2050, l’éolien passerait de 9,1 GW à 96 GW, l’éolien en mer de 0 à 10 GW et le solaire de 5,3 GW à 63 GW. Pour répondre à l’intermittence, il faudrait alors une capacité de stockage de 36 GW par des moyens hydrauliques (station de transfert d’énergie par pompage), des batteries, des stockages à air comprimé et du « power to gas to power » (stockage de la surproduction électrique grâce à sa transformation en gaz, puis à nouveau en électricité). Ces nouvelles capacités qui viendraient en remplacement des réacteurs nucléaires et des centrales thermiques à énergie fossile permettraient de produire 481 térawattheures (TWh) en 2050, pour une consommation nationale de 422 TWh. La production électrique serait ainsi assurée à 63 % par l’éolien terrestre et en mer, 17 % par le solaire, 13 % par l’hydraulique et 7 % par la géothermie et la biomasse.
Quel coût pour les scénarios majoritairement renouvelables ?
Mettre en place un mix électrique à 100 % renouvelable nécessiterait des adaptations très importantes du système électrique, mais le coût global serait vraisemblablement du même ordre de grandeur qu’un mix à 40 % d’ENR et 50% de nucléaire, un scénario proche des objectifs de la loi de transition énergétique pour la croissance verte, promulguée cet été, pour l’horizon 2030.
Dans son scénario de référence à 100 % d’ENR, l’ADEME estime que chaque mégawattheure (MWh) d’électricité coûterait 119 euros hors taxe. 65 % des coûts sont dus aux moyens de production, 27 % au développement du réseau et 8 % au stockage et à la flexibilité de la demande. Ce coût est quasiment identique à un mix énergétique composé à 40 % de renouvelables (117 euros/MWh). Il est intéressant de noter que dans les scénarios à 80 % et 95 % d’ENR, le MWh d’électricité revient moins cher que dans le scénario à 40 %. Dans ces deux premiers cas, les tarifs s’élèvent respectivement à 113 € et 116 €, contre 117 € pour le scénario à 40 %.
Dans cette étude, l’ADEME estime que les paramètres influençant le plus le coût de l’électricité à base de renouvelables sont l’acceptabilité sociale des énergies renouvelables, les progrès technologiques d’ici 2050 et la maîtrise de la demande d’énergie. « Des valeurs défavorables pour ces différents paramètres génèrent des surcoûts de l’électricité compris entre 5 % et 14 %, note l’ADEME. A contrario, l’accès à un financement à faible taux d’intérêt permet une baisse de 14 % de ce coût. » Suivant les scénarios étudiés, les coûts varient donc de 103 € à 138 € par MWh. Sur la base des hypothèses retenues, le scénario de référence à 100 % renouvelables est estimé à seulement 2 % de surcoût par rapport à un mix 40 % renouvelable. En cas de faible maîtrise de la demande, le surcoût est évalué à 5 %.
Le mix électrique serait-il robuste ?
Plusieurs conditions ont été retenues pour assurer l’équilibre offre-demande sur le réseau et maîtriser les coûts tout au long de l’année. Pour y parvenir, il faudrait développer des outils de pilotage de la demande à hauteur de 60 TWh pour maîtriser la pointe, développer les solutions de stockage, continuer à faire baisser le prix des technologies les moins matures grâce au progrès technologique et mettre en place des conditions de financement appropriées. Dans ces conditions, les mix ont été testés sur 7 années de température, d’ensoleillement et de vent. Résultat : l’équilibre offre-demande est assuré à toute heure.
Cette étude s’appuie sur un développement décentralisé des énergies renouvelables pour exploiter au mieux les gisements par filière et par région. La robustesse de ce mix renouvelable repose donc également sur le développement de lignes inter-régionales. Celles-ci augmenteraient de 36 %. « Même si les moyens de production du mix 100% ENR sont très décentralisés, le réseau permet d’acheminer l’électricité parfois produite en surplus localement au gré de la météo pour compenser des déficits de production ailleurs sur le territoire », projette l’ADEME. C’est la notion de « foisonnement » sur le territoire des moyens de production, qui va à l’encontre de l’héritage centralisé des réacteurs nucléaires et des centrales thermiques. Outre les interconnexions inter-régions, les interconnexions existantes avec les pays voisins seraient exploitées. Dans les modélisations, nos voisins européens ont des mix électriques à 80 % renouvelables. « Toutes les importations d’électricité sont compensées par des exports d’électricité renouvelable produite en France », insistent les auteurs.
Bruno Lechevin, président de l’ADEME, signale que cette étude n’est pas un « scénario politique » mais bien « une étude scientifique à caractère prospectif et exploratoire ». De leurs côtés, les auteurs de l’étude sont clairs : ce travail n’est qu’un début. « La modélisation du réseau évalue précisément les besoins de renforcement du réseau de transport, mais est moins précise pour le réseau de distribution. Ainsi, si d’autres travaux devront être menés pour consolider ce travail, cette étude alimente utilement la réflexion pour identifier les mesures qui permettront d’accompagner une politique de croissance des énergies renouvelables électriques. »
L’Arctique est généralement décrite comme la région entourant le pôle Nord mais plusieurs définitions existent. La limite généralement admise est donnée par le cercle Arctique, où lors des solstices la nuit ou le jour durent 24 heures. Une autre définition s’appuie sur la courbe isotherme des 10 C°, qui marque la limite au-delà de laquelle la végétation mue. L’Arctique est une zone stratégique en raison de sa position géographique mais pendant longtemps, les conditions météorologiques hostiles et l’épaisse banquise ont empêché son exploitation. Depuis, la réduction de la calotte glacière en été s’est accélérée, et d’aucuns n’hésitent pas à annoncer déjà que la région, avec ses 4 millions d’habitants essentiellement autochtones, va devenir le prochain Eldorado. Si la réduction de la banquise est certes un changement de paradigme majeur, plusieurs indices incitent à la retenue.
Peuples indigènes et zones protégées de l’Arctique
Génèse
Le dépôt du dossier russe auprès de la commission des Nations-Unies chargée de valider les limites du plateau continental n’est pas une surprise. Cela fait déjà 15 ans que Moscou tente d’élargir sa souveraineté sur le Grand Nord, en vain. « Pour revendiquer ces espaces maritimes en Arctique, la Russie doit prouver par des preuves géologiques le prolongement de son plateau continental. C’est ce qu’elle a essayé de faire en 2001 avant d’être déboutée par manque de bases scientifiques », rappelle Frédéric Lasserre, directeur du Conseil québécois d’études géopolitiques à l’Université de Laval. Depuis, le Kremlin a relancé des études géologiques pour étayer son dossier.
Plus récemment, en 2007, les images d’un bathyscaphe de la marine russe plantant à la verticale du pole, à 4 261 mètres de profondeur, un drapeau en acier inoxydable, ont fait le tour du monde. Pour les médias, la course à l’Arctique et à ses potentielles richesses était lancée.
Objet de tous les fantasmes
Longtemps considéré comme un espace gelé, peuplé par d’éparses communautés, l’intérêt pour l’Arctique a grandi. Si durant la Guerre Froide, elle a été l’un des terrains de jeu favoris des sous-marins américains et soviétiques, la région attire désormais tous les regards en raison des importantes ressources naturelles inexploitées qu’elle recèlerait. Au premier rang desquelles de nombreux minerais. Au Canada, la région du Nunavut abrite des ressources en plomb, zinc, diamant, argent, or et cuivre. L’Arctique russe présente de fortes concentrations d’or, d’étain, de cuivre, de diamant, et de nickel.
Le Groenland est dans une situation atypique. Sous domination danoise, le territoire dispose d’une certaine autonomie. Il a été décidé en 2009 qu’il serait le bénéficiaire direct des revenus issus de l’exploitation minière. De nombreuses licences d’exploration ont été concédées, notamment au sud-ouest, ouvrant la voie à la production d’uranium (jusque-là interdite) et de terres rares. Le Groenland pourrait représenter 13% des réserves de ces métaux précieux que l’on trouve essentiellement en Chine et qui servent aux hautes technologies. A terme, les revenus miniers pourraient dépasser la dotation de 450 millions d’euros que le Danemark verse chaque année à l’île glacée, ouvrant la voie à une probable indépendance.
Autres ressources naturelles : les hydrocarbures. L’Arctique abriterait quelque 100 milliards de barils de pétrole et 40 000 milliards de mètres cube de gaz techniquement récupérables. Cela représente 3,5 années de consommation pétrolière et 15 années de gaz au rythme actuel, et respectivement 13% et 30% des réserves de pétrole et de gaz non découvertes. Un potentiel important qui se révèle chaque année un peu plus avec la réduction de la banquise. Certains gisements ont déjà commencé à être exploités notamment en Russie (Yamal) et aux Etats-Unis (Prudhoe Bay).
Carte des ressources naturelles de l’Arctique
Mais ces chiffres sont à prendre avec précaution sachant que les rares estimations proviennent soit de l’US Geological Survey, soit du gouvernement russe. Les compagnies pétrolières qui ont lancé des campagnes d’exploration afin de confirmer le potentiel de la région ont eu des résultats décevants. La compagnie Shell a ainsi annoncé en septembre l’abandon des opérations d’exploration au large de l’Alaska, après avoir dépensé pas moins de 7 milliards de dollars. Opérer une plateforme en Arctique représente en effet un défi technique considérable pour résister aux conditions climatiques, aux glaces dérivantes et aux mouvements de la banquise. Cela induit des surcoûts importants que les cours actuels du baril ne peuvent couvrir. Le secteur estime qu’il faudrait un prix plancher de 110-120$ le baril pour que l’exploitation soit rentable. Avec un baril oscillant actuellement entre 45 et 50$, la volte-face des compagnies pétrolières n’est pas une surprise.
Raccourcis maritimes
La réduction de la banquise se traduit de deux manières. La première est l’augmentation du trafic maritime local qui entraîne une croissance des échanges et du développement économique en général. La deuxième a une portée internationale. Certains passages maritimes qui étaient jusque-là impraticables deviennent accessibles. Ainsi la route du Nord-Est longe les côtes russes, et permet de relier les ports de Rotterdam et de Tokyo sur seulement 14 000 kilomètres contre 21 200 km par le canal de Suez et 23 300 km par le canal de Panama. Le passage du Nord-Ouest, qui longe le Canada et les Etats-Unis, serait lui plus court pour les navires quittant Yokohama (Japon) pour rejoindre la Méditerranée en reliant Marseille par exemple. La libération de ces routes maritimes par les glaces offrirait une alternative intéressante pour les transporteurs qui s’affranchiraient ainsi de certains goulets d’étranglement comme Suez ou Panama. Ces liaisons ne sont pour l’instant navigables que deux à trois mois par an, en été. Dans les prochaines années cette période pourrait s’étendre de 3 à 6 mois, leur permettant ainsi de devenir de véritables « routes maritimes saisonnières ».
Pour autant, F. Lasserre ne voit pas la région devenir le hub maritime que certains prédisent : « En 2014, quelque 40 navires ont emprunté la route du nord dont un seul commercial. L’essentiel du trafic est à usage local (pêche, transport, exploitation). La structure de l’activité maritime commerciale correspond mal à l’Arctique. Elle a besoin d’un haut degré de fiabilité (moins pour le vrac) et de ponctualité. Ainsi contrairement aux autres routes, impossible de connaître 6 mois à l’avance l’état des passages arctiques. C’est une importante contrainte pour ce secteur. Par ailleurs, il existe finalement peu de lignes directes rentables telle que Rotterdam-Singapour. Dans les faits, les navires font beaucoup d’escales rendant l’alternative arctique moins pertinente ».
Intérêt international
Les Etats riverains ne sont pas les seuls à s’intéresser à l’Arctique. La France et l’Allemagne ont ainsi été les premiers à demander et obtenir le statut d’observateur au Conseil de l’Arctique, institution créée en 1996, dédiée à la protection de l’environnement, et depuis peu, à la coopération économique des huit nations du cercle arctique. Le couple franco-allemand a depuis été rejoint par l’Italie, le Japon, la Corée du Sud, Singapour, l’Inde et la Chine. Cette dernière est perçue avec méfiance par les Etats-Unis qui la voient multiplier des accords de partenariat avec certains pays de la région. L’Islande est ainsi devenue un partenaire de choix pour Pékin. Lors de la visite officielle du Premier ministre chinois de l’époque, Wen Jiabao, à Reykjavík, en avril 2012, la Chine a signé six accords de coopération dans les domaines de l’énergie et des sciences et technologies.
Cette diplomatie économique s’accompagne désormais de mouvements militaires. Des navires de combat chinois ont ainsi été vus en septembre dernier croisant dans la région. Il s’est avéré que des opérations d’entraînement étaient menées conjointement par les marines russe et chinoise. Une coopération qui n’est pas sans déplaire à Barack Obama qui a annoncé son intention d’augmenter la flotte de brise-glace (se résumant actuellement à deux) pour renforcer sa présence dans le Grand Nord. Une annonce qui a eu lieu quelques jours après le retour de mission du sous-marin nucléaire américain USS Seawolf sous le Pôle Nord.
Les Etats-Unis ont, en l’occurrence, une position ambiguë car s’ils veulent montrer ainsi leur détermination à défendre leurs intérêts en Arctique, ils sont en revanche exclus du processus onusien de reconnaissance de souveraineté. Et pour cause, « ils sont le seul pays à ne pas avoir ratifié le droit de la Mer. Une frange conservatrice du Congrès conserve depuis des années une minorité de blocage. Or, seul un pays signataire de la convention peut prétendre bénéficier de ses règles pour étendre sa souveraineté maritime. Les présidents Bush et Obama ont sondé le terrain, en vain. Il est donc peu probable de voir Washington déposer un dossier à l’ONU avant 15 ou 20 ans », estime F. Lasserre. D’ici là, il y a fort à parier que les autres Etats de l’Arctique auront pris un train d’avance.
Négociation
Entre les potentiels pétrolier, gazier, minier et les nouvelles routes maritimes qui s’ouvrent, on comprend mieux l’insistance de Moscou à voir reconnaître sa souveraineté sur une partie aussi vaste de l’Arctique. Mais la Russie n’est pas la seule sur les rangs. « La Norvège a déposé son dossier en 2006. Il a été validé l’année suivante. Le Danemark a lui tenté sa chance récemment, en 2013, mais la chronologie n’a pas d’importance. Car en cas de chevauchement entre les revendications, il revient aux Etats concernés de négocier une solution. En aucun cas la Commission de l’ONU ne trace de frontière », indique F. Lasserre. Un détail d’importance car il impliquera logiquement la tenue de négociations bilatérales voire trilatérales pour un même espace maritime.
Malgré les énormes enjeux, les revendications des Etats riverains semblent favoriser la négociation. Ainsi, Moscou et Oslo ont signé en 2010 un accord qui règle définitivement le différend frontalier en mer de Barents qui durait depuis plus de quarante ans. Ce type de tractations devrait se multiplier dans les prochaines années, notamment autour de la dorsale de Lomonossov.
Autre litige, le pôle Nord. Il est très prisé par les Etats riverains. F. Lasserre s’en amuse : « C’est purement symbolique, il n’y a rien là-bas. Mais l’opération sous-marine russe en 2007 a marqué les esprits. Son but était électoraliste avant tout. Au Canada, l’ex-Premier ministre Harper a quant à lui demandé aux fonctionnaires en charge du dossier de prolonger les revendications jusqu’au pôle. Là encore, seule le symbole motivait cette demande ».
Stratégie de long terme
Ces négociations et la relative stabilité politique qui en découle pourrait surprendre en raison des enjeux. « L’Arctique n’est pas une région conflictuelle comme on l’entend parfois, au contraire, elle est très stable », confirme Joël Plouffe, chercheur à l’Observatoire de la politique et la sécurité de l’Arctique (OPSA). Il y a en effet un décalage entre le traitement médiatique de l’Arctique depuis 2007, et la réalité des faits. Si l’intérêt des Etats pour la région est réel, on est loin de la « bataille pour l’Arctique », et ce, pour plusieurs raisons. Comme on l’a vu, l’exploitation des ressources naturelles reste un enjeu technique et économique. Par ailleurs, selon les estimations, entre 90% et 95% des potentielles réserves d’hydrocarbures se situeraient à l’intérieur de la zone économique exclusive (ZEE) des pays riverains. Les richesses que recèle l’Arctique seraient donc en grande partie déjà partagées et la conquête de nouveaux espaces ne changera probablement pas la donne en la matière.
L’Arctique ne devrait pas non plus devenir à court terme la zone de fort transit maritime internationale comme on l’entend parfois. Car bien que des passages s’ouvrent, la navigation reste complexe. La zone est encore mal connue, mal cartographiée selon les zones. Il faudra du temps pour dompter cette région en pleine mutation écologique. La Russie et les autres puissances régionales devront consentir des investissements colossaux pour mettre en place un système cohérent de stations météo, de satellites de navigation, de communication et de surveillance. Tel est le prix à payer pour disposer, demain, des moyens nécessaires pour étendre son influence dans cette région assurément géostratégique.
Le monde des télécoms est en pleine ébullition sur le continent africain qui est passé de zéro connexion à la téléphonie mobile, en zappant l’étape téléphone fixe. Résultat, le nombre d’utilisateurs des services mobiles croît deux fois plus vite que la moyenne mondiale. Avec environ 1,1 milliard d’habitants, l’Afrique est la deuxième région du globe la plus connectée après l’Asie-Pacifique.
Mais le développement des nouvelles technologies se heurte au manque d’infrastructures dans de nombreux pays. La construction de réseaux à haut débit (ADSL), voire à très haut débit (fibre optique), est un investissement colossal. Désirant attaquer ce marché à très fort potentiel, les géants du web ont décidé d’employer les gros moyens.
Selon un accord pluriannuel conclu avec l’Israélien Spacecom, Facebook et l’opérateur européen Eutelsat vont exploiter les capacités haut débit du futur satellite AMOS-6. Mis sur orbite d’ici la fin de l’année, il couvrira une large part de l’Afrique subsaharienne. « Nous ferons en sorte d’offrir des solutions Internet fiables et à des prix avantageux, pour que davantage d’usagers puissent surfer et bénéficier ainsi de l’économie de la connaissance », s’est enthousiasmé Michel de Rosen, PDG d’Eutelstat.
L’accès à Internet par satellite n’est pas le seul projet de Facebook. Début 2015, il avait testé son projet Ascenta qui consistait à déployer Internet pour tous grâce à des drones.
Autre preuve de l’intérêt de Facebook pour l’Afrique : l’ouverture de son premier bureau africain à Johannesbourg. Objectif : renforcer ses liens avec les entreprises afin d’augmenter ses recettes publicitaires provenant de plus en plus de l’internet mobile. « Au premier trimestre 2015, 52 % de nos recettes publicitaires totales provenaient des régions extérieures aux États-Unis et au Canada. Mais ce n’est qu’un début », précise Nicola Mendelsohn, vice-présidente de Facebook pour la région Europe/Moyen-Orient/Afrique (EMEA). En Afrique, plus de 80 % de ses utilisateurs se connectent depuis leur smartphone.
Mais le réseau social n’est pas le seul à s’intéresser à ce continent. Google envisage de développer les réseaux à haut débit sans fil en Afrique subsaharienne grâce à des ballons dirigeables. Envoyés à haute altitude (jusqu’à 30.000 mètres), ils peuvent transmettre des signaux à travers des centaines de kilomètres carrés. Baptisé Loon, ce projet prévoyait au départ de servir de relais en Wi-Fi vers des stations de base à terre. Aujourd’hui, Google opterait pour une version « light » de la 4G. Une alternative moins coûteuse que le déploiement d’antennes-relais classiques. Selon le moteur de recherche, les smartphones pourraient bénéficier d’un débit de 5 mégabits par seconde tandis que des antennes fixes profiteraient d’un débit de 22 Mbit/s.
Pourquoi les géants comme Google et Facebook soutiennent-ils de tels projets d’internet gratuit ? Parce que le continent présente un potentiel énorme. Selon une autre étude de McKinsey réalisée fin 2014, l’Afrique a certes en moyenne moins de personnes connectées à Internet (21 internautes pour 100 personnes) que la Russie (61), le Brésil (52) ou la Chine (46). Mais les pays africains les plus avancés (Maroc, Égypte, Afrique du Sud) ont des taux nettement plus élevés (jusqu’à 56).
Selon cette enquête, les attaques ont progressé de 38 % dans le monde en 2015. La France n’est pas épargnée. C’est d’ailleurs le pays le plus touché ! Dans l’Hexagone,« les entreprises ont subi en moyenne 21 incidents par jour en 2015. Les incidents de cybersécurité ont donc augmenté de 51 % au cours des 12 derniers mois en France, tandis qu’au niveau mondial, ils ont enregistré une hausse de 38 % », explique Philippe Trouchaud, associé PwC spécialiste de cybersécurité.
Où se trouvent ces attaquants ? A l’intérieur des entreprises elles-mêmes ! Cette année encore, c’est la principale source des compromissions de données. Mais cette étude révèle aussi que la responsabilité des fournisseurs et des prestataires de service actuels est de plus en plus importante. Elle a augmenté d’environ 32 % pour les fournisseurs et de 30 % pour les prestataires de services.
De nombreuses entreprises françaises du CAC40 ont été victimes de fuites de données sensibles qui se trouvaient en effet chez leurs avocats (contrats confidentiels), leur agence de communication (plan de com’) ou leur architecte (plan du réseau de vidéosurveillance par exemple).
« Nous constatons depuis quelques mois une prise de conscience des entreprises du CAC40. C’est peut-être dû à l’effet Sony (en décembre 2014, des hackers avaient pénétré le système informatique de Sony Pictures, NDLR). Cette affaire a fait prendre conscience aux PDG de ces grandes sociétés qu’ils pouvaient sauter après une attaque informatique. Ce fut d’ailleurs le cas après le piratage de Target. L’un des plus gros distributeurs américains a été victime en janvier 2014 d’une attaque informatique qui aurait touché près de 70 millions de clients. Certains patrons nous ont avoué qu’ils ne voulaient pas être les prochains éjectés ! Pour de bonnes ou de mauvaises raisons, cette prise de conscience a un impact : elle se généralise à toute la structure de l’entreprise », explique Erwan Keraudy, CEO de CybelAngel, une entreprise de détection de fuites de données et de piratages informatiques.
Cette prise de conscience se traduit notamment par une augmentation (en moyenne de 29 %) des budgets de Sécurité des entreprises françaises. Ces investissements budgétaires visent à réduire l’impact des attaques sur les résultats des entreprises. En effet, selon PWC, les pertes financières liées à des incidents de cybersécurité sont estimées en moyenne à 3,7 millions d’euros par entreprise en France, soit une augmentation de 28 % par rapport à 2014.
Ces investissements se portent sur l’intégration de solutions classiques (pare-feu, analyses de risques, contrôle des identités…) mais sur le Cloud. Selon l’étude, 69 % des répondants ont déclaré utiliser des services de sécurité basés sur le Cloud pour protéger les données sensibles, les informations consommateurs et assurer le respect de la vie privée. Mais l’intérêt pour le Cloud pourrait être pénalisé après la décision de la Cour de justice de l’Union européenne (CJUE) d’invalider une décision prise par la Commission européenne le 26 juillet 2000.
Mais la situation ne sera certainement pas aussi facile à contrôler avec l’explosion de l’internet des objets (plus de 30 milliards d’ici 2020), c’est-à-dire tous les appareils et capteurs (grand public et industriel) connectés au web. L’internet des objets démultiplie les enjeux en termes de sécurisation des réseaux basés sur le Cloud rappelle PWC. Certes, les investissements destinés à répondre à ces enjeux ont doublé en 2015. Mais seuls 36 % des répondants ont une stratégie dédiée à l’internet des objets.