Google : entre informatique et innovations

En août 2015, Google connait une importante réorganisation. Le groupe Google, devenu le groupe Alphabet, comprend désormais 38 filiales. On peut distinguer 7 branches principales, regroupant une ou plusieurs filiales : Google, recherche, santé, urbanisme, domotique, fournisseur d’accès à Internet et Investissements.

Alphabet : qui fait quoi?

La filiale Google garde les marques les plus connues du grand public dont les activités concernent Internet ou l’informatique, tel que le moteur de recherche, YouTube, Android, Google Play, Google Livres, Google Adwords et Adsense… La recherche concernant les technologies du futur se fait au sein du laboratoire X. ATAP est la branche R&D de la filiale Google sur le numérique du future, racheté à Motorola en 2013. Elle cherche à s’ancrer dans la réalité avec des échéances beaucoup plus courtes.

La division Life Sciences (santé) comprend Calico, l’entreprise spécialisée dans la lutte contre le vieillissement, et travaille, entre autres, sur des projets liés à l’ADN ou aux lentilles de contact connectées. On y trouve aussi Lift Labs, une entreprise spécialisée dans la création de couverts adaptés pour les personnes atteintes de maladies neurodégénératives. Les autres grandes filiales d’Alphabet sont Nest (domotique et objets connectés), Fiber (fournisseur d’accès à Internet),  Sidewalk Labs (technologies et urbanisation pour les smart cities), Capital (finance), et Ventures (investissements).

Quel est le chiffre d’affaires des filiales?

La filiale Google représente à elle-seule presque tous les bénéfices. Son chiffre d’affaires s’élève à 74,54 milliards de dollars en 2015,  en hausse de 13,5% par rapport à 2014. Son résultat opérationnel est en hausse de 23%, à 23,4 milliards. Cette hausse de résultat (+4,42 milliards d’euros) permet de financer les pertes essuyées par les autres filiales d’Alphabet. Le résultat opérationnel des autres filiales accuse en effet une perte de 3,57 milliards d’euros en 2015. Alphabet, dans son ensemble, augmente son bénéfice net de 12 % sur l’ensemble de l’année, à 15,8 milliards de dollars.

Alphabet exige désormais des retours sur investissements plus rapides à ses filiales. Gare aux entreprises non rentables! Le Financial Times révèle que la holding cherche ainsi à se séparer du fabricant de robots Boston Dynamics, une entreprise que Google avait racheté en 2014. La raison : l’entreprise ne serait pas en mesure de concevoir un produit commercialisable dans les prochaines années.

Miser sur le futur : X et Google ATAP

Le laboratoire X travaille sur de nombreux projets innovants, dont les plus connus sont les lunettes connectées (Google Glass) et les voitures autonomes (Google Cars). Mais les équipes travaillent sur d’autres sujets : des ballons délivrant une connexion Internet équivalent à la 3G (projet Loon), des drones volants autonomes (Projet Wing) et des turbines volantes capables de produire de l’électricité avec la force du vent (Makani Power).

ATAP développe des produits qui sont également très attendus. Par exemple, la technologie du projet Tango permet de modéliser l’environnement en 3D en temps réel. Le constructeur chinois Lenovo a intégré la technologie dans son smartphone Phab Pro 2. Le Projet Jacquard développe de son côté des composants pour connecter n’importe quel textile. Première commercialisation issue du projet, une veste en jeans sera vendue par Levi’s au printemps 2017. Le projet Ara de smartphone modulaire auquel on peut ajouter ou retirer n’importe quel module (caméra, mémoire, capteurs,…) devrait être commercialisé en 2017. Enfin, le projet Soli développe quant à lui un micro-processeur agissant comme un radar détecteur de mouvements. Il permet d’utiliser ses mains et ses doigts pour interagir avec des appareils, sans avoir à les toucher. Sa date de commercialisation n’est pas encore annoncée.

Le pari de l’intelligence artificielle

Google mise sur l’intelligence artificielle pour faire progresser ses produits, qu’il s’agisse de reconnaissance vocale, de traduction automatique, de reconnaissance d’images ou de recommandations de vidéos sur YouTube.

Google Brain est son équipe consacrée au « deep learning » ou « apprentissage statistique profond», une technologie qui bouleverse le champ de l’intelligence artificielle. DeepMind, une start-up rachetée par Google en 2014, a développé AlphaGo, le premier programme capable de battre l’humain au jeu de go. Le 16 juin 2016, Google a ouvert son troisième grand pôle de recherche sur l’intelligence artificielle à Zurich, baptisé Google Research Europe.

Les recherches viseront à améliorer la compréhension et le traitement automatique du langage naturel, afin de construire des applications capables de « comprendre » le langage et ne plus se contenter d’analyser des mots-clés. L’idée sera aussi de développer la perception artificielle pour qu’une machine puisse faire des déductions. Ce domaine s’attaque à la difficulté d’analyser et d’interpréter des images, des sons, de la musique ou des vidéos. Enfin, le laboratoire consacrera une équipe à la recherche fondamentale sur le deep learning pour en comprendre les rouages.

Par Matthieu Combe, journaliste scientifique

Brexit : Londres saura-t-elle retenir start-up et géants de la tech ?

Évidemment avec ses trentenaires europhiles, la tech anglaise n’a pas voté en faveur du Brexit. La sortie du Royaume-Uni de l’Union européenne ayant été surtout approuvée ce jeudi 23 juin par des Anglais de plus de 60 ans. Maintenant, reste à se positionner dans une nouvelle donne financière, réglementaire et administrative  que personne ne peut encore prévoir. Et de longs mois de négociations seront nécessaires pour savoir de quoi demain sera fait. Une incertitude que les investisseurs n’aiment pas en général.

Start-up : Londres, première place d’investissement en Europe

En Europe, Londres est de loin la première place européenne pour le développement des start-up. Sur ces trois derniers mois, l’incertitude liée au Brexit a déjà ralenti certaines décisions d’investissements et diminué les levées de fonds. Cependant, beaucoup d’acteurs restent confiants dans le dynamisme et l’attractivité de la capitale britannique. Ainsi, Albin Serviant, coordinateur de la French Tech Londres et PDG d’Easyroommate, dans une interview à L’Usine digitale, rappelle : A Londres, « l’écosystème est très compétitif mais cela tire tout le monde vers le haut et Londres sera toujours le meilleur endroit pour se préparer à attaquer le marché américain. On ne vient pas au Royaume-Uni pour la sécurité… ». Et si certains fonds vont hésiter, d’autres ont d’ores et déjà renouvelé leur confiance tel Partech Ventures (fonds d’investissement transatlantiques avec des bureaux à Paris, San Francisco et Berlin), qui a annoncé dès le 23 juin, qu’il continuerait d’investir à Londres, où ils ont investi ces douze derniers mois autant qu’aux États-Unis et plus que dans n’importe quel autre pays d’Europe.

Les fonds européens iront ailleurs

Le problème du financement se pose aussi et surtout pour tous ceux qui profitent de la manne européenne (programme Horizons 2020, plan Junker ou tout simplement la banque d’investissement européenne). La continuité de leur financement pourrait être soumise à une obligation de déménager sur le territoire de l’Union. Enfin, pour ce qui est de lancer une start-up, les écosystèmes du continent devraient devenir plus attractifs grâce à leur très nombreuses solutions financières d’amorçage en provenance des États complétés par des fonds européens.

Délocaliser en dur ou… en virtuel ?

Beaucoup de pays continentaux ont déjà préparé l’offensive. En premier lieu, l’Allemagne qui espère bien voire migrer nombre d’entreprises de la fintech de Londres vers Francfort. Et dont la ville de Berlin, en la personne de Cordelia Yzer, sa sénatrice chargée de l’économie et des technologies, s’est déjà vanté de posséder l’écosystème idéal pour accueillir les start-up du numérique et qui a lancé un « You’re welcome » à tous les jeunes britanniques qui voudraient émigrer. Pour beaucoup, ce sont surtout les investissements futurs qui vont être repensés. Et là, Londres sera donc en concurrence avec d’autres places montantes : Berlin, Paris, Dublin, Milan ou encore Stockholm.

Enfin, reste l’option de l’e-délocalisation. Une solution évoquée par le journaliste Rory Cellan-Jones dans un article de la BBC : une e-résidence en Estonie pour rester au Royaume-Uni et avoir ses entrées dans l’Union. Un site internet dédié au sujet et dont la fréquentation aurait décuplée dans les jours suivants le référendum !

Où iront les jeunes talents ?

Londres, comme d’autres écosystèmes liés à l’essor du big data, de l’intelligence artificielle et du numérique en général fait face à une pénurie d’ingénieurs : près d’un tiers des employés viendrait d’Europe continentale. La redéfinition inévitable du système de permis de travail et de visas ne devrait pas faciliter ce recrutement. Sans compter la dévaluation de la livre sterling qui sera aussi un argument en moins pour attirer les jeunes talents que tout le monde s’arrache.

Quid du marché digital unique ?

Un autre souci pour la tech et le numérique, c’est l’exclusion des britanniques de la réflexion sur le marché digital unique (digital single market) qui est en train d’être construit au sein de l’UE. Hormis les anglais et quelques pays du Nord, la plupart des pays continentaux militent pour une Europe du numérique très contraignante concernant la protection des données personnelles, la fiscalité et la concurrence. Les Anglais, s’ils veulent accéder au marché de 500 millions de personnes de l’UE devront dans tous les cas s’y plier mais ils n’auront plus leur mot à dire dans les négociations.

Alors Brexit or not Brexit ?

Reste que le gouvernement anglais traîne des pieds pour entériner officiellement la demande des urnes et cherche manifestement comment faire machine arrière et désavouer ce vote qui, en réalité, embarrasse la majorité des acteurs économiques et politiques Outre-Manche. Réponse à la rentrée avec le nouveau gouvernement du Royaume-Uni ?

Dublin, le double, low-cost, de Londres

Du côté des géants du web (Twitter, Microsoft, Google, Facebook, Apple), la problématique est un peu différente. Cela fait longtemps qu’ils ont dédoublés leurs structures : un pied en Irlande (Dublin ou Cork pour Apple) afin de profiter de la fiscalité irlandaise très avantageuse et un pied à Londres pour la proximité de tout l’écosystème technico-financier. Leur plus grosse inquiétude serait plutôt de perdre la possibilité d’un lobbying direct à Bruxelles via les représentants britanniques pour défendre un Internet dérégulé, sur le modèle américain. Mais dans cette nouvelle donne, on voit bien que Dublin, pourrait devenir un Hub encore plus important pour d’autres entreprises plus petites mais dont les impératifs financiers les obligent à rester sur le territoire de l’Union européenne.

Par Sophie Hoguin

Rakuten : un géant japonais qui vacille

Qui connaît Rakuten en France ? Certainement  les internautes qui vont sur Priceminister. Cette entreprise qui est l’un des poids lourds du commerce au Japon a acquis 100 % du capital du site français d’achats entre particuliers en 2010 pour 200 millions d’euros. « En associant nos forces respectives, Priceminister va pouvoir accélérer sa croissance, en France et en Europe » avait déclaré à l’époque Pierre Kosciusko-Morizet, cofondateur et PDG de Priceminister.

Six ans plus tard, cet objectif n’a pas été atteint. Dans l’hexagone, Amazon écrase la concurrence avec 19 millions de visiteurs par mois, soit trois fois celle de Priceminister. Le site français s’est délesté de ses déclinaisons spécialisées dans le voyage, l’immobilier, l’automobile, mais aussi de ses bureaux en Espagne et en Angleterre.

Malgré ces mauvais résultats, l’entreprise japonaise confirme son intérêt pour l’Allemagne et la France et donc pour Priceminister (1 million de clients et entre 30 000 et 50 000 transactions par jour). Le groupe a les moyens d’encaisser une baisse de régime. Sur l’année 2015, Rakuten affiche un chiffre d’affaires de 5,5 milliards d’euros (+19 %) et un résultat net de 346,7 millions d’euros. Le groupe du milliardaire Hiroshi Mikitani reste le leader du e-commerce au Japon, juste devant la filiale locale d’Amazon. Mais comme le commerce en ligne est devenu très concurrentiel, Rakuten doit multiplier les services (promotions régulières, expéditions accélérées…) pour conforter sa position.

Au Japon, il vient même de lancer les premières livraisons par drone pour les golfeurs qui souhaitent commander du matériel ou des sandwiches. Baptisé « Tenku », le drone a été conçu par ACSL (Rakuten a investi 6,4 millions de dollars dans ce laboratoire), mais son logiciel de reconnaissance visuelle a été mis au point en collaboration avec les ingénieurs de Rakuten. « Le Japon a perdu face aux étrangers sur les marchés des smartphones et des ordinateurs. Nous ne devons pas commettre la même erreur avec les drones », explique Kenzo Nonami, le PDG d’ACSL.

Le Japonais ambitionne toujours de se développer à l’étranger en multipliant les acquisitions : Viber (application de téléphonie et de messagerie en ligne), Ebates (qui offre des rabais sur les achats sur le web), OverDrive (livres électroniques) et le canadien Kobo qui propose des liseuses et services de librairie en ligne.

Les paiements sur internet et la FinTech apparaissent comme ses axes prioritaires de croissance. Après avoir pris des parts dans la start-up britannique Currency Cloud (règlements transfrontaliers) et dans la société californienne WePay (qui développe une API pour les paiements), le Japonais a placé 15 millions de dollars dans Azimo, une jeune entreprise britannique spécialisée dans les transferts d’argent. Il a surtout lancé un fonds d’investissement de 92,8 millions d’euros afin de devenir actionnaire de start-ups qui innovent dans les services financiers. Baptisé « Rakuten FinTech Fund », il participera à des levées de capitaux afin de soutenir des projets américains et européens.

Enfin, Rakuten s’intéresse à l’économie collaborative. En 2015, il a pris 12 % du capital de Lyft, un service rival d’Uber aux États-Unis. Plus récemment, il a investi 92 millions de dollars dans Cabify. Cette start-up espagnole propose l’équivalent d’Uber en Espagne ainsi qu’en Amérique du Sud. Le patron du groupe nippon est conscient que des obstacles seront présents sur la route. « Nous voulons vraiment atteindre notre objectif d’être une des plus importantes sociétés de services internet au monde. Pour ce faire, nous devons nous attendre à beaucoup de difficultés. Mais c’est en essayant à maintes reprises, avec des erreurs et échecs, que nous surmonterons les obstacles pour créer une organisation plus forte », a-t-il reconnu.

 Par Philippe Richard

Les rendez-vous Carnot 2016 : nous y étions !

carnot_2016_2

À l’occasion des rendez-vous d’affaires Carnot 2016 qui se sont tenus à Lyon début octobre, l’équipe éditoriale a organisé et animé une série de conférences et tables rondes. Au programme :

  • « le Big data au service d’une entreprise d’assurance santé” (Avec l’institut Carnot Télécom & Société numérique)
  • Les technologies douces pour la transformation des fruits et légumes « (avec l’institut Carnot Qualiment)
  • La gazéification des déchets” (avec l’institut Carnot Energies du futur)
  • Les énergies marines renouvelables” (avec l’Ifremer)
photo_ariane
Ariane Mizrahi, ingénieure et docteure en physico-chimie du solide, directrice éditoriale de Techniques de l’Ingénieur depuis 2008

Techniques de l’Ingénieur a également participé à la sélection de trente start-up et PME  innovantes qui ont pu présenter leur projet ou réalisation au public d’industriels et de financeurs présents sur place. Ariane Mizrahi, directrice éditoriale de Techniques de l’Ingénieur, revient sur cet événement :

À qui s’adresse ces RDV Carnot ? Ces rendez-vous Carnot ont pour objectif de permettre aux industriels et aux instituts Carnot de se rencontrer en vue de monter des partenariats R&D. L’espace “Start-up & PME innovantes” a mis en lumière une trentaine de jeunes entreprises particulièrement innovantes qui ont ainsi pu présenter leurs nouvelles technologies sous forme de pitchs de cinq minutes. L’espace dédié et les présentations orales ont facilité les rencontres avec des potentiels partenaires. C’est tout une dynamique positive qui peut ainsi se mettre en route !
Quels sont les liens entre l’Association des instituts Carnot (AI Carnot) et Techniques de l’Ingénieur ? Techniques de l’Ingénieur et l’AI Carnot sont deux acteurs essentiels qui agissent aux côtés des industriels, pour les accompagner dans leur démarche d’innovation, de R&D et d’industrialisation, en lien avec les plus éminents laboratoires de recherche publique et les experts qui y travaillent. Il était donc tout naturel qu’un jour ou l’autre, nous collaborions !

>> Accédez au dossier spécial Carnot 

>> Téléchargez la lettre des éditeurs au format PDF

Coup de projecteur sur nos nouveautés 2016

Microalgues diatomées

Ressources marines et biotechnologies bleues
L’exploration du potentiel des mers et des océans constituent un enjeu majeur pour répondre à la demande croissante en matières premières et en hydrocarbures, mais aussi pour valoriser des molécules d’intérêt dans les domaines de la santé, de la cosmétique ou encore de la chimie verte. Cette nouvelle rubrique est animée par Jean Guezennec, ancien directeur de recherche et consultant scientifique à l’Ifremer – Brest. >> en savoir plus

 

BiomédicaleQualité et contrôle des médicaments
Si le but d’un médicament est de guérir une pathologie ou de la prévenir, on sait également que toute molécule pharmaceutique, réellement active, peut présenter intrinsèquement une certaine toxicité. Destinée aux chimistes, aux analystes et aux industriels, cette nouvelle rubrique présente les connaissances utiles pour optimiser la sécurité des médicaments et réduire les impacts sanitaires.  >> en savoir plus

 

stockage energie -2Stockage de l’énergie
Le stockage permet de différer une utilisation de l’énergie par rapport à sa production. Il existe de multiples technologies de stockage, d’électricité ou de chaleur qui sont adaptées à différents contextes. Pour être applicables, elles doivent être non seulement rentables économiquement, mais également fiables, sûres et flexibles. Le stockage d’énergie demeure un verrou technologique. C’est donc un domaine dans lequel l’innovation a un rôle important à jouer. >> en savoir plus

>> Télécharger la lettre des éditeurs au format PDF

« Cosmétiques » sélectionné pour le prix Roberval 2016

photo-auteur2
Xavier Fernandez, professeur et directeur du Master Chimie FOQUAL à l’université Nice Sophia-Antipolis

L’industrie des cosmétiques est-elle un secteur porteur pour les ingénieurs ? Plus que jamais ! Le secteur de la cosmétique est un secteur qui évolue très vite, au gré des tendances et goûts des consommateurs mais également selon les contraintes réglementaires qui ne cessent d’augmenter. Il est donc capital de proposer de nouvelles gammes de produits, d’innover avec de nouveaux ingrédients et de remplacer ceux qui sont sujets à controverse.  Les ingénieurs sont particulièrement sollicités dans le cadre de ces besoins.

Quels sont les grands pôles de R&D en France ? La France est particulièrement bien placée : la cosmétique y représente le 3ème secteur d’exportation positif de notre pays ! L’image de la cosmétique et de la France sont également très associées tout autour du monde. Les grands pôles de R&D sont principalement localisés dans le centre-ouest avec la Cosmetic Valley et l’arc méditerranéen. En Europe, l’Allemagne, la Suisse, le Royaume-Uni et la Suisse sont très dynamiques.

Selon vous, quelles sont les innovations les plus marquantes de ces dernières années ? La cosmétique a connu de nombreuses innovations ces dernières années. La nécessité de démontrer la véritable activité des produits a conduit à ma mise au point de nombreux actifs performants. Dans le secteur des matières premières, le plébiscite des ingrédients naturels a conduit à de nombreux développements (nouveaux ingrédients, nouveaux procédés) de plus en plus respectueux de l’environnement. La formulation a également connu plusieurs avancées et succès, comme c’est le cas avec les technologies développées par la société Capsum (Marseille). Parmi les innovations, il faut également citer les nets progrès sur les tests alternatifs (les tests sur animaux étant interdits depuis plusieurs années en Europe). La société L’Oréal est particulièrement en avance sur ce sujet, suivi par de nombreuses autres.

Quelles sont les compétences les plus recherchées dans les entreprises ? Elles sont très nombreuses et dépendent du type de sociétés. La cosmétique est un secteur où coexistent des multinationales et des TPE de quelques personnes. Ces dernières sont à la recherche d’ingénieurs polyvalents capables de contribuer à la R&D (développement d’ingrédients, formulation), le contrôle qualité mais aussi l’assurance qualité et les affaires réglementaires. Les plus grandes sociétés sont à la recherche de collaborateurs plus spécialisés.

>> Accéder à la rubrique Cosmétiques

>> Télécharger la lettre des éditeurs au format PDF

L’article le plus téléchargé du mois

L’article le plus téléchargé de ce mois est :

Fabrication additive (Réf. BM7017)

Résumé : La fabrication additive (FA), plus connue sous le nom d’impression 3D, a pris une ampleur considérable depuis quelques années. Le passage progressif des activités de prototypage vers celles de fabrication directe de pièces fonctionnelles remet en cause les méthodes de conception et de fabrication traditionnelles. Cet article fait le point sur les différentes technologies de FA et leurs champs d’utilisation tout au long du cycle de vie du produit. Diverses applications industrielles sont décrites au travers d’exemples issus de secteurs technologiques de pointe.

Les auteurs : 

  • Floriane LAVERNE : Professeur agrégé, Laboratoire Conception de Produits et Innovation (LCPI), Arts et Métiers ParisTech, Paris, France

  • Frédéric SEGONDS : Maître de conférences, Laboratoire Conception de Produits et Innovation (LCPI), Arts et Métiers ParisTech, Paris, France

  • Patrice DUBOIS : Maître de conférences, Laboratoire Conception de Produits et Innovation (LCPI), Arts et Métiers ParisTech, Paris, France

>> Découvrir l’article

>> Télécharger la lettre des éditeurs au format PDF

Partenariat avec la communauté française de l’ALD

Le réseau des acteurs français de l’ALD (Atomic Layer Deposition) – RAFALD – qui regroupe experts académiques et industriels dans le domaine des procédés de dépôt de couches minces atomiques, a fait appel à nous pour éditer un ouvrage collectif sur les différents aspects des procédés ALD et leurs spécificités dans chaque domaine d’applications. Ce numéro spécial a été distribué à l’occasion du prochain colloque organisé du 14 au 16 novembre 2016.

Savez-vous que nous disposons d’une gamme complète de prestations pour l’édition et la publication de vos contenus : actes de conférences, annuaires, guides, supports de communication, livres blancs, lettres d’information, ressources pédagogiques, etc. ?

Si vous souhaitez recevoir une offre adaptée à vos besoins, n’hésitez pas à nous contacter : [email protected].

>> Télécharger la lettre des éditeurs au format PDF

Une nouvelle particule au LHC ?

Un incendie dans l’espace, des embryons qui échappent à leurs prédateurs, le dilemme de la voiture autonome et peut-être une nouvelle particule au LHC…

Source : http://www.universcience.tv/video-une-nouvelle-particule-au-lhc-9793.html

 

Les pérovskites en quête de stabilité

Les chercheurs ont encore de nombreux obstacles à surmonter avant de pouvoir industrialiser la filière prometteuse des pérovskites. Le principal défi à relever est d’atteindre une meilleure stabilité des matériaux pérovskites et des cellules associées. « Pour obtenir les rendements les plus élevés, l’architecture des pérovskites est basée sur l’oxyde de titane comme contact électrique : dans ce cas, il y a des problèmes assez connus d’hystérésis électrique. Mais il y a aussi souvent des problèmes de stabilité de la cellule dues à des dégradations irréversibles provenant d’une mauvaise qualité de la cellule ou des contacts. Le problème le plus grave est la stabilité sous rayonnement », prévient Jacky Even, professeur à l’INSA Rennes et co-auteur de l’étude. A cause de ces problèmes de stabilité, la dégradation est très rapide : lorsque la cellule photovoltaïque est exposée au soleil, le rendement photovoltaïque chute en quelques minutes.

Les cellules utilisées  dans le cadre de cette étude ont été fabriquées au laboratoire de Los Salamos. « La pérovskite n’est pas un matériau monocristallin ; elle est composée de grains cristallins accolés les uns aux autres. Les grains font habituellement quelques dizaines de nanomètres. Dans les cellules fabriquées à Los Salamos, les grains sont de quelques centaines de micromètres. Comme les défauts chimiques sont probablement liés à l’interface entre les grains, cela permet de les diminuer et on obtient des cellules de très très bonne qualité. Par ailleurs le contact électrique est du PBCM, plutôt que du TiO2 », expose Jacky Even. Ainsi, les chercheurs ont pu s’affranchir des problèmes d’hystérésis et de stabilité de base et se focaliser uniquement sur la stabilité sous rayonnement. La dégradation est plus lente, mais s’observe tout de même au bout d’une heure. Mais « dès que l’on met la cellule dans le noir, pendant à peu près une minute, on retrouve le rendement initial », se félicite le chercheur.

S’affranchir des dégradations?

Contrairement aux dégradations chimiques très rapides et irréversibles observées dans le cas de matériaux de mauvaise qualité, celles étudiées dans cet article sont réversibles. Les chercheurs veulent les expliquer  par un processus physique. « Une petite fraction des électrons créés par le rayonnement lumineux se trouve piégée localement dans le réseau atomique. Ces électrons empiétrés dans le réseau sont appelés polarons et ont une mobilité réduite. Arrivés aux électrodes, les polarons vont s’accumuler et empêcher les autres électrons de passer, ce qui fait chuter le rendement. Mais lorsque l’on plonge la cellule dans le noir en coupant le faisceau du simulateur solaire, ils vont s’évaporer, et on retrouve le rendement initial », explique Jacky Even. Par ailleurs, cette baisse de rendement n’est pas observée en descendant la température de la cellule à 0°C. « Cette forte dépendance à la température est caractéristique des polarons », souligne le chercheur.

« Ce travail est une étape.Il montre qu’on ne va pas forcément être limité par les processus chimiques de dégradations et qu’il est possible de s’en affranchir. C’est l’étape indispensable avant commercialisation éventuelle », note Jacky Even. Le chercheur annonce la parution prochaine d’un article dans un journal à haut facteur d’impact. « Dans ce papier, il n’y a plus du tout de dégradation ! », se réjouit-il. Une fois affranchis des dégradations, il restera néanmoins une autre problématique capitale : passer de cellules de laboratoire de quelques millimètres à des cellules de grande taille.

Les premières recherches portant sur les pérovskites dans le domaine du photovoltaïque datent de 2012. Les rendements augmentent vite : de 10 % en 2012, les records atteignent 22 % en 2016 pour les cellules de laboratoire. Ce rendement n’est plus très loin des records obtenus en laboratoire pour le silicum : 22,6 %. Les pérovskites devienennt ainsi une alternative de plus en plus crédible aux cellules en silicium.

Matthieu Combe

Microsoft mise sur les entreprises

Pour Microsoft, l’heure est aux synergies et à l’interopérabilité. Sa suite bureautique Office est disponible sur iOS et Android, mais aussi accessible n’importe où avec le Cloud Computing (Office 365). De son côté, Azure est compatible avec la plupart des éditeurs tiers, que ce soit SAP, SalesForces, Oracle ou encore Cisco.

L’époque où chaque entité de Microsoft travaillait dans son coin est révolue (les équipes de Windows ne collaboraient pas avec celles de Windows Phone…). La fameuse convergence implique une collaboration étroite entre les tous les services, qu’ils soient internes ou externes à la firme de Redmond.

L’époque des affirmations tonitruantes de Steve Ballmer est également révolue. Le CEO de l’entreprise de 2000 à 2014 n’avait pas hésité à déclarer en 2005 que « Google n’est pas une vraie entreprise, c’est un château de cartes ». Affirmation pertinente également en 2007 lorsqu’il déclarait : « aucune chance pour que l’iPhone atteigne une part de marché significative ».

Directeur général de Microsoft (118.000 employés) depuis 2014, Satya Nadella avance plus discrètement, mais efficacement. Il avance méthodiquement ses pions sur l’échiquier du web mondial. Son dernier coup, l’acquisition, le 13 juin, du réseau social LinkedIn (433 millions d’utilisateurs inscrits, un chiffre d’affaires de 2,99 milliards de dollars en 2015, en croissance de 35 % sur un an, mais 150 millions de dollars de pertes). En dépensant 23,2 milliards d’euros, Microsoft entend renforcer les synergies entre les différents outils professionnels.

« Au cours de la dernière décennie, nous avons fait passer Office d’une suite d’outils dédiés à la productivité à un ensemble de services disponibles dans le cloud et sur toutes les plates-formes. Nous pouvons réinventer les façons pour les professionnels d’être plus productifs », a expliqué Satya Nadella.

L’un des objectifs de Microsoft sera de transformer ce réseau social en une source d’informations et d’interactions interne aux entreprises. Les professionnels pourront par exemple travailler depuis leur bureau, ou chez eux, sur Word, mais aussi appeler sur Skype (racheté par Microsoft en 2011) à partir de leur profil LinkedIn. Avant un rendez-vous professionnel, LinkedIn leur affichera le CV de leur interlocuteur et les potentiels points communs. Autre synergie en vue : l’intégration de l’offre de formations en ligne de Lynda (racheté par LinkedIn en 2015) à la suite bureautique Office.

Autant de nouveaux usages qui renforceront les divisions professionnelles de Microsoft.

Entamé depuis deux ans, ce recentrage vers les entreprises porte ses fruits et permet d’atténuer la baisse des ventes mondiales de PC passées de 363 à 276 millions d’unités entre 2011 et 2015. En 2015, son chiffre d’affaires a atteint 20,379 milliards de dollars et son bénéfice net s’approche des 5 milliards (4,620 milliards).

Certes, la division More Personal Computing (Windows) plombe ses résultats (même si les recrutements d’abonnés au Xbox Live ont progressé de 28 %). Ce sont les outils professionnels qui assurent l’essentiel des revenus. L’unité Productivity and Business Processes, avec notamment Office 365 (3 millions de nouveaux utilisateurs sur le dernier trimestre 2015…), reste attractive. Mais c’est la division Intelligent Cloud qui est devenue le principal moteur de Microsoft. Azure séduit de plus en plus les professionnels tandis que les produits cloud et serveurs progressent de 13 %.

Ces bons résultats ne permettent pas pour autant d’oublier les échecs du géant américain. Malgré le rachat de Nokia, Microsoft reste très loin derrière Google et Apple.  Le cabinet d’analyses IDC prévoit même des ventes en chute libre de 61 %, pour une part de marché de 0,8 % en 2016… En un an, les livraisons de smartphones sous Windows Phone sont passées de 8,2 à 2,39 millions. Google avec Android s’octroie 84,1 % des terminaux livrés au cours du premier trimestre 2016 (293,7 millions d’unités). Apple perd du terrain avec 51,6 millions de smartphones écoulés et une part de marché de 14,8 %.

Le navigateur Internet Explorer est également en chute libre, concurrencé principalement par Google avec Chrome. Même sur son principal marché, Microsoft rencontre des difficultés. Vista avait était un bide et Windows 8 n’a pas réussi à convaincre les particuliers, mais aussi les entreprises. Avec Windows 10, l’éditeur mise là aussi sur la convergence et le développement d’un écosystème. Des applications déjà existantes sur d’autres plates-formes peuvent être adaptées pour fonctionner sous Windows 10.

Microsoft n’a pas réussi non plus à damer le pion de l’iPod d’Apple avec son baladeur Zune. Même constat avec les tablettes Surface qui n’ont pas réussi à s’imposer malgré d’indéniables qualités (surtout le dernier modèle).

En sera-t-il de même avec HoloLens ? L’entreprise ambitionne de devenir le leader de la paire de lunettes de la réalité augmentée. Cette fois, elle change de stratégie. Elle a lancé un grand concours pour attirer des concepteurs/développeurs afin de proposer des applications innovantes.

Par Philippe Richard

Apple : une stratégie d’ouverture pour continuer à innover

Comment Apple est-il passé d’une petite startup fondée dans un garage, à un “géant du Web” ? Quand Steve Jobs fonde Apple Computer avec son ami Steve Wozniak, en 1976, ils n’a que 1300 dollars en poche. Mais soutenus par un “business angel”, Mike Markkula, intéressé par leur ordinateur personnel, l’Apple I, les deux Steve lancent l’Apple II, puis l’Apple III. Et la société change d’échelle : elle recrute, est introduite en bourse, et lance le Macintosh en 1984 – premier ordinateur personnel utilisant une souris et une interface graphique.

En 1996, après une parenthèse de 10 ans, pendant laquelle Steve Jobs, licencié de sa propre société à cause des ventes décevantes du Macintosh, a connu une “traversée du désert”, le fondateur d’Apple est de retour. Il relance une entreprise dont les actions sont en chute libre, et lance un ordinateur de bureau révolutionnaire, dont le succès est phénoménal : l’iMac. S’en suivent le lancement de produits toujours plus novateurs : l’iPod (2001), un baladeur numérique, l’iPhone (2007), l’un des premiers smartphones de l’histoire, et l’iPad (2010), une tablette numérique. Les boutiques de vidéos, de musique et d’applis sont lancées en parallèle : iTunes Store en 2003, et App Store en 2007. En 2010, Apple est officiellement membre des “GAFA” (Google, Apple, Facebook, Amazon).

Une entreprise (trop) prospère

Mais depuis le décès de Steve Jobs en 2011, Apple peine à convaincre son public quant à sa capacité à innover. Elle a beau afficher la valorisation boursière la plus élevée au monde, l’entreprise déçoit lors de ses keynotes, de par l’absence de produits révolutionnaires.

L’entreprise est prospère, avec 234 milliards de dollars de chiffre d’affaires en 2015, mais les ventes de l’iPhone, sa vache à lait, commencent à décliner. “Depuis l’annonce du premier iPhone en 2007, aucun produit n’a été capable de nous bluffer. Il ne s’agit plus que de mises à jours de l’iPhone, de l’iPad et du Mac”, déplore Daniel Ichbiah, biographe non-officiel de Steve Jobs.

Et pour cause : l’entreprise n’arrive plus à recruter de jeunes ingénieurs. “Sur le marché du travail californien, Apple n’a pas la cote auprès des jeunes diplômés. Ils considèrent qu’Apple n’est plus une entreprise à la culture d’ingénieurs depuis le départ de Steve Jobs”, écrit le site LesMobiles. Or, “sans la jeunesse pour lui inspirer de nouveaux besoins à combler, comment Apple pourrait-il redevenir l’entreprise innovante et surprenante ?”

Produits, services et R&D

Si Apple peut compter sur son énorme base d’utilisateurs (qui peuvent difficilement changer d’ecosystème), la différence entre elle et ses concurrents (Google en tête) n’est plus aussi grande qu’autrefois. Alors la société essaie de se démarquer en jouant sur la sécurité de ses appareils (capables de bloquer le FBI), mais aussi en diversifiant ses activités. Apple tente ainsi de ne plus se limiter à la conception de produits matériels, pour se diriger vers les services.

Lancée en 2014,  l’Apple Pay est un système de paiement sans contact à partir d’un smartphone. Après les Etats-Unis, le Canada et la Chine, cette solution de paiement s’apprête à débarquer en France, en Suisse et à Singapour. Lancée aussi en 2014 pour concurrencer Spotify et Pandora, Apple Music est un service de musique à la demande. Alors que Spotify compte 30 millions d’abonnés, Apple Music regroupe déjà 15 millions d’abonnés.

Apple mise gros sur ces services, mais déploie aussi une campagne de dépenses en R&D et d’investissements destinés à créer “de nouvelles choses” jusqu’ici “inconnues”, selon les mots de Tim Cook. Apple dépensera ainsi, en 2016, 10 milliards de dollars en R&D – une augmentation de 30% comparé à 2015. Ce qui laisse à penser que la société planche dans ses laboratoires sur de nouveaux produits – dont certains compléteront l’iPhone, l’iPad, le Mac et l’Apple Watch, mais dont d’autres feront probablement partie de domaines nouveaux.

VTC et voitures autonomes

Apple a investi 1 milliard de dollars dans l’application chinoise de réservation de taxis et de VTC Didi, qui revendique 99% du marché des réservations de taxis en ligne et 87% de celui des TVC. Investir dans Didi, c’est pour Apple, au delà d’une tentative de se rapprocher des autorités chinoises (avec qui les relations sont houleuses) et de relier le concurrent d’Uber à l’Apple Watch et à Apple Pay, une façon de préparer sa voiture autonome – la fameuse “Apple Car” du “projet Titan”. Selon le Wall Street Journal, Apple prévoirait une livraison du premier modèle de “l’iCar” pour 2019.

Réalité virtuelle et domotique

Selon le Time et le Financial Times, Apple planche aussi sur “plusieurs projets” de réalité virtuelle (VR). Une équipe dédiée aurait été constituée. Tandis qu’entre 2014 et 2016, la firme à la pomme a acquis Flyby Media, spécialisée dans la 3D, la géolocalisation et la reconnaissance d’images, ainsi que Metaio, Faceshift et PrimeSense, expertes en vision par ordinateur, en capture de mouvement et en VR. De là à prédire l’arrivée sur le marché d’un casque VR, il n’y a qu’un pas.

Apple compte également occuper le secteur de la maison intelligente avec Home, une application de gestion des objets connectés reliés à HomeKit, sa plateforme de domotique. Home permet d’allumer les lumières, d’ouvrir les volets, d’augmenter le chauffage, mais est aussi connectée Siri : il est ainsi possible de demander à l’IA de contrôler les systèmes de la maison.

Siri, l’IA et les développeurs tiers

C’est justement concernant Siri qu’Apple joue gros. Face à Google et son “Assistant”, à Microsoft et Cortana, et à Viv, l’entreprise tente de rendre son IA plus intelligente. En juin 2016, Siri a ainsi été ouvert aux développeurs tiers. Objectifs : permettre de créer tout un écosystème d’applications autour de l’IA (messagerie instantanée, VoIP, paiement, réservations de transports, recherche d’image, quantified self…), tout en redonnant un coup de fouet aux ventes d’iPhone.

Pour rendre son IA plus “intelligente”, Apple a racheté, en 2015, VocalIQ, spécialisée dans le machine learning et la compréhension du langage naturel. A l’origine, VocalIQ voulait créer une IA pour voitures connectées, mais Apple a probablement pour ambition de nourrir sa propre IA. Selon Tech Insider, grâce au savoir-faire de VocalIQ, Siri pourrait à terme répondre à des questions très complexes, à plusieurs entrées, en tenant compte du contexte.

Apple n’a pas ouvert que Siri aux développeurs tiers : c’est aussi le cas de Plans et de iMessage. En sortant de son écosystème fermé, l’entreprise compte gagner en attractivité. Et ne pas se cantonner au statut de géant du Web prospère mais peu innovant.

Par Fabien Soyez

Amazon : l’hypermarché du web mondial

Pour l’e-commerce, le nouvel Eldorado se trouve principalement en Inde.  Selon une étude de l’Assocham (Associated Chambers of Commerce and Industry), les achats en ligne dans ce pays (1,26 milliard d’habitants en 2015) pourraient atteindre 38 milliards de dollars de chiffre d’affaires cette année en 2016, soit une croissance de 67 % sur un an.

Il n’est donc pas étonnant qu’Amazon ait décidé de s’y attaquer. Début juin, le site a annoncé qu’il allait investir environ 2,6 milliards d’euros en Inde. En 2014, il avait déjà lancé un premier plan d’investissement de 2 milliards d’euros.

Est-il possible d’enrayer la conquête mondiale d’Amazon dont les estimations de ventes en 2016 pourraient atteindre les 134 milliards (107 milliards en 2015) selon Thomson Reuters ? En France, c’est le leader incontesté. Entre fin 2008 et fin 2015, il a plus que doublé le nombre de ses visiteurs uniques selon Médiamétrie, passant de 10 à 21 millions par mois. Parmi les leaders du secteur, seul Leboncoin a réussi à multiplier par 2,4 son audience. Fnac.com n’a progressé que de 41 %, Carrefour de 36 % et Cdiscount de 26 %, tandis qu’eBay et Priceminister perdaient quasiment la moitié de leur trafic.

L’une des clés de sa réussite est sa parfaite maitrise des outils d’analyse comportementale des internautes. 30 % de son chiffre d’affaires est généré par la recommandation personnalisée. Le géant américain maitrise cette solution depuis… 1998 alors que les principaux sites du e-commerce français ne l’exploitent que depuis deux ans. La recommandation personnalisée s’appuie sur des technologies très pointues capables d’analyser précisément les comportements et le profil des visiteurs et clients réguliers. Elle permet ainsi de compléter une commande ou de mettre en avant des offres promotionnelles adaptées au profil de chacun.

L’autre clé de sa réussite est sa capacité (qui pourrait d’ailleurs se passer de sa puissance de feu ?) à proposer de nouvelles références. Aujourd’hui, leur total atteint les 288 millions de produits. Il y en aura plus demain avec le prêt-à-porter. De plus en plus de marques y sont disponibles : Lacoste, Calvin Klein, Levi Strauss… Même Gap envisagerait sa présence sur ce site alors qu’il compte 2.500 magasins aux États-Unis…

Dernier atout d’Amazon, sa parfaite maitrise de la logistique. L’entreprise dispose de 123 centres de logistique dans le monde, dont les 2/3 aux États-Unis. Ce maillage lui permet d’augmenter constamment le nombre de livraisons. En 2014, 4,9 milliards de produits ont été expédiés. Cette année, les estimations tablent sur 7,2 milliards de produits.

Mais la firme ne se contente plus d’être l’hypermarché du web mondial. Elle s’attaque à de nouveaux secteurs comme le streaming musical et la VOD. Pour l’instant, sa plate-forme musicale Prime Music n’a pas rencontré le succès escompté face aux poids lourds que sont Spotify, Deezer et plus récemment Apple Music. Principale raison : elle ne propose que 1 million de titres alors que Spotify en propose 30 fois plus !

Même constat avec la vidéo en ligne. Après s’être attaqué à Netflix pour les offres VOD, Amazon va se lancer à l’assaut de YouTube en proposant un service de diffusion de vidéos en France notamment (“Amazon Video Direct”). Pour étoffer son offre, l’entreprise se transforme en producteur de séries et de films et parcourt les festivals de cinéma comme celui de Cannes en mai dernier.

Autre marché en vue, celui de l’Internet des objets et de ses 42 milliards d’appareils connectés en 2020 selon le cabinet d’analyse français Idate. Là aussi, Amazon pose ses pions. Première étape : le lancement en 2014 d’Echo, son haut-parleur intelligent qui intègre l’assistant personnel maison appelé Alexa. Les fréquentes ruptures de stock, inhabituelles sur Amazon, sont de bons augures pour l’entreprise. En 2014, elle avait aussi présenté sa télécommande Dash. Elle permet de scanner le code-barre ou de dicter le nom des produits à ajouter à sa liste de courses sur… Amazon. Mais pour l’instant, elle n’est pas commercialisée.

Amazon estime peut-être que des revenus plus importants seront engendrés par Amazon Web Services destiné à devenir une plate-forme de pilotage en mode cloud de réseaux d’objets connectés. Mais sa plate-forme facturée à la consommation a aussi de puissants concurrents dont Azure IoT Suite de Microsoft et IoT Foundation d’IBM.

Le succès de cette diversification permettra peut-être de faire oublier l’échec de son smartphone Fire Phone apparu en 2014. Mais comme de très nombreux entrepreneurs américains, ce n’est pas grave. « Si vous pensez que c’est un gros échec, nous préparons de plus gros échecs encore, en ce moment même », affirme Jeff Bezos, le fondateur d’Amazon.

Par Philippe Richard

Facebook : du réseau social à la réalité virtuelle

Le réseau social s’est enrichi peu à peu : applications, pages, messagerie instantanée, vidéos,  format « Timeline », service Facebook Safety check, diffusion de vidéo en direct… En quelques années, Facebook est devenu une plateforme de partage « illimitée ». En juin 2016, Facebook vient d’ajouter deux fonctionnalités : la possibilité de naviguer dans des photos à 360° directement depuis son fil d’actualités et de répondre à un commentaire avec une vidéo.

Facebook est aujourd’hui capitalisé à près de 330 milliards de dollars. Avec 5,4 milliards de dollars de chiffre d’affaires réalisé au premier trimestre 2016, les revenus de Facebook s’envolent de 52% par rapport au début de l’année 2015. Cette dynamique est principalement poussée par la publicité sur téléphone. La publicité représente 96,3% des revenus de Facebook, dont 80,7% pour la seule publicité sur téléphone mobile. Son bénéfice net s’élève à 1,5 milliard de dollars sur le premier trimestre. Sur l’année 2015, son chiffre d’affaires était de 17,93 milliards de dollars, son bénéfice net de 3,69 milliards de dollars.

Facebook : 4 applications à plus de 500 millions d’utilisateurs

Facebook a racheté Instagram, l’application de partage de photos et de vidéos, en 2012 pour 1 milliard de dollars, puis l’application WhatsApp en 2014 pour 19 milliards de dollars ! Facebook a eu du nez. Lors de son acquisition, Instagram ne comptait que 22 millions d’utilisateurs actifs par mois. En juin 2016, l’application dépasse les 500 millions d’utilisateurs mensuels, 300 millions l’utilisent chaque jour !

Fin mars 2016, Messenger comptait 900 millions d’utilisateurs mensuels, WhatsApp 1 milliard. Facebook revendiquait de son côté 1,65 milliards d’utilisateurs actifs chaque mois et 1,09 milliard actifs chaque jour. Au total, les applications appartenant à Facebook totalisent plus de 4 milliards d’utilisateurs actifs par mois.

Facebook et les recherches pour le futur du réseau social

La recherche et le développement de Facebook se focalise sur 3 piliers : la réalité virtuelle, la connectivité planétaire et l’intelligence artificielle.

Les recherches sur la réalité virtuelle, reposent sur le casque Oculus Rift, créé par la société Oculus VR, rachetée par Facebook en 2014 pour 2 milliards de dollars. Vendu 699 euros en pré-commande, les premières livraisons de ce casque sont prévues pour juillet 2016.Le deuxième pilier vise à connecter les régions reculées à Internet. De quoi s’assurer que la Terre entière puisse être connectée à Facebook ! Enfin, la recherche sur l’intelligence artificielle est basée à Paris. Son centre, baptisé Facebook Artifical Intelligence Research (FAIR) et ouvert en juin 2015, se consacre au « deep learning », ou « apprentissage statistique profond ».

Depuis début juin, Yann LeCun, directeur de la recherche en intelligence artificielle de Facebook, fait le tour des plateaux télé et des journaux à l’occasion du premier anniversaire du centre parisien qu’il dirige. Il y explique l’intérêt de l’intelligence artificielle pour le réseau social. « Le travail principal de Facebook, c’est le tri de l’information. Chaque jour Facebook peut vous montrer environ 2000 documents, des posts de vos amis, des photos, des vidéos mais personne n’a le temps de visionner tout cela. Facebook doit sélectionner les centaines de documents les plus pertinents pour vous. Pour cela, il faut comprendre les contenus, savoir de quoi parlent les photos, les vidéos les textes et comprendre vos intérêts » explique-t-il, par exemple, au Figaro.

Dernière nouveauté en date : l’entreprise a dévoilé le 1er juin DeepText, un programme capable de « comprendre avec une précision quasi-humaine le contenu textuel de plusieurs milliers de publications par seconde, dans plus de 20 langues », selon Facebook. Il pourrait être utilisé pour la modération des contenus indésirables. Mais en scrutant les conversations sur Messenger, les statuts, les légendes de photo ou de vidéo, Deep Text pourrait aussi permettre de mieux mettre les gens en relation, mieux cibler les publicités et suggérer des services.

Facebook : du texte à la réalité virtuelle?

Le réseau social mise sur le développement de la vidéo pour renforcer l’engagement de ses utilisateurs et créer de nouveaux débouchés publicitaires. Facebook prédit ainsi la fin de l’écrit au profit de la vidéo sur ses pages. Dans cinq ans, « Facebook sera définitivement mobile et probablement entièrement vidéo », rapporte le site spécialisé Quartz.

Facebook sera à l’avenir plus qu’un simple journal intime où les membres étalent leur vie aux yeux de leurs proches. L’entreprise imagine un futur où ses utilisateurs pourraient discuter en temps réel dans un « monde virtuel » grâce à son casque Oculus Rift, sans avoir à se déplacer. L’entreprise voit encore plus loin. Pour Mike Schroapfer, directeur de la technologie de Facebook, en 2025, « Oculus sera capable de berner vos sens pour qu’ils pensent que le monde virtuel est réel, en imitant le monde alentours en temps réel, et en offrant la capacité de créer ce que vous voulez en 3D ».

Par Matthieu Combe, journaliste scientifique

Alibaba : une success story made in China

Est-ce la version e-commerce de « Alibaba et les 40 voleurs » ? Le 16 juin, Jack Ma (dont le vrai nom est Ma Yun) n’a pas hésité à déclarer que les contrefaçons chinoises étaient meilleures que les originaux ! « Ils sont produits par les mêmes usines, sont issus des mêmes matières premières, mais n’utilisent pas le nom de la marque », a précisé le patron-fondateur du géant chinois de l’e-commerce Alibaba. Pour l’Unifab (Union des fabricants français), « cette déclaration suscite l’interrogation et mêle la surprise au doute (…) alors que, depuis de nombreux mois, Alibaba tient un discours donnant l’impression de lutter efficacement contre la contrefaçon (…) ».

Derrière ces affirmations se cache la volonté du géant chinois d’imposer un nouveau modèle économique qui « détruit » les marques traditionnelles et « révolutionne le monde entier ». Pour l’instant, le premier site de vente en ligne de Chine (423 millions d’utilisateurs par an) n’a pas non plus « révolutionné le monde entier ». Sa plate-forme Taobao domine à 90 % le marché des échanges de particuliers à particuliers sur l’internet chinois et sa plate-forme Tmall contrôle la moitié des transactions en ligne entre professionnels et particuliers du pays.

Difficile de connaître précisément l’activité d’Alibaba (créé en 1999). En Chine, il ne publie pas d’informations et aux États (il est coté à Wall Street), il fait l’objet d’une enquête des autorités américaines de la Securities & Exchange Commission concernant ses pratiques comptables… Néanmoins, au cours d’une conférence pour investisseurs à son siège de Hangzhou, Alibaba a déclaré que le volume de transactions devrait atteindre 807 milliards d’euros au cours de son exercice fiscal 2020, soit près du double par rapport à cette année.

D’ici à 2036, Alibaba espère avoir 2 milliards d’acheteurs actifs. Cet énorme porte-feuille devrait se situer pour moitié dans les pays à économie émergente, le reste serait réparti de manière plus ou moins égale entre la Chine et les marchés dits développés (il possède des succursales en Italie, en France, en Allemagne, au Royaume-Uni…).

Sa stratégie de développement ne repose plus uniquement sur la vente de biens.  Le groupe souhaite vendre des services financiers (avec AliPay et ses 153 millions de transactions par jour contre 16 millions pour PayPal) et des contenus dématérialisés. En 2015, il a acheté Youku Tudou, surnommé « le YouTube chinois » et a développé des sites de musiques (Ali Planet, Alibaba Music), des portails thématiques (Alisports.com…), la billetterie ou encore la (co)production d’émission et de séries.

Mais il ambitionne surtout de devenir un poids lourd du cloud Computing. Durant l’été 2015, il avait annoncé un investissement de 1 milliard de dollars dans AliCloud, sa division d’informatique à la demande. Objectif :détrôner en 2020 Amazon Web Services. Pour relever ce défi, l’entreprise chinoise a ouvert deux datacenters aux États-Unis et d’autres sont annoncés en Europe, au Moyen-Orient et en Asie. Pour l’instant, la menace reste assez limitée. En 2015, AliCloud a affiché un chiffre d’affaires de 364 millions de dollars alors qu’Amazon Web Services a atteint les 7,6 milliards de dollars. Mais en mars 2016, Alibaba a levé 3 milliards de dollars sous la forme d’un prêt syndiqué auprès d’un pool de banques pour renforcer cette activité…

Parallèlement, Alibaba réfléchit à la digitalisation de ses points de vente dans une logique omnicanale. De plus en plus souvent, les acheteurs repèrent un produit sur Internet et souhaitent par exemple l’acheter dans la boutique de la marque. L’inverse commence également à se développer. Or pour répondre à ces nouvelles exigences, les distributeurs doivent optimiser leur système d’information pour que la gestion des stocks et des commandes soit synchrone. La Chine entre de plain-pied dans le monde digital.

Par Philippe Richard

La Chan Zuckerberg Initiative veut changer le monde

Le  premier projet commercial soutenu par la Chan Zuckerberg Initiative a été annoncé le 16 juin 2016. D’un financement de 24 millions d’euros, il est destiné à Andela, une start-up installée à Nairobi (Kenya) et à Lagos (Nigeria). L’objectif : assurer la formation de développeurs de logiciels dans ces deux pays et les mettre en contact avec des employeurs, notamment les géants américains d’Internet. Grâce à ces financements, Andela projette d’ouvrir de nouveaux centres dans d’autres pays africains, pour une meilleure égalité des chances. Créée en 2014, Andela ambitionne de former 100.000 développeurs de très haut niveau en Afrique dans les 10 prochaines années.

Lumière sur la Chan Zuckerberg Initiative

La Chan Zuckerberg Initiative est une Limited liability company (LLC), un statut juridique qui permet des investissement flexibles dans des entreprises, start-up et associations, mais aussi d’entreprendre des actions de lobbying et de financer des partis politiques.

Pour financer leur fonds d’investissement, les époux se sont engagé à donner, au court de leur vie, 99% de leurs parts dans l’entreprise Facebook, soit environ 45 milliards de dollars (41 milliards d’euros). Dans un premier temps, les époux annoncent un soutien à leur initiative à hauteur d’un milliard de dollars par an durant les 3 premières années.

Dans un message posté sur Facebook, sous forme de lettre à leur fille, le couple explique que cette entreprise repose sur deux idées : « la promotion du potentiel humain et la promotion de l’égalité ». Ainsi, les projets financés s’attacheront à développer les énergies propres, l’entreprenariat et l’équité, à éradiquer les maladies à travers la recherche médicale, à fournir des soins médiaux de base pour tous, à connecter l’ensemble de la planète à Internet, à éliminer la pauvreté et la faim et à assurer la paix mondiale.

Pour relever ces défis, les investissements seront « à long terme, sur des périodes de 25, 50 ou même 100 ans ». « Nos premiers domaines d’intervention seront l’apprentissage personnalisé, la guérison des maladies, la connexion à Internet et le développement de communautés fortes », assurent  Mark Zuckerberg et Priscilla Chan.

Selon le couple, Internet est un moyen de développement ultime. « Il fournit l’éducation si vous ne vivez pas près d’une bonne école. Il fournit des informations médicales sur la façon d’éviter les maladies ou élever des enfants en bonne santé si vous ne vivez pas près d’un médecin. Il fournit des services financiers si vous ne vivez pas près d’une banque. Il donne accès à des emplois et des opportunités si vous ne vivez pas dans une bonne économie ». D’où l’accent qui sera mis sur son développement, pour une plus grande égalité des chances. Le chemin sera long : plus de 4 milliards de personne n’ont pas encore accès à Internet.

Facebook : Zuckerberg reste le principal maître à bord

Mark Zuckerberg pourra entreprendre ce projet, sans se soucier de perdre son influence au sein de Facebook. En effet, les investisseurs ont adopté fin avril 2016 un mécanisme lui permettant de vendre progressivement au moins un tiers de ses actions sans perdre le moindre pouvoir de vote au conseil d’administration. Pour cela, de nouvelles actions dites de « type C » seront créées. Elles donneront droit à des dividendes mais ne seront associées à aucun droit de vote. Deux actions de type C seront émises pour chaque action de types A et B détenues, ce qui permettra à Zuckerberg de vendre ses seules actions de type C, et conserver ainsi l’ensemble de ses droits de vote. Il détient encore 76% des actions de type A et B du groupe.

Par Matthieu Combe, journaliste scientifique

Revue du web #92 : les vidéos les plus étonnantes de juin 2016

Un casque de pompier futuriste

L’Ecole polytechnique de Lausanne (EPFL) vient de présenter son nouveau projet : VIZIR, un prototype de casque de pompier augmenté. Son but : montrer au pompier ce qu’il ne parvient pas à distinguer avec ses yeux, en raison des flammes et/ou de la fumée. Une petite caméra infrarouge installée sur son casque détecte les différences de température qui pourraient indiquer la présence de victimes. Elle projette ensuite les images sur l’écran transparent placé devant ses yeux.

Le scaphandrier à vision augmentée

Après le casque de pompier, voici le masque de plongée ! Les ingénieur de l’US Navy ont dévoilé un prototype de scaphandrier à vision augmentée. Grâce à l’écran transparent, le plongeur peut visualiser sa localisation, la nature de l’éventuelle réparation à effectuer, et bien d’autres informations dont il a besoin pour remplir sa mission.

Un algorithme de pilotage à haute vitesse

Pluie, boue, verglas… Les risques de dérapages incontrôlés ne manquent pas sur la route. Malheureusement, les voitures autonomes ne disposent pas encore des mêmes réflexes que les humains. Pour leur permettre de maîtriser leur trajectoire lors de conditions extrêmes, une équipe de chercheurs de l’Université américaine (Georgia Tech) développe actuellement un algorithme testé à l’aide d’une maquette de voiture couverte de capteurs.

Un feu… dans une piscine

Jeune YouTubeur déjanté, celui qui se fait appeler le « Backyard Scientist » n’a pas hésité à mettre le feu à sa piscine à l’aide d’un peu d’éther diéthylique, un liquide très inflammable qui ne se mélange pas à l’eau, avant de l’éteindre grâce à de l’azote liquide. Une expérience scientifique pour le moins insolite (et dangereuse) !

Le nouveau robot signé Boston Dynamics

Boston Dynamics a encore frappé fort avec SpotMini, son dernier né dans la famille des petits robots quadrupèdes ! Il peut se baisser, gravir des marches, se relever quand il tombe et même remplir le lave vaisselle…

Une tablette-smartphone pliable !

Lenovo vient de présenter la Folio Foldable Tablet, une tablette qui se transforme en smartphone dès qu’on la plie en deux. A l’état de prototype, l’incroyable appareil ne devrait pas être commercialisé avant 5 ans.

Visitez le futur campus d’Apple !

3000 panneaux de verre incurvés, conception sur mesure des dalles de béton, circulation de l’air optimale afin de réduire l’utilisation de la climatisation… Le futur campus d’Apple s’annonce, logiquement, high tech.

Par Iris T.

Le secteur Open Source en quête de développeurs

En France, 50 000 personnes travaillent dans l’univers du « logiciel libre », un marché estimé à 4 milliards d’euros.  Selon le cabinet d’études Pierre Audoin Conseil (PAC), la croissance devrait se maintenir aux environs de 9 % par an pour atteindre 6 milliards en 2020. La part du Libre dans le marché hexagonal des logiciels et service passera alors de 5 % en 2012 à 13 % en 2020.

Revers de la médaille, ce secteur est toujours à la recherche de nouveaux profils. Quelque 4 000 postes sont non pourvus chaque année ! Et cette pénurie est récurrente depuis plusieurs années.

Pourquoi ce secteur embauche-t-il ? « L’Open Source est souvent présenté comme une technologie gratuite. Or il n’en est rien : il s’agit d’un écosystème informatique alternatif reposant sur une communauté de développeurs travaillant en équipe », rappelle Philippe Fossé, VP Channel EMEA chez EMC France.

La généralisation de Linux dans les couches d’infrastructures des SI et dans des technologies en forte croissance (Cloud Computing, Big data, mobilité, IoT) expliquent la forte demande des entreprises et des éditeurs. Les recruteurs recherchent donc des informaticiens, et en particulier des développeurs, ayant des compétences open source. Réalisée en mars auprès de 405 responsables du recrutement en entreprises, administrations et agences de recrutement, la cinquième édition de l’étude de marché de la fondation Linux sur l’emploi confirme cette forte tendance : 65 % des responsables du recrutement déclarent que l’embauche de spécialistes de l’open-source va augmenter plus que n’importe quelle autre partie de leur activité dans les six prochains mois, et 79 % ont augmenté le montant de leurs propositions.

Mais les « linuxiens » très compétents sont une denrée rare. Pour les débaucher, les entreprises leur font les yeux doux en leur proposant des avantages et des salaires plus intéressants. Selon la Linux Foundation, les salaires des Linuxiens expérimentés sont supérieurs à ceux pratiqués sur le marché du IT. Aux États-Unis, le salaire moyen pour un expert Linux s’établit à 90 000 euros environ contre 84 000 euros pour un expert IT en général.

Autant d’arguments qui devraient inciter de nombreux étudiants à se lancer dans l’Open-source et à rejoindre les bancs de l’Open Source School qui ouvrira ses portes à la rentrée à Lille. Les candidats pourront s’inscrire en alternance pendant trois ans ou en formation continue. À la clé, un diplôme (équivalent Bac + 5) reconnu par l’État et certainement un emploi dès la sortie de la formation.

Porté par l’ESPI (école privée de sciences informatiques) et Smile, leader européen de l’intégration open-source, le campus de Lille est le troisième après Lyon et Montpellier, mais avant Nantes, Bordeaux et Paris. « Notre ambition au niveau national est de former 500 étudiants d’ici 2018 », explique Laurent Espine, directeur de l’ESPI.

L’Open Source School a bénéficié du Programme d’Investissements d’Avenir (PIA), piloté par le commissariat général à l’Investissement. Les programmes investissements d’avenir ont vocation à promouvoir l’excellence française en matière d’enseignement supérieur et de recherche. OSS s’inscrit ainsi dans une dynamique en faveur du développement du savoir et de l’innovation pour améliorer les perspectives de croissance de la France.

Philippe Richard

La France des start-up s’exporte… et importe

En ce début d’été, la French Tech est décidément sur le devant de la scène et le « marché » des start-up Made In France est en pleine ébullition. Tout d’abord avec le lancement de la saison 2 du French Tech Ticket qui s’ouvre désormais à toute la France.

French Tech Ticket 2 : de Paris à toute la France

Lancé il y a un an, l’appel à candidatures pour le premier French Tech Ticket, ne concernait que la ville Paris : 1372 projets en provenance de de 90 pays. Au final, dix incubateurs de la ville de Paris ont accueilli 50 entrepreneurs, cofondateurs de 23 start-up, pour un programme de développement de plusieurs mois. Objectif : les inciter à s’installer en France – durablement. La mission French Tech a décidé d’élargir l’opération à toute la France pour une saison 2 : depuis le 21 juin, les candidatures peuvent être déposées pour obtenir l’accès à une structure d’accueil ainsi qu’à un accompagnement de 45000 euros par projet, une procédure accélérée pour obtenir des visas, des aides pour les formalités administratives, le logement etc. Au total, ce sont 22 incubateurs franciliens et 19 structures en région qui sont volontaires pour accueillir les futurs lauréats qui seront sélectionnés cet automne pour un démarrage dès janvier 2017.

La French Tech comme modèle européen ?

Axelle Lemaire, secrétaire d’Etat au numérique, a invité les acteurs des écosystèmes French Tech à s’exprimer sur la consultation européenne sur les start-up qui est ouverte jusqu’au 31 juillet. Une plateforme d’échanges a donc été ouverte pour que les « premiers concernés » puissent « évaluer, enrichir, contester » les propositions faites par le gouvernement. Ils ont jusqu’au 10 juillet pour s’exprimer dans cette opération « les start-up parlent à Bruxelles » !

La French Touch prend son envol

Lundi 20 juin se tenait à New York l’édition 2016 de la French Touch conference. En trois ans, ce rendez-vous de start-up françaises qui veulent accéder au marché américain fait maintenant venir de grands investisseurs d’Outre-Atlantique. Et cette année, l’événement commençait même dans l’avion. « Pitch in the Plane », était l’opération d’ouverture pendant laquelle 6 start-up françaises ont présenté leur projet en 7 minutes chrono devant un jury forcément captif, puisque enfermé dans un Boeing 757 en partie privatisé pour l’occasion ! Deux lauréats en sont sortis : Skylights, une start-up qui propose un casque vidéo pour regarder le cinéma en immersion dans les avions et un prix spécial pour Damae Medical qui développe un dispositif médical permettant au dermatologue d’obtenir des images d’anomalies de la peau en profondeur de manière non-invasive.

Côté avenir, la French Touch Conference va elle-même s’exporter : Shanghai en octobre et San Fransisco en janvier 2017.

Objectif Chine : lancement de deux programmes

En septembre 2015, Bpifrance et Business France avaient lancé un programme d’accompagnement de 13 start-up sur le marché chinois : Acceleratch China. Pour 2016, les deux partenaires remettent le couvert avec deux programmes : French Tech Tour China  et Impact China. Le premier s’adresse à des start-up qui veulent découvrir le marché chinois pour évaluer leurs chances d’y entrer et le second pour celles qui veulent optimiser leur présence sur place ou accélérer une implantation déjà bien avancée. Candidatures à porter respectivement avant le 12 juillet et le 6 septembre.

Sophie Hoguin

La ville de demain est-elle réalisable ? 5 projets pour le prouver

La première édition du programme DataCity vient de s’achever par la présentation des 5 solutions expérimentées autour de 4 thèmes : réduction de la consommation énergétique, mutualisation des flux énergétiques, amélioration de la mobilité de proximité et optimisation des espaces publics. Des initiatives originales qui vont pouvoir maintenant être testées grandeur nature.

DataCity-

Faisabilité démontrée en 9 mois

Au dernier trimestre 2015, l’agence Numa, accélérateur de start-up qui met en relation des compétences autour de l’innovation et du numérique, commence un travail de préparation pour la Mairie de Paris. Objectif : identifier les thèmes et défis que la ville de demain doit relever pour devenir durable et intelligente. En janvier 2016, la Mairie de Paris lance son appel à projet : 190 candidatures – dont 20% sont internationales. Cinq start-up sont choisies fin février. Numa se charge de leur accélération et de la mise en commun des ressources des acteurs publics et de grands groupes partenaires comme Vinci, Suez ou Nexity pour que les premières expérimentations puissent voir le jour avant fin mai et prouver leur faisabilité.

Energie : agir sur les comportements

Deux projets portaient sur la réduction de la consommation d’énergie grâce à une optimisation des comportements. Pour le premier, eGreen a travaillé avec Suez Consulting pour réduire les consommations d’énergie via une application de suivi des consommations aux fonctionnalités pédagogiques et ludiques. L’expérimentation s’est déroulée au siège de Suez à Nanterre qui accueille 250 collaborateurs. Les locaux ont été équipés de capteurs qui mesurent en temps réel les consommations d’électricité, d’eau, de gaz et la température intérieure. Après 3 semaines d’expérimentation, les résultats étaient plutôt prometteurs : diminution de 7% des consommations d’eau et de 42% des consommations de chauffage. Plus de 80% des collaborateurs affirment que l’aspect challenge ludique a été utile pour les motiver. En effet, en plus de l’accès à une plateforme internet récapitulant les consommations et fournissant des conseils d’écogestes, eGreen motive les participants grâce à des challenges entre voisins, anonymes et par l’attribution de GreenPoints quand un objectif est atteint. En gagnant suffisamment de GreenPoints l’utilisateur contribue au financement d’un projet de développement durable.

L’entreprise s’apprête désormais à lancer des levées de fonds pour d’autres démonstrateurs en immeuble collectif ou en milieu professionnel sur une durée plus pertinente d’un an.

Monitorer toutes les anomalies

Dans le même genre de concepts, Sensewawes a développé une solution d’analyse des consommations qui permet de détecter des anomalies de consommation en temps réel. Son outil, « Sweave », transforme les données des compteurs électriques, d’eau ou de gaz en informations pratiques pour les gestionnaires : une notification est envoyée dès qu’une anomalie est détectée. Dans le cadre de DataCity, Sensewawes a travaillé avec Setec ingénierie sur plusieurs bâtiments pour valider son outil.

Mutualiser les flux d’énergie

Openenergy a collaboré avec Nexity pour prouver la possibilité de mutualiser les énergies à l’échelle d’un îlot. Trois bâtiments aux usages complémentaires (bureaux, crèche, logements) ont été choisis pour cette expérimentation. Résultats :  l’ensemble tertiaire de Nexity pourrait alimenter une crèche et 400 logements. Un concept de mutualisation qu’Openenergy doit appliquer dès 2017 sur des projets de rénovation ou de construction.

Améliorer les déplacements de proximité

Padam et Vinci ont travaillé main dans la main pour simuler la mise en place d’un système de bus de proximité flexible et dynamique dans le 19e arrondissement. Objectif : adapter les trajets en temps réels à la demande des usagers. L’expérimentation montre qu’avec une flotte de seulement 11 minibus, 70% des déplacements particuliers pouvaient être couverts et qu’au moins la moitié d’entre eux seraient plus rapide qu’en transport en commun.

Réaménager la ville pour les piétons

La start-up QuCit a mis au point une évaluation de données subjectives ressenties par les piétons (confort, stress, sécurité) à partir de données mathématiques pour évaluer a priori les réaménagements d’espace publics et leur impact sur les piétons. L’expérimentation s’est déroulée place de la Nation à Paris via le recueil de réponses de plus de 1000 personnes et a permis d’identifier les zones les plus anxiogènes ou les plus appréciées. Des informations pertinentes avant le travail du réaménagement de la place.

En route pour DataCity#2

Fort de ce succès, la mairie de Paris a d’ores et déjà annoncé qu’elle porterait aussi une seconde édition de DataCity en 2017. La RATP a d’ailleurs déjà manifesté son intérêt. En outre, DataCity s’exporte déjà dans d’autres villes : Numa prépare un programme similaire à Bangalore (Inde) et Casablanca et Mexico s’y intéressent. La maire de Paris, Anne Hidalgo, a aussi annoncé qu’elle présenterait le projet au C40, un réseau de plus de 80 villes engagées dans la lutte et l’adaptation au changement climatique.

Par Sophie Hoguin

L’interdiction des néonicotinoïdes repoussée à 2020 ?

En première lecture, l’Assemblée nationale avait voté une interdiction totale des néonicotinoïdes au 1er janvier 2017. Cette date a été reculée au 1er septembre 2018 et sans dérogations en deuxième lecture. Le Sénat, opposé à cette interdiction prévoyait alors un simple encadrement.

Face à la fronde des agriculteurs, l’opposition des sénateurs et du ministre de l’agriculture, les députés ont confirmé l’interdiction au 1er septembre 2018, mais ont consenti des dérogations. Selon l’amendement voté ce jeudi 23 juin, ces dernières « pourront être prises par un arrêté conjoint des ministres chargés de l’agriculture, de l’environnement et de la santé » jusqu’au 1er juillet 2020.

Pour que les produits alternatifs ne conduisent pas à des situations plus dangereuses pour la biodiversité que le mal combattu, ces dérogations seront accordées suite à une évaluation de l’Anses. L’agence nationale de sécurité sanitaire sera en effet en charge de comparer les « bénéfices et les risques » des néonicotinoïdes autorisés en France, avec les produits de substitution ou les méthodes alternatives disponibles. Cette vision a été défendue par Ségolène Royal, qui souhaitait « un geste fort » mais « avec du réalisme ».

Les ONG pour une interdiction pure et simple

Pour Générations Futures, il s’agit d’« une dérogation de portée générale jusqu’en 2020 » qui aboutira à 4 années supplémentaires d’utilisation, « un vrai recul face aux pressions de la FNSEA et des lobbies agrochimiques ». L’association appelle à le Gouvernement à « une réelle interdiction dès 2018 au plus tard». Pour Gilles Lanio, Président de l’Union Nationale de l’Apiculture Française (UNAF), « une interdiction totale dans 4 ans, c’est potentiellement 1,2 million de ruches supplémentaires décimées ».

Le texte doit encore fait l’objet d’une ultime navette avec le Sénat, suivi d’un vote finale à l’Assemblée prévu le 18 juillet. Reste à savoir si l’interdiction finale comportera ou non des dérogations.

Par Matthieu Combe, journaliste scientifique

L’avion Solar Impulse a rendez-vous avec l’île solaire de Graciosa (Açores)

Au nord de l’archipel qui a donné son nom à un fameux anticyclone et qui jouit d’un statut de région autonome, l’ilha da Graciosa a une population (4700 habitants) et une surface (60 km2) comparables à celles de Belle-île-en-mer dans le Morbihan (5300 habitants permanents, 80 km2). Graciosa signifie précisément Belle-île en portugais.

Reliée à la presqu’île de Quiberon par un câble électrique de 17,5 kilomètres (qui a coûté 8 M€) Belle-île-en-mer tire aujourd’hui la majeure partie de son électricité des centrales nucléaires de Flamanville en Normandie et de Chinon dans le Val de Loire. Graciosa et Lisbonne sont séparées de 1400 kilomètres, un câble électrique sur une telle distance serait hors de prix.

Des groupes diesels ont donc été installés sur l’île pour répondre à la demande électrique de la population. Une situation similaire à celle que l’on trouve dans le Finistère sur l’île de Sein où la faible population (un peu plus de 200 habitants permanents) rend l’installation d’un câble sous-marin peu pertinent. Mais « EDF utilise plus de 400 000 € par an de la solidarité nationale (CSPE) pour brûler du fioul » explique la société IDSE (Ile de Sein Energie). IDSE « souhaite utiliser ces 400 000 € pour isoler les maisons, rendre le réseau intelligent et acheter des moyens de production propres et durables. »

graciosa
Un ancien moulin à Graciosa

Graciosa

Les habitants de Graciosa consomment 13.5 GWh par an, ce qui correspond à une puissance moyenne appelée d’1,5 MW. Le pic de consommation est de 2.3 MW. Un microgrid intelligent combinant 4,5 MW d’éolien et 1 MW de solaire PV va être installé sur cette île. 9 GWh par an d’électricité renouvelable selon alors délivrés, répondant ainsi aux 2/3 de la demande électrique annuelle.

Une batterie Sodium-Soufre (NaS) du Suisse Leclanché d’une puissance de 2,8 MW (une croissance de la demande électrique est manifestement anticipée) et capable de stocker 3.2MWh, ce qui correspond à un peu plus de 2 heures d’autonomie complète, va être associée au système solaro-éolien, un élément clé de la réduction de la part du diesel de 85% actuellement à environ 35%. Le diesel sera lui-même remplacé par du biodiesel, permettant ainsi d’atteindre le Saint Graal du 100% renouvelable.

Le coût global du projet, tout compris, est de 24 M€. Le fond d’investissement danois Recharge A/S a pris la moitié du capital. Une performance de 2/3 de solaro-éolien au niveau d’un petit site complètement isolé est remarquable et peut difficilement être dépassé dans l’hypothèse d’un coût acceptable. Sans système de stockage on admet généralement que le solaro-éolien ne peut franchir les 1/3. L’île de Graciosa, grâce à la batterie, va donc rejoindre l’esprit de pionnier du suisse Bertrand Piccard avec son avion Solar Impulse. « Ils ne savaient pas que c’était impossible, alors ils l’ont fait » écrivait Mark Twain.

A Garden Island (Hawaï) un projet similaire a été mis en route en coopération avec les entreprises SolarCity et Tesla fondées par l’ingénieur Elon Musk (Lire à ce sujet sur Techniques-ingénieur.fr l’article A Hawaï l’eau chaude sert à stocker l’électricité solaire photovoltaïque). En Corse, à Alatta, le groupe Engie a également installé une microgrid solaire. A King island, en Australie, la production solaro-éolienne assistée d’une batterie et d’un back-up thermique peut être suivie en direct depuis cette page : http://www.kingislandrenewableenergy.com.au/

Sur l’île de Marie-Galante (Guadeloupe) le groupe Quadran va inaugurer le 30 juin 2016 la première centrale éolienne avec stockage de France : 9 éoliennes de 275 kW du constructeur français Vergnet, couplées à une capacité de stockage de l’électricité de 460 kWh par batteries Lithium-Ion du constructeur Saft (racheté récemment par le groupe Total). Ce système génèrera assez d’électricité pour répondre à la demande de 3300 habitants. Montant de l’investissement : 9 M€.

Sur le continent l’effet de lissage (smoothing) et la respiration que procure les interconnections électriques avec les pays voisins permettent d’atteindre plus facilement de très hauts niveaux d’EnR. Le Portugal, durant le mois d’avril 2016, a par exemple tiré 95,5% de son électricité des EnR. En mai 2016, durant 4 jours consécutifs, un niveau de 97% d’EnR a été atteint, voire même de 100% si l’on comptabilise l’électricité d’origine thermique dans l’électricité exportée. L’Espagne voisine est également parvenue à des niveaux d’EnR remarquables.

L’ITER hydro-éolien d’El Hierro

Recourir à une batterie est la solution la plus simple pour le stockage. Mais à l’époque où le projet hydro-éolien de l’île d’El Hierro (10.000 habitants) a été conçu le stockage électro-chimique était bien plus onéreux que le stockage gravitaire par micro-STEP.

De plus l’un des objectifs à El Hierro, une île aride, est le pompage d’eau de mer dessalée  vers un bassin situé à 700 mètres au dessus du niveau de la mer et servant de réservoir pour l’irrigation agricole. Ce qui rend d’ailleurs assez compliquée l’analyse du système d’un point de vue strictement énergétique.

Sur la base des données relatives à la période juillet-décembre 2015 Hubert Flocard, ex-directeur CNRS du Programme sur l’Aval du Cycle et l’Energie Nucléaire et ex-directeur adjoint pour la formation à l’Institut international de l’énergie nucléaire (IE2N), a estimé que seulement une petite fraction de l’eau qui a est pompée à El Hierro redescend vers le réservoir inférieur. «Seulement 19,06 % de l’énergie envoyée par le parc éolien vers les pompes de Gorona del Viento a servi à renvoyer de l’énergie électrique au réseau » estime ce scientifique à la retraite dans un papier disponible sur le site de l’association Sauvons Le Climat. Il n’est donc pas étonnant que la performance de la centrale dans le monde réel (autour de 50% d’EnR en moyenne selon Gorona del Viento) soit plus faible que l’objectif théorique de 70 à 80% qui était affiché par la direction scientifique du projet.

Photo recadrée

Quand on consulte les profils journaliers de production à El Hierro (https://demanda.ree.es/movil/canarias/el_hierro/total) on observe effectivement qu’une grande quantité de l’électricité est consommée pour le pompage, et qu’une faible quantité est restituée par turbinage. Si l’intégralité des masses d’eau en question avait été envoyée vers les turbines alors une quantité moindre d’électricité d’origine fossile aurait été utilisée.

Le rendement d’un cycle complet au niveau de la centrale d’El Hierro semble tout à fait satisfaisant. « De l’information qui nous est disponible, nous estimons qu’il faut dépenser 1,18 MWh d’énergie éolienne pour élever 1 MWh d’énergie mécanique et que dans l’autre sens, il faut utiliser 1,18 MWh d’énergie mécanique pour produire 1 MWh d’hydroélectricité » affirme Hubert Flocard. Ce qui correspond à une perte sur un cycle de pompage-turbinage complet de 29%, autrement dit à un rendement de 71%. C’est un peu inférieur aux grandes STEP modernes dont le rendement peut dépasser 80%.

Le dossier portant la vision « El Hierro 100% renouvelable » a obtenu des aides en provenance de l’UE, de l’état espagnol et de la région canarienne. Le coût total du projet a été de 85 M€. Environ la moitié correspond à des subventions, point critiqué par l’association Sauvons Le Climat. Cette association préfèrerait-elle qu’El Hierro continue à brûler du diesel et ne fasse aucun effort pour réduire ses émissions de CO2 ? Tout projet expérimental bénéficie d’un coup de pouce. C’est le cas par exemple du projet ITER (fusion nucléaire), subventionné à hauteur de 20.000 M€, et dont nul ne sait s’il aboutira vraiment un jour. ITER a coûté 235 fois plus cher que l’expérimentation hydro-éolienne à El Hierro.

Tout projet EnR en site isolé coûte fatalement plus cher que dans le cadre d’un réseau électrique continental. Et c’est également vrai si 100% de l’électricité est d’origine fossile. Les coûts observés à El Hierro ne sont pas généralisables. Le projet de Graciosa, plus récent et bénéficiant par conséquent de la baisse des coûts rapides dans le domaine des EnR, c’est un investissement équivalent à 5100€ par habitant (24 M€ pour 4700 habitants). Celui d’El Hierro, 8500€ par habitant (85 M€ pour 10.000 habitants). L’EPR de Flamanville (6€/W) ce sont 5400€ par habitant (une puissance moyenne appelée de 60 GW, c’est-à-dire 360 mds d’€, pour 66 millions d’habitants). Sans compter les STEP et les centrales à flamme d’appoint. On protestera que l’EPR de Flamanville est une « tête de série ». Le projet hydro-éolien d’El Hierro l’est aussi.

La gouvernance de l’énergie sur El Hierro « passe par une SEM appelée « Gorona del Viento » où l’électricien Endesa (qui est privé) n’a que 23% des parts. Cela a pour heureuse conséquence pour les îliens d’avoir généré 5 millions d’euros l’an dernier via l’administration insulaire qui détient 66% des parts de la SEM » souligne Alain Gioda, scientifique de l’IRD Montpellier (Institut de Recherche pour le Développement) qui a notamment fait écho du projet EnR d’El Hierro lors de la COP21, dans le cadre du Forum du CNRS/ »Pour la Science ». L’expert ajoute que « deux autres succès sont la lutte réussie pour une émission drastiquement moindre de CO2 et la génération de 30 EPT (emplois plein temps) directs et indirects, qualifiés et à l’échelle locale. »

Alain Gioda, expert du Débat national sur la transition énergétique, a publié dans les dossiers Pour la Science n°89 (octobre-décembre 2015) un dossier relatif aux « dispositifs innovants » qui « sont mis en place pour la gestion de la biodiversité, de l’eau et de l’énergie » sur l’île d’El Hierro. Innovation particulièrement intéressante, en plus de la STEP hydro-éolienne, « des dispositifs de captage de l’eau du brouillard y ont été installés. » Sur un blog hébergé par nos confrères de Futura-Sciences (http://blogs.futura-sciences.com/gioda/), Alain Gioda révèle, accompagnées de splendides photographies, les merveilles de cette île canarienne où se cache le Garoé, un arbre mythique.

Serge Coatmeur, gardien du phare de l’île de Sein en Bretagne, Patrick Saultier, directeur d’Ile de Sein Energies, Erik Orsenna, écrivain et membre de l’Académie française et Alain Gioda appellent, dans une tribune commune, la classe politique « à se libérer de l’influence d’EDF pour que les énergies citoyennes puissent se déployer. » Une approche de décentralisation qui est au cœur de la nouvelle stratégie du groupe ENGIE.

Contrôle de la fréquence et de la tension

Selon Stephen Prince, le CEO de l’entreprise germano-américaine Younicos (basée à Berlin et Austin, Texas) qui développe le projet, l’équilibre du réseau électrique de l’île de Graciosa, ordinairement assuré par les générateurs thermiques grâce à leur fonction « must-run », peut intégralement être assurée par la batterie couplée au système solaro-éolien.

Le directeur scientifique du projet à El Hierro, Gonzalo Piernavieja, explique de son côté que des volants d’inertie assistent la STEP. Selon un ingénieur membre de l’association Sauvons le climat et ayant eu d’importantes responsabilités chez EDF « les moments d’inertie des groupes tournants, comme les rotors couplés au stator par le flux inducteur, des turbines des STEP, servent de moments d’inertie pour atténuer une baisse ou une hausse de fréquence du réseau. Ensuite la régulation proportionnelle à l’écart de fréquence ouvre ou ferme les robinets plus ou mois les robinets d’admission pour ajuster le débit du fluide moteur et revenir à la fréquence normalisée. A El Hierro ils ont aussi le rotor de l’alternateur du groupe électrogène ».

« Les volants d’inertie sont couplés directement à chaque turbine Pelton, le tout fabriqué par Andritz Hydro, ce qui offre une inertie de jusqu’à 6 secondes » précise Gonzalo Piernavieja, joint par Techniques de l’ingénieur. « Voici deux ans que le système fonctionne ».

L’inauguration a eu lieu en juin 2014. « La première étape a été une phase de tests, la seconde est une phase commerciale » ajoute l’expert. Entre le 1 juillet 2015 et le 31 décembre 2015 (6 mois) Hubert Flocart estime que 30,2% de l’électricité de l’île a été d’origine renouvelable.

« Cette année (2016) nous sommes parvenus de nombreuses fois aux 100% EnR, y compris durant des périodes prolongées (de nombreuses heures d’affilées) » se réjouit Gonzalo Piernavieja. « En principe le système permet d’atteindre les 100% durant la période venteuse canarienne » Durant les 29 jours de février 2016 un niveau moyen de 54% a été atteint. Ceci alors que la saison la plus ventée s’étale sur l’archipel canarien de mai à septembre compte-tenu du régime des vents alizéens. Un niveau moyen d’environ 50% est attendu pour l’année 2016.

« D’un point de vue technique nous pouvons répondre à entre 70 et 80% de la demande électrique annuelle de l’île avec les EnR, niveau que nous atteindront avec la bonne évolution que révèle le projet » estime Gorona del Viento sur son site officiel. « Nous avons comme objectif d’atteindre les 100% au niveau global grâce à la gestion de la demande, la mobilité électrique et les bioénergies » souligne le directeur de l’ITC Canarias. Chaque véhicule électrique contient en effet une batterie permettant de réaliser du stockage. Et de rappeler qu’« il convient d’intégrer le fait qu’El Hierro est un système électrique complètement isolé, et que donc parvenir aux 100% est un réel défi technologique »

Même si un niveau supérieur à 80% d’EnR était obtenu un appoint thermique resterait nécessaire. Il est en réalité bien plus facile de passer de 0 à 80% d’EnR que de 80 à 100%. Les derniers % sont les plus problématiques sur le plan technique et ainsi les plus coûteux. Un mix électrique composé de 80% d’EnR et de 20% de fossile, c’est déjà très bon. Même si les puristes pousseront toujours à faire mieux.

micro-step
Micro-STEP urbaine de Nature & People First

Facteur d’échelle

Le système d’El Hierro a inspiré l’entrepreneur Denis Payre. Dans le cadre du projet « Nature & People First » cet entrepreneur également à l’origine de « Nous Citoyens » et de « Croissance Plus », a développé un concept de « Micro-STEP urbaines », système qu’il envisage de tester notamment sur une île française.

L’expert hydraulicien François Lempérière, fondateur de l’association Hydrocoop et ex-président du Comité Français des Grands Barrages (CFGB) est sceptique concernant la pertinence économique des micro-STEP. Il propose à l’inverse, pour optimiser les coûts, des giga-STEP en bordure de falaise, notamment en Normandie, voir des STEP complètement en mer si des problèmes d’acceptabilité émergeaient. La Belgique étudie précisément un projet d’atoll-énergie.

C’est trivial mais la surface (et donc le volume d’eau) d’un réservoir est proportionnelle au rayon à la puissance 2 (Pi*r²) tandis que le périmètre (et donc le coût du système) croît à la puissance 1 (2*Pi*r). En règle générale (car il y a bien sûr des spécificités locales pour chaque projet) plus les réservoirs d’une STEP sont volumineux et plus elle est pertinente sur le plan économique. Et à l’inverse les micro-STEP sont intrinsèquement coûteuses.

lac
Projet de « STEP marine » en Guadeloupe

EDF a lancé l’étude pour la réalisation de deux STEP marines de taille moyenne avec faibles chutes d’eau: l’une en Guadeloupe (falaises de 50 mètres) stockant 1 GWh, l’autre à la Réunion (100 mètres), suivant le modèle de la STEP japonaise de l’île d’Okinawa. EDF estime à 5 GW le potentiel des STEP marines réalisables en France. François Lempérière estime de son côté que ce potentiel est bien supérieur. Cet expert hydraulicien craint que les projets d’EDF ne soient pas de taille suffisante pour atteindre une véritable pertinence économique.

La baisse rapide du coût des batteries pourrait d’ailleurs venir bousculer ce genre de projets. Les batteries, contrairement aux STEP, ne posent d’ailleurs aucun problème d’acceptabilité par les populations et peuvent être déployées très rapidement. Le Powerwall de Tesla peut être fixé directement au mur d’une maison, avec une empreinte au sol ainsi réduite à zéro. Et un impact paysager également nul.

step-alpes
STEP de Grand’Maison (Alpes)

4% de la masse du réservoir de Grand’Maison

Si le stockage batterie est valable au niveau d’une petite île comme Graciosa, l’est-il pour un pays comme la France ? Un calcul très simple suffit pour s’en convaincre. La puissance moyenne appelée en France est d’environ 60 GW (60 GW x 8760 heures par an = 525 TWh par an). Ce qui correspond à 360 GWh en 6 heures, durée suffisante pour la gestion intra-day d’un système solaro-éolien avec une batterie. Une bonne partie de la production est en effet consommée en direct.

Le Tesla Powerwall (6,4 kWh) pèse 97 kg (Fiche technique), soit 15 kg par kWh de stockage. A titre comparatif avec une STEP il faut stocker 1000 kg d’eau à 460 mètres pour stocker 1 kWh (pertes comprises). Ou alors 10.000 kg à 46 mètres. Pour stocker les 360 millions de kWh requis 5,4 millions de tonnes de PowerWalls suffiront. Soit environ 56 millions d’unités, moins d’une par habitant. Cela correspond à environ un millième (plus précisément 0,15%) de la masse du lac du Bourget (3,6 km3, soit 3600 millions de tonnes). Et à moins de 4% de la masse d’eau du réservoir supérieur de Grand-Maison (137 millions de tonnes), la plus grande STEP française. Par conséquent il est inutile d’inonder de nouvelles vallées en France. A noter que le rendement d’un cycle de stockage-déstockage avec une batterie lithium est bien meilleur que celui d’un cycle de pompage-turbinage avec une STEP. Ces dernières ont néanmoins une durée de vie supérieure.

Le lithium est en réalité un composant très mineur des batteries dites « au lithium ». Dans le rapport « The Future of Solar » réalisé par une large équipe d’experts le MIT estime qu’il n’y a aucun obstacle de nature matérielle ou surfacique pour passer à un monde 100% solaire assisté de batteries.

C’est exactement cette perspective qu’a présenté le visionnaire Elon Musk lors de sa conférence historique le 1er mai 2015 marquant le lancement du Powerwall (la vidéo a été visionnée plus de 3 millions de fois). L’inauguration de la Gigafactory n°1 de Tesla dans le Nevada aura lieu fin juillet 2016. La capacité de production de cette usine gigantesque est de 35 GWh par an. 10 ans de production de batterie par une telle giga-usine suffisent pour atteindre les 6 heures d’autonomie française susmentionnées. Et si la France construisait sa propre gigafactory, par exemple sur le site de Fessenheim ?

Le lithium, élément recyclable, n’est pas indispensable pour réaliser des batteries stationnaires, comme le montre le projet de Graciosa qui a recours à une chimie à base de sodium-soufre.

Passer à un très haut niveau de solaro-éolien est tout à fait possible. Non seulement à l’échelle française mais mondiale. La France pèse environ 1% de la démographie mondiale. Une batterie ayant une masse équivalente à 4 fois celle du réservoir supérieur de Grand’Maison est suffisante pour que le monde entier passe à de très hauts niveaux de solaro-éolien et vive selon les standards de confort français.

La planète Terre, elle aussi, est une île.

Olivier Daniélo

Brexit : quelles conséquences géopolitiques ?

L’assassinat de la député travailliste Joe Cox la semaine dernière a ensanglanté la fin de la campagne sur le referendum concernant la sortie du Royaume-Uni de l’Union européenne. A l’heure où sont écrites ces lignes, la campagne a été suspendue et les sondages donnent une légère avance au IN. Toujours d’après ces enquêtes d’opinion, il semblerait qu’Écossais et Nord-Irlandais seraient plus enclins à voter pour le maintien tandis que Gallois et surtout Anglais pencheraient davantage pour le Brexit. Des tendances à prendre avec prudence tant l’issue du scrutin semble indécise. Une chose est certaine, la défiance des britanniques vis-à-vis de l’Union n’est pas nouvelle.

Un peu d’Histoire

Le premier référendum sur le Brexit s’est tenu en 1975, soit seulement deux ans après l’entrée du Royaume-Uni dans la Communauté économique européenne (CEE). Même si le Yes l’a emporté largement à l’époque (67%), le débat ne s’est jamais vraiment éteint. L’aversion à voir le Royaume-Uni entrer dans la famille européenne a d’ailleurs été partagée pendant des années par la France. Le général De Gaulle s’était opposé dans un premier temps à son intégration au motif que les Britanniques étaient  « économiquement liés à l’Amérique et aux Dominions, et n’envisagent d’adhérer à l’Europe des Six qu’à condition d’en modifier les règles et l’esprit ». Ce n’est qu’en 1973 qu’Albion fut acceptée mais aujourd’hui encore, elle dispose d’un statut très particulier qui lui permet de jouer un rôle actif dans les institutions européennes sans pour autant faire partie de la zone euro, ni de l’espace Schengen. Malgré ce traitement de faveur, l’euro-scepticisme n’a cessé de grandir outre-Manche. « Les Britanniques se sentent lésés de n’avoir pu voter sur le traité constitutionnel en 2005. Cette frustration s’est approfondie avec la ratification sans référendum du traité de Lisbonne », indique Vivien Pertusot, responsable du bureau de l’Institut français des relations internationales (Ifri) à Bruxelles.

Un précédent

L’éventualité d’un Brexit génèrerait un précédent pour l’Union européenne. Seuls le Groenland (1985) et l’Algérie (1962) sont sortis de la CEE, mais pour des velléités d’indépendance envers un pays déjà membre. Il ne s’agit donc pas du même cas de figure. Le projet européen a toujours été élaboré dans une perspective à sens unique, sans retour. Une intégration du Vieux continent par la paix et les échanges de biens et personnes afin de créer un bloc géopolitique capable de se mesurer aux grands acteurs de demain. Pour autant, l’article 50 du Traité de Lisbonne instaure une voie de sortie. Il autorise tout Etat-membre à se retirer de l’Union s’il le souhaite. Il doit en notifier le Conseil européen, puis se met en place une table de négociations de deux ans renouvelable (si les deux parties y consentent) pour organiser le processus. Ironie de l‘Histoire, cet article a été rédigé par le député européen français Alain Lamassoure (ex-UMP, LR) pour mettre les euro-sceptiques dos au mur…

Un débat qui dérive sur l’immigration

La plupart des observateurs s’accordent sur le caractère exceptionnellement violent de la campagne, de surcroît pour un peuple reconnu pour son flegme. Comme trop souvent lors de referendum, le débat a rapidement dérivé de son objet initial pour se focaliser sur d’autres sujets : l’immigration et la crise des réfugiés.  La « pression migratoire » dénoncée par les tenants du Brexit s’est accentuée ces dernières années : de 61 000 par an entre 1991 et 2003, elle a doublé à partir de 2004, atteignant 198 000 en 2008. Une immigration en partie légale et liée à l’élargissement de l’Union : la moitié d’entre eux étant en provenance des nouveaux États membres, soit sans lien avec la crise des réfugiés.

Vivien Pertusot explique : « Cette arrivée conséquente et inattendue a nourri deux  narratifs liés au système de santé (le National Health Service) et au logement. On ne compte plus le nombre de déclarations s’attaquant au tourisme social (benefit tourism). Le Royaume-Uni connaît une crise du logement depuis deux décennies. La vague d’immigration des années 2000 a accentué cette crise, mais plutôt que de blâmer des politiques publiques depuis longtemps défaillantes, on se sert de l’immigration européenne pour en faire un bouc émissaire ».

Implications

Quelles pourraient être les implications d’un Brexit ? Pour le Royaume-Uni, ce serait la crise politique assurée puisque David Cameron a fait campagne pour le maintien dans l’UE. Son départ semblerait donc inévitable et le Parlement devrait choisir un nouveau Premier ministre pour mener les négociations avec le Conseil européen. Pour les partisans du Brexit, l’instabilité générée par la sortie de l’UE ne durera pas. Et pour cause, les liens économiques entre l’île et le continent ne cesseront pas au lendemain du vote. Ils dénoncent le discours alarmiste de leurs adversaires. Une approche pragmatique permettrait au Royaume-Uni de négocier la poursuite de nombreux accords commerciaux avec les Etats-membres, estiment-ils. La question du maintien de la City, comme première place financière européenne, est en revanche posée. Certains partisans du Brexit soutiennent même l’idée que le Royaume-Uni aura tout à gagner à ne conserver plus que des relations économiques strictes avec l’UE tout en réactivant son réseau unique issu de la décolonisation : le Commonwealth. Il représente un marché de plus d’un milliard d’individus, grâce notamment à l’Inde, et plus prometteur que l’Europe vieillissante. Et de rappeler qu’avant de rejoindre la Communauté économique européenne (CEE), le Royaume-Uni commerçait moins avec l’Europe qu’avec le reste du monde…

L’UE fragilisée

Un Brexit portera un coup dur à l’Union européenne dans sa construction actuelle. Après plus de 50 ans d’intégration continue, il s’agira du premier coup d’arrêt. L’impact symbolique, souvent sous-estimé, sera violent car il fera sauter un tabou de la construction européenne : sa réversibilité. Le cas du Royaume-Uni dans l’Union est tellement singulier que le retrait s’annonce d’ores et déjà comme une procédure ad hoc où les règles seront appliquées juste après avoir été établies. A n’en pas douter, ce processus sera analysé à la loupe par les divers mouvements indépendantistes susceptibles de se sentir concernés à l’instar de la Catalogne. Le risque d’effet dominos ne pourrait décemment plus être écarté.

Dans une perspective moins extrême, la sortie du Royaume-Uni donnera davantage de crédit aux partisans d’une Europe « à la carte », faisant le constat de l’échec de l’ancien  modèle. Une idée qui séduit un certains nombres de pays, notamment à l’Est, qui souhaitent profiter du marché commun sans subir toutes les contraintes de l’intégration. Un véritable changement de paradigme qui aurait l’avantage de redonner plus de flexibilité, davantage la parole aux citoyens, mais qui brouillerait l’image du projet européen dans le reste du monde.

Enfin, la France perdrait le seul autre pays européen à avoir encore des intérêts stratégiques et une capacité d’action sur les affaires du monde. De fait, la position diplomatique européenne se conformerait beaucoup plus facilement à la vision française, donnant davantage de poids à Paris sur les dossiers internationaux.

Gouverner c’est prévoir

Quelque soit le résultat du referendum de dimanche, l’Union européenne ne sortira pas indemne de cette crise de confiance. Car le Royaume-Uni n’est pas le seul à éprouver une défiance grandissante vis-à-vis des institutions européennes. Le cas autrichien et la montée de mouvements nationalistes anti-européens sont un signal que doivent entendre les dirigeants politiques. Il faut qu’ils proposent une véritable réflexion de fond sur l’avenir de la construction européenne (avec ou sans le Royaume-Uni) en y intégrant les citoyens pour qu’ils n’aient plus le sentiment d’être écartés de ce grand projet de civilisation.

Romain Chicheportiche

 

Les éruptions volcaniques influencent durablement le climat dans l’Atlantique nord

Ces particules volcaniques ont un effet direct assez bref, deux à trois ans, dans l’atmosphère. Pourtant, elles modifient pendant plus de 20 ans la circulation océanique de l’Atlantique nord, qui relie courants de surface et courants profonds, et module le climat européen. C’est ce que viennent de découvrir des chercheurs du CNRS, de l’IRD, du CEA et de Météo‐France en combinant, pour la première fois, des simulations climatiques, des mesures océanographiques récentes et des informations issues d’archives naturelles du climat. Ces résultats sont publiés le 30 mars 2015 dansNature Communications.

L’océan Atlantique est le siège de variations de la température de surface qui s’étendent sur plusieurs décennies et qui influencent le climat de l’Europe. Cette variabilité lente est due à des modifications de la circulation océanique, qui relie les courants de surface aux courants profonds, et qui transporte la chaleur depuis les tropiques jusqu’aux mers de Norvège et du Groenland. Cependant, sa cause reste mal connue.

Afin d’en décrypter les mécanismes, les chercheurs ont tout d’abord utilisé des informations couvrant le dernier millénaire et issues d’archives naturelles du climat. Ainsi, l’étude de la composition chimique de l’eau des carottes de glace du Groenland permet d’y estimer les changements passés de température. Ces données montrent le lien étroit entre la température de surface de l’océan Atlantique et la température de l’air au-dessus du Groenland, et révèlent que la variabilité du climat dans cette région est un phénomène périodique dont certains cycles, ou oscillations, durent environ vingt ans.

En utilisant des simulations numériques de plus de vingt modèles de climat différents, les chercheurs ont également mis en évidence que des éruptions volcaniques majeures, comme celle de l’Agung, en Indonésie en 1963, ou du Pinatubo, aux Philippines, en 1991, pouvaient modifier en profondeur la circulation océanique de l’Atlantique nord. En effet, les grandes quantités de particules émises par ces éruptions vers la haute atmosphère réfléchissent une partie du rayonnement solaire par un effet similaire à celui d’un parasol, ce qui entraîne un refroidissement du climat à la surface de la Terre. Ce refroidissement, qui ne dure que deux à trois ans, provoque alors une réorganisation de la circulation océanique dans l’océan Atlantique nord. Quinze ans environ après le début de l’éruption, cette circulation s’accélère, puis ralentit au bout de vingt-cinq ans, et accélère à nouveau trente-cinq ans après le début de l’éruption volcanique. Les éruptions volcaniques semblent ainsi fonctionner, sur la circulation océanique de l’Atlantique nord, à la manière d’un« pace-maker » qui met en route une variabilité sur 20 ans.

Les scientifiques ont confirmé ces résultats en les comparant avec des observations de la salinité océanique, facteur déterminant pour la plongée des eaux et donc de la circulation océanique. Ils ont décelé, dans les simulations numériques et dans ces observations océanographiques modernes, des variations similaires au début des années 1970 et 1990 liées à l’éruption du volcan Agung. Grâce à des observations issues de carotte de glace groenlandaise, à des observations effectuées sur des coquillages bivalves, âgés de plus de cinq cent ans et vivant au nord de l’Islande, et à une simulation du climat du dernier millénaire, les chercheurs ont systématiquement identifié une accélération de la circulation océanique quinze ans après cinq éruptions volcaniques ayant eu lieu il y a plusieurs centaines d’années.

Enfin, les chercheurs ont mis en évidence les interférences produites par les trois dernières éruptions volcaniques majeures, Agung en 1963, El Chichon, au Mexique en 1982 et Pinatubo en 1991, expliquant pour la première fois la variabilité récente des courants de l’océan Atlantique nord. Ils concluent qu’une éruption majeure dans un futur proche pourrait avoir une incidence pendant plusieurs décennies sur les courants de l’océan Atlantique nord et donc sur la capacité de prévoir la variabilité du climat européen. Ils souhaitent désormais consolider ces résultats en multipliant les sources de données, notamment en paléoclimatologie.

Source : cnrs

COP21 : Six mois après, c’est le coup de froid !

Six mois après la grande messe de Paris qui a vu 195 nations s’entendre sur un texte d’accord pour lutter contre les émissions de gaz à effet de serre (GES), le soufflet est retombé. Les médias accaparés par des tsunamis d’informations (attentats, Brexit, évènements sportifs, etc) n’ont guère le temps de se pencher sur l’après COP21. Or, le droit de suite est particulièrement opportun en l’espèce. Car comme tout accord « universel », il doit passer à la moulinette des procédures internationales et nationales avant de pouvoir être effectif. A New York, en avril dernier, 170 pays ont officialisé leur engagement en le signant de nouveau aux Nations-Unis. Ne reste plus que la ratification par les autorités nationales (Parlement ou équivalent), l’étape la plus ardue.

Au mieux pour 2017

Tous les yeux se tournent vers la Chine, les Etats-Unis et l’Inde, trois des quatre plus grands pollueurs mondiaux. Car sans leur ratification, aucune chance de voir l’accord entrer en vigueur. Au moins 55 pays, représentant 55% des émissions mondiales, doivent le ratifier pour qu’il soit juridiquement valable, une condition sine qua non. Les trois pays se sont engagés à ratifier l’accord avant la fin 2016. L’Allemagne est elle-aussi est attendue au tournant, à l’instar des pays de l’Est de l’Europe comme la Pologne qui ne cache pas son manque d’enthousiasme.

Les limites de l’accord

Si les objectifs du texte de Paris sont relativement ambitieux (limiter la hausse des températures à 1,5 C°), ils paraissent à bien des égards irréalistes, d’autant qu’aucune contrainte n’a été mise en place. Les engagements soumis volontairement par les Etats pourront être revus tous les cinq ans et ces derniers pourront se retirer de l’accord à partir de 2023, soit 3 ans après sa potentielle entrée en vigueur. Dans ces conditions, l’accord de Paris s’apparente davantage à un socle commun de bonnes intentions qu’à une véritable feuille de route. Seul la somme des attitudes individuelles de chaque pays donnera une indication sur leur volonté réelle de lutter contre le changement climatique.

Les Etats gardent la main

Le volontarisme de certains chefs d’Etat sur la question climatique n’est pas forcément partagé en interne. Les Etats-Unis en sont un bel exemple. Barack Obama croise le fer depuis 7 ans pour mener un semblant de politique environnementale, au grand dam d’une frange encore très climato-sceptique du Congrès. Cette dernière dispose de puissants relais qui lui ont récemment permis, grâce à un jugement de la Cour Suprême, de suspendre le plan fédéral de réduction des émissions de GES des centrales électriques, une des grandes mesures adoptée pour réduire l’empreinte carbone de l’industrie.

En Chine, le gouvernement montre un volontarisme depuis les JO de Pékin en 2008 et la prise de conscience de la problématique environnementale. Le pays prétend avoir diminué ses émissions en 2015 de 1 à 2%, mais difficile d’en attribuer la cause à ses  efforts ou à la crise économique.

La France enfin. Son rôle de leader dans les négociations a été reconnu et ce n’est pas un hasard si elle est le premier grand pays à ratifier le texte. Elle veut montrer l’exemple. En interne, la situation est plus paradoxale. Embourbé dans une opération de sauvetage de son industrie nucléaire, le gouvernement a repoussé à plusieurs reprises la publication de la Programmation pluriannuelle de l’Energie (PPE) qui devra, entre autres, déterminer la ventilation du mix électrique dans les prochaines années.

Romain Chicheportiche

Glyphosate : une bataille entre experts, lobbies et ONG

L’autorisation européenne du glyphosate expire le 30 juin prochain. Le 8 mars 2016, la Commission européenne a proposé de prolonger l’homologation du glyphosate pour  quinze ans. Elle n’a pas obtenue la majorité qualifiée des Etats membres,représentant au moins 65% de la population de l’Union Europénne. Le 19 mai, la Commission proposait de prolonger l’homologation du glyphosate pour 9 ans : même son de cloche, la proposition n’a pas été adoptée. La Commission a alors essayé un dernier tour de passe-passe : adopter une autorisation provisoire de la molécule pour 18 mois, le temps que l’agence européenne des produits chimiques (Echa) rende une nouvelle expertise, censée clore le débat. Là encore, la majorité qualifiée n’a pas été obtenue. La France, l’Allemagne, l’Italie, la Grèce, l’Autriche, le Portugal et le Luxembourg se sont abstenus, seul Malte a voté contre. Les vingt autres pays ont voté pour, mais ne représentaient que 52% de la population de l’Union.

La société civile française se sent trahie. Alors que Ségolène Royal, ministre de l’environnement, avait annoncé qu’elle s’alignerait sur la position la plus protectrice de la santé et de l’environnement, la France s’est simplement abstenue. « Il était plus difficile de rassembler sur un vote contre plutôt que sur une abstention, s’est-elle défendue. En outre, il fallait aussi prendre acte des avancées de la Commission, qui ne propose plus qu’une ré-autorisation de douze à dix-huit mois, alors qu’elle proposait quinze ans il y a quelques mois ! »

La Commission européenne devrait avoir le dernier mot d’ici quelques jours. Selon des informations du Monde, « la Commission pourrait passer outre un vote négatif en comité d’appel et prendre la responsabilité d’une réautorisation provisoire, assortie de restrictions ». Une situation complexe dans un contexte de défiance vis-à-vis des institutions européennes. Mais un soulagement pour les Etats membres qui n’auraient pas à assumer la responsabilité de cette réautorisation.

Les pays européens deviennent schizophrènes : d’un côté les agriculteurs militent pour la prolongation de l’homologation du glyphosate, de l’autre leurs populations sont de plus en plus sensibles aux risques sanitaires des pesticides. Pour complexifier le tout, les experts scientifiques se divisent de plus en plus sur la toxicité du produit.

Comment est née la polémique ?

En mars 2015, le Centre international de recherche sur le cancer (Circ) a jeté un pavé dans la mare agricole en classant le glyphosate comme « cancérogène probable sur l’homme ». Cette classification a été établie à partir d’un « nombre de preuves limité » chez les humains et de « preuves suffisantes » chez les animaux de laboratoire. Mais l’expertise scientifique est souvent divergente. Quelques mois plus tard, en novembre 2015, l’Autorité européenne de sécurité des aliments (Efsa) jugeait le caractère cancérogène du glyhosate « improbable ». L’indépendance des experts au sein de l’Efsa est souvent remise en question par les organisations de la société civile en raison de conflits d’intérêts supposés ou avérés. Des plaintes ont même été déposées à Paris, Berlin et Vienne, à l’encontre des experts européens, accusant ces derniers de tromperie.

Comment deux agences peuvent-elles aboutir à des conclusions si diamétralement opposées? Le Circ a entrepris son évaluation en ne se basant que sur des études publiées dans la littérature scientifique évaluée par les pairs. De son côté, l’Efsa a pris en compte ces mêmes études, mais aussi les dossiers présentés par les industriels, dont les données ne sont pas publiques. L’agence a néanmoins recommandé pour la première fois de définir des limites d’exposition maximale à la molécule, à la fois pour les professionnels et les consommateurs. Par ailleurs, l’Efsa n’a analysé que la substance active, tandis que le Circ se penche aussi sur le glyphosate associé à des adjuvants, évaluation réservée aux Etats membres dans la législation européenne.

La controverse scientifique était née. Celle-ci a vite été récupérée par les organisations environnementalistes qui ont profité de la dispute d’experts pour demander l’interdiction du produit au nom du principe de précaution.  Pour Foodwatch, la Ligue contre le cancer et Générations Futures : « Il faut protéger la santé des citoyens et appliquer strictement le principe de précaution inscrit dans nos textes européens et donc ne pas renouveler l’autorisation ». Leur campagne connait un large écho dans l’opinion publique. Une pétition adressée au commissaire européen par ces trois organisations a déjà rassemblé plus de 155.000 signatures. Pour sa part, une pétition lancée par Avaaz plus de 2 millions de signatures contre l’utilisation du glyphosate. Une vidéo de l’ONG We move Europe, s’opposant à la réautorisation du glyphosate, a été vue plus de 5 millions de fois sur Facebook. La pétition associée a récolté plus de 270.000 signatures. Enfin, un sondage conduit par l’institut YouGov dans les cinq plus grands pays de l’Union montre que plus des deux tiers des personnes interrogées s’opposent à la réautorisation du glyphosate en Europe.

Par Matthieu Combe, journaliste scientifique

L’économie circulaire en stand-by en Europe?

En décembre 2015, la Commission européenne a présenté son paquet «Economie circulaire» couvrant l’ensemble du cycle de vie des produits : de leur production à la gestion des déchets et au marché des matières premières secondaires. Ce nouveau paquet prévoit notamment des objectifs commun au niveau de l’Union Européenne (UE) de 65% de recyclage des déchets municipaux, de 75% de recyclage des déchets d’emballage et une mise en décharge limitée à 10% de l’ensemble des déchets en 2030. Il comprend des incitations économiques pour l’éco-conception des produits, mais ne comprend pas d’objectifs portant sur l’efficacité dans l’utilisation des ressources. La Commission avait supprimé une version élaborée par l’administration Barroso en 2014, car elle ne la jugeait pas assez ambitieuse. Ce report a ralenti l’adoption de stratégies nationales pour l’économie circulaire. Le paquet sur l’économie circulaire est examiné ce 20 juin par les ministres européens de l’Environnement. Le 23 juin, il sera discuté en commission environnement du Parlement européen. Pour devenir directive européenne, il devra être approuvé par le Parlement et le Conseil en termes identiques.
L’efficacité dans l’utilisation des ressources (métaux, carburants, minérais…) occupe une place importante dans l’économie circulaire. Selon l’étude de l’agence européenne pour l’environnement, cette efficacité progresse en Europe. La consommation des ressources a baissé de 12 % entre 2000 et 2014, passant de 15,5 tonnes par personne à 13,1 tonnes. La plupart des progrès ont eu lieu entre 2007 et 2014, mais ne s’inscrivent pas dans une politique globale. Ces gains sont principalement dus à la forte baisse de l’activité de la construction suite à la crise économique de 2008. Le rapport souligne que le principal défi sera de veiller à ce que les récents gains d’efficacité soient durables, et que la future croissance économique ne s’accompagne pas d’une utilisation accrue des ressources.
Cette efficacité est avant tout poussée par des motivations économiques. Les pays souhaitent avant tout améliorer leur compétitivité pour sécuriser l’approvisionnement en matières premières et en énergie, réduire leur dépendance aux importations et enfin diminuer les pressions sur l’environnement.
Peu de pays ont adopté une stratégie globale d’économie circulaire
Si l’on entend beaucoup parler d’économie circulaire, la majorité des initiatives politiques liées à sa mise en place portent uniquement sur la gestion des déchets, avec seulement quelques pays allant au-delà de l’augmentation des taux de recyclage et une utilisation plus élevée des matières premières secondaires.

Globalement, les objectifs nationaux en lien avec l’économie circulaire ne concernent souvent que la réduction des déchets et de la consommation énergétique, en réponse aux directives européennes existantes. Sur les 32 pays de l’Espace économique européen ayant répondu à l’enquête, 9 pays ont adopté en plus des objectifs nationaux pour l’utilisation efficace des ressources: l’Autriche, l’Estonie, la France, l’Allemagne, la Hongrie, la Lettonie, la Pologne, le Portugal et la Slovénie. Dans la plupart des cas, ces objectifs sont fondés sur le produit intérieur brut par rapport à la consommation intérieure de matières (PIB / DMC), indicateur principal de la productivité des ressources de l’UE. Mais aucun pays n’a d’objectifs concrets portant sur la réduction des matières premières (métaux, minéraux et biomasse), y compris ceux inscrits sur la liste des 14 matières premières critiques de l’UE. En l’absence de directive européenne adoptée sur l’économie circulaire, les pays ne prennent pas encore à bras le corps la question.

Seuls trois pays, l’Autriche, la Finlande et l’Allemagne, ont adopté des stratégies nationales dédiées à l’efficacité des ressources pour atteindre les objectifs qu’ils se sont fixés. Deux autres pays ont consacré des stratégies au niveau régional, en Flandre (Belgique), et en Ecosse (Royaume-Uni). Encore moins de pays ont une stratégie globale d’économie circulaire dédiée : c’est uniquement le cas de l’Allemagne, des Pays-Bas, et de la Flandre.

Par Matthieu Combe, journaliste scientifique

Total rachète Lampiris, le fournisseur d’électricité verte

Lampiris occupe la troisième place sur le marché belge, derrière les deux mastodontes que sont Electrabel (Engie) et EDF Luminus. La société créée en 2003 compte près de 850 000 points de fourniture en Belgique (350 000 en gaz et près de 500 000 en électricité verte) et 175 000 en France. Lampiris assure à ses clients que l’intégralité de l’électricité vendue provient de sources renouvelables grâce à ces certificats verts et des contrats passés directement auprès de nombreux producteurs locaux.

Stratégie intégrée

La politique d’acquisitions tous azimuts de Total reproduit un schéma bien connu dans la maison : l’intégration verticale. Une stratégie qui a permis a la Major d’absorber les secousses liées aux variations parfois brutales des cours du brut. Lorsque ceux-ci sont hauts, les marges du raffinage se réduisent mais celles de l’E&P s’envolent, et inversement. A l’instar du pétrole, le groupe montre sa volonté d’être présent sur l’ensemble de la chaîne de valeur de l’électricité. Tout comme Saft, Lampiris sera pilotée par la nouvelle branche Gas Renewables & Power qui devrait être opérationnelle au 1er septembre prochain.

Romain Chicheportiche

Ondes gravitationnelles : et de deux !

Cette fois encore, le signal – une infime déformation de l’espace-temps – provient de la « valse » finale de deux trous noirs qui finissent par fusionner, un phénomène appelé coalescence. Cette deuxième observation confirme que ce type d’événements cataclysmiques est relativement fréquent et augure d’autres détections à partir de fin 2016, lorsque redémarreront, après des travaux d’amélioration, les détecteurs Advanced LIGO (aux Etats-Unis) et Advanced Virgo (en Italie). De quoi en apprendre davantage sur les couples de trous noirs, ces astres si compacts que ni lumière, ni matière ne peuvent s’en échapper. Cette découverte, réalisée par une collaboration internationale comprenant des équipes du CNRS, est annoncée le 15 juin 2016 pendant la conférence de l’American Astronomical Society, à San Diego, et fait l’objet d’une publication dans la revue Physical Review Letters.

Trois mois après l’annonce d’une première détection, les scientifiques des collaborations LIGO et Virgo présentent une deuxième observation de la coalescence de deux trous noirs, révélée par les ondes gravitationnelles émises lors de cet événement. Bien que le signal soit plus faible que le premier, cette deuxième détection est aussi confirmée avec plus de 99,99999 %  de confiance.

Les trous noirs sont le stade ultime de l’évolution des étoiles les plus massives. Il arrive que certains évoluent en couple. Ils orbitent alors l’un autour de l’autre et se rapprochent lentement en perdant de l’énergie sous forme d’ondes gravitationnelles, jusqu’à un point où le phénomène s’accélère brusquement ; ils finissent par fusionner en un trou noir unique. C’est ce tourbillon final qui a été observé le 26 décembre 2015, permettant de déduire que la masse des trous noirs était 8 et 14 fois celle du Soleil (contre 29 et 36 pour la première détection, du 14 septembre 2015). Comme les trous noirs étaient plus légers, leur rapprochement a été moins rapide (le signal dure environ une seconde, contre 0,2 seconde pour le précédent). Le nombre d’orbites observées avant la fusion est donc beaucoup plus important que lors de la première observation, ce qui permet de tester de manière différente et complémentaire la théorie de la relativité générale élaborée par Albert Einstein. Cet événement s’est produit à environ 1,4 milliard d’années-lumière de la Terre ; autrement dit, les ondes gravitationnelles se sont propagées dans l’espace pendant 1,4 milliard d’années avant d’être décelées par les deux détecteurs d’Advanced LIGO, situés en Louisiane et dans l’État de Washington (États-Unis).

Ce deuxième évènement confirme que les couples de trous noirs sont relativement abondants. L’analyse complète des données collectées par les détecteurs LIGO entre septembre 2015 et janvier 2016 laisse d’ailleurs penser qu’un troisième événement de ce type a pu être observé, le 12 octobre – avec cependant un degré de certitude moindre.

A terme, l’analyse de ce genre d’observations pourra permettre de comprendre l’origine des couples de trous noirs : sont-ils issus d’un couple d’étoiles ayant chacune évolué en trou noir ou un trou noir est-il capturé par l’autre ? Pour cela, il faudra un échantillon d’observations plus conséquent – ce que promettent les redémarrages d’Advanced LIGO puis d’Advanced Virgo, à l’automne 2016. En effet, comme l’a démontré la première période de prise de données des détecteurs Advanced LIGO, les ondes gravitationnelles deviennent un nouveau moyen d’explorer l’Univers et l’interaction fondamentale qu’est la gravitation.

LIGO (Laser Interferometer Gravitational-Wave Observatory) est un observatoire dédié aux ondes gravitationnelles composé de deux interféromètres identiques, situés aux Etats-Unis. La version améliorée de ces détecteurs (Advanced LIGO) a redémarré en septembre 2015. Autour de ces instruments s’est constituée la collaboration scientifique LIGO. Elle travaille main dans la main avec la collaboration Virgo, constituée autour du détecteur du même nom, installé à Pise. En effet, depuis 2007, les scientifiques des deux groupes analysent en commun les données et signent ensemble les découvertes. Advanced Virgo devrait redémarrer d’ici fin 2016.

Autour de LIGO s’est constituée la collaboration scientifique LIGO (LIGO Scientific Collaboration, LSC), un groupe de plus de 1000 scientifiques travaillant dans des universités aux Etats-Unis et dans 14 autres pays. Au sein de la LSC, plus de 90 universités et instituts de recherche réalisent des développements technologiques pour les détecteurs et analysent les données collectées. Le réseau de détecteurs de la LSC comporte les interféromètres LIGO et le détecteur GEO600.

Les chercheurs travaillant sur Virgo sont regroupés au sein de la collaboration du même nom, comprenant plus de 250 physiciens, ingénieurs et techniciens appartenant à 19 laboratoires européens dont 6 au Centre national de la recherche scientifique (CNRS) en France, 8 à l’Istituto Nazionale di Fisica Nucleare (INFN) en Italie et 2 à Nikhef aux Pays-Bas. Les autres laboratoires sont Wigner RCP en Hongrie, le groupe POLGRAW en Pologne, et EGO (European Gravitational Observatory), près de Pise, en Italie, où est implanté l’interféromètre Virgo.

La publication scientifique des collaborations LIGO et Virgo annonçant cette observation est cosignée par 72 scientifiques de six équipes du CNRS et d’universités associées :
– le laboratoire Astroparticule et cosmologie (CNRS/Université Paris Diderot/CEA/Observatoire de Paris), à Paris ;
– le laboratoire Astrophysique relativiste, théories, expériences, métrologie, instrumentation, signaux (CNRS/Observatoire de la Côte d’Azur/Université Nice Sophia Antipolis), à Nice ;
– le Laboratoire de l’accélérateur linéaire (CNRS/Université Paris-Sud), à Orsay ;
– le Laboratoire d’Annecy-le-Vieux de physique des particules (CNRS/Université Savoie Mont Blanc), à Annecy-le-Vieux ;
– le Laboratoire Kastler Brossel (CNRS/UPMC/ENS/Collège de France), à Paris ;
– le Laboratoire des matériaux avancés (CNRS), à Villeurbanne.

Pour en savoir plus :
« LIGO-Virgo : nouvelles collisions détectées », article de CNRS le Journal, 15 juin 2016
– Retour sur la première détection d’ondes gravitationnelles :
o notre dossier de presse
o « On a détecté des ondes gravitationnelles ! », article de CNRS le Journal, 11 février 2016
o « Ondes gravitationnelles: les détecteurs de l’extrême », film de CNRS le Journal, 11 février 2016
– Une sélection de photos sur Virgo, par la photothèque du CNRS.

Source : cnrs