Une imprimante 3D qui sculpte du verre fondu

Leur machine, présentée lors de la conférence de mécanique des fluides de la Société Américaine de Physique, le 24 novembre à Boston, est capable de chauffer du verre à 1037,77° Celsius – afin de le faire fondre, de le maintenir en fusion, et de pouvoir ensuite le faire “couler” jusqu’à “modeler” et obtenir l’objet désiré.

3d-printed-glass-MIT-Neri-Oxman

“La machine à coudre du verre en fusion”

L’imprimante 3D du Glass Lab, baptisée “Glass 3D Printing” (G3DP), et aussi surnommée par les scientifiques “la machine à coudre de verre en fusion”, a été conçue en aluminium, sur une armature d’acier.

Test-impression-3D-verre-04

Selon Sciences et Avenir, la G3DP est dotée de “buses en oxyde d’aluminium” et d’un “système de compartiments”, qui permet de “faire passer la matière en fusion d’un creuset aux buses tout en maintenant la température adéquate à tous les stades de l’opération”.

impression3d-verre

Afin de solidifier l’objet (à l’origine, conçu à partir d’un fichier numérique), et de le refroidir sans le briser, la machine injecte progressivement de l’air comprimé dans l’espace où il se forme.

Ce procédé corrige le principal défaut des techniques utilisées jusqu’ici pour imprimer des objets en verre en 3D : l’utilisation de poudre de verre, qui ne permet de produire que des objets opaques, et non transparents.

Par Fabien Soyez

Des caméras sachant compter

Le terme «vidéosurveillance» – ou «vidéoprotection» selon l’euphémisme en vigueur – n’accompagne même plus le mot «caméra» tant l’association semble faire sens. Malgré tout, si la sécurité et la sûreté demeurent ses priorités, une caméra peut être employée à d’autres fins. «En supplément de notre activité principale liée à la sécurité, nous avons développé depuis deux ans la gestion de flux, basé sur le comptage, témoigne Jean-Baptiste Ducatez, directeur de Foxstream, société spécialisée dans l’analyse et le traitement automatique d’images vidéo. Notre algorithme FoxVigi permet de détecter une intrusion dans un périmètre donné, mais aussi de compter des personnes ou de gérer une file d’attente.»

Files-aéroport3-copie

Le comptage, qui détermine si une personne franchit une ligne virtuelle dans l’image filmée par la caméra, trouve des débouchés dans le commerce et le marketing. «Toutes les boutiques de Bouygues Telecom en France sont équipées de notre algorithme, poursuit Jean-Baptiste Ducatez. La caméra en position zénithale surplombe l’entrée du magasin et distingue les personnes entrantes des personnes sortantes. Ainsi la fréquentation des magasins par région, par date, etc. est-elle connue et l’impact d’une promotion est-elle analysé.» Le taux de transformation, c’est-à-dire le rapport entre les visites et les achats, peut être déduit en comparant ces statistiques et l’émission de tickets de caisse.

FoxCounter-zone

D’autres applications dérivent du comptage, comme la mesure du taux d’occupation. «Notre algorithme Lynx, au travers d’une caméra, est capable de recenser les personnes ayant occupé l’espace devant tel ou tel rayon d’un magasin» explique Laurent Assouly, directeur marketing d’Evitech, une autre société experte en matière d’analyse d’image pour la sécurité. Ces zones chaudes et zones froides constituent de précieuses informations pour les services commerciaux. C’est une fonction qui peut aussi être mise à profit dans un espace public. «La SNCF l’a utilisée à la Gare Saint Lazare quand Burger King s’est implanté dans la galerie marchande, afin d’analyser les répercussions sur la circulation autour de cette zone» ajoute Laurent Assouly. FoxVigi de Foxstream est quant à lui employé dans les aéroports de Lyon et Roissy Charles de Gaulle, entre autres. «Devant chaque PIF (Poste inspection filtrage, zone où les passagers et leurs bagages sont inspectés, Ndlr), notre algorithme compte le nombre de personnes dans la file d’attente et, en fonction du débit sortant, calcule puis affiche le temps d’attente estimé, décrit Jean-Baptiste Ducatez. L’information est intéressante pour les voyageurs et les services d’exploitation, qui jugent s’il faut ouvrir un PIF supplémentaire ou non.»

dashboard-monitoring - Copie

La précision est assez surprenante. «Notre solution a été testée dans un festival de musique. En comparaison avec le nombre de tickets RFID vendus, c’est-à-dire la réalité du terrain, elle a atteint une précision de 99,5%» se félicite Laurent Assouly. C’est une performance supérieure à celle d’autres techniques employées dans les magasins, basées des faisceaux infrarouges par exemple. «Mais attention, une précision de 70% peut suffire dans un magasin, prévient Laurent Assouly. Ce qui importe le gérant, c’est davantage la tendance qu’un chiffre exact.»

Ces algorithmes sont tributaires d’une puissance de calcul que, évolution des processeurs aidant, certaines caméras sont désormais en mesure de satisfaire. Quelques fabricants de caméras, comme Axis (aujourd’hui propriété de Canon) et Samsung, prévoient un espace mémoire réservé à des éditeurs tiers et l’algorithme fonctionne alors en version embarquée. A titre d’illustration, FoxVigi ne pèse qu’un petit mégaoctet. Cette option est parfois source d’économies. «Bouygues Telecom, grâce à notre algorithme embarqué, s’est épargné l’acquisition de quelque 500 PC» estime Jean-Baptiste Ducatez.

Il existe néanmoins des contraintes techniques. D’une part, la caméra doit être fixe, non motorisée. D’autre part, si la puissance de calcul des caméras s’améliore, elle n’est pas encore au niveau de celle d’un PC moyen. «Des traitements tels que les allocations mémoire sont beaucoup plus lents quand l’algorithme fonctionne dans la caméra, constate Laurent Assouly. De fait, la taille de l’image analysée doit être réduite, donc la portée de la caméra.» Ce n’est pas problématique quand la caméra est posée sous le plafond à quelques mètres de hauteur, à l’entrée d’un magasin. Ca le devient quand il s’agit de détecter des intrusions ou de compter des individus sur de grandes superficies.

Par Frédéric Monflier

Les couples d’oiseaux discutent pour se partager les soins parentaux

Chez les oiseaux, les soins parentaux consistent généralement à construire un nid, couver les œufs et nourrir les oisillons. Chez le diamant mandarin, les couples sont très unis et partagent très équitablement toutes ces tâches. Pendant l’incubation le mâle et la femelle passent autant de temps l’un que l’autre à couver les œufs, en se relayant toutes les 30 minutes environ. Lorsqu’un oiseau revient au nid pour remplacer son partenaire, le couple fait un échange de cris semblable à une discussion : le mâle et la femelle alternent leurs cris de manière organisée. C’est au rôle de cet échange vocal que se sont intéressées les chercheuses dans cette étude.

En milieu naturel un oiseau qui quitte le nid pour aller se nourrir, doit partir au loin et perd donc tout contact avec son partenaire resté sur les œufs. Dans cette étude, cette séparation a été reproduite en captivité en construisant une grande volière avec deux pièces distinctes : une zone de nidification et une pièce où les oiseaux peuvent se nourrir. Ce dispositif a permis de perturber l’organisation des couples en bloquant le mâle en dehors de la zone de nidification pendant une heure. Il a ainsi été contraint de s’absenter deux fois plus longtemps qu’à l’ordinaire. Afin de mesurer l’effet de ce retard sur le comportement des partenaires, leurs allées et venues ont été suivies grâce à des puces radiofréquence fixées à leur bague, et leurs échanges vocaux ont été enregistrés à l’intérieur des nids.

Lorsque le mâle arrive en retard au nid, le couple a un échange vocal plus court et plus rapide qu’en temps normal. De plus, le contenu de cet échange accéléré détermine la répartition des tâches qui va suivre : plus le mâle émet de cris lors de cet échange, et plus la femelle reviendra rapidement au nid à son tour pour prendre la relève. Si le mâle crie peu, la femelle partira d’autant plus longtemps qu’il aura été en retard. Les diamants mandarins discutent donc pour se partager le temps que chacun va passer sur les œufs.

Il s’agit de la première démonstration d’une communication entre partenaires concernant le partage des soins parentaux. Ce phénomène s’apparente à un processus de négociation où chaque oiseau adapte son comportement à ce que signale son partenaire. Ces discussions pourraient exister chez d’autres espèces d’oiseaux et être utilisées pour organiser d’autres tâches telles que la construction du nid ou le nourrissage des oisillons. Mais ces hypothèses doivent encore être explorées.

Source : cnrs

Les stratégies des entreprises qui réussissent

Celles qui réussissent dans la durée avec une démarche stratégique, souple, en s’adaptant aux contingences économiques et financières

Le cas Saft, une entreprise presque centenaire, qui après avoir intégré Alcatel s’en est détachée et est, aujourd’hui, un des leaders des piles au lithium. Saft, s’est organisée autour de projets nouveaux dans un type de produit, la batterie, en innovant constamment dans des technologies de plus en plus sophistiquées.

Le cas Tefal est présenté dans le travail de Vincent Chapel en 1990, dans une thèse en gestion de l’innovation à l’École des Mines de Paris comme un cas exemplaire d’une catégorie particulière d’organisation : celle des « organisations orientées conception » (design oriented organizations). Elle possède comme caractéristique de ne pas simplement parvenir à mener à bien avec succès un projet d’innovation isolé, mais de développer une capacité à construire une trajectoire durable d’innovations successives introduisant des changements significatifs dans l’identité des produits, des marchés et des technologies. Elle a derrière elle plusieurs décennies de croissance forte basée sur l’innovation en termes de chiffre d’affaires et de nombre de salariés dans un contexte de concurrence sévère. Tefal est classée systématiquement en tête des rentabilités de son secteur, et peut distribuer jusqu’à 23 mois de salaire par an ! Par contraste, l’entreprise historique de cette industrie, Moulinex, connaît à la même époque de graves difficultés. La production de Tefal est entièrement localisée en France contrairement à ses concurrents, installés dans des pays à bas coût de main-d’œuvre.

Certains secteurs qui étaient encore en déshérence il y a dix ans se relèvent. Le secteur textile par exemple se porte ainsi mieux que la moyenne. Ce secteur compte en 2014, 65 000 emplois. L’orientation vers le luxe et les recherches entreprises vers les textiles techniques ont permis de contenir la concurrence, notamment allemande. Ces nouveaux textiles offrent des perspectives vers des applications variées, dont l’automobile, l’aéronautique, mais aussi le bâtiment et la santé.

Celles qui ont une stratégie de rupture avec les anciennes technologies

Le cas Gemalto. Une stratégie mono produit, avec des innovations incrémentales qui placent l’entreprise au plus haut niveau de son métier de base. Le leader mondial de la carte à puce et de la sécurité numérique, qui avec un chiffre d’affaires de 2,2 milliards d’euros en 2012, vient tout juste d’entrer au CAC40 à la place d’Alcatel Lucent. Les ventes de Gemalto ont progressé de 43 % et son bénéfice opérationnel de 79 % depuis 2009. L’entreprise n’hésite pas à attaquer Google et Samsung en justice sur l’utilisation de ses brevets de paiement sans contact. La valeur de son action a crû de 250 % depuis 2008. Cette entreprise a le monopole d’un produit phare et continue d’innover pour améliorer son produit.

Le cas Criteo est particulièrement intéressant. Autre PME française à la pointe de l’innovation, Criteo est devenue une société de technologie mondiale qui permet aux sites de e-commerce d’identifier le « bon client » en segmentant le marché en temps réel. Grâce à des algorithmes de prédiction associés à l’insight sur l’intention et l’engagement des consommateurs, cette entreprise est capable de chiffrer le prix et de livrer des bannières pertinentes et personnalisées, en temps réel. Criteo réussit cette opération grâce à un inventaire très important de sites Web dans le monde entier, via l’achat d’espaces publicitaires premium d’éditeurs et par l’intermédiaire des ad-exchanges en Real Time Bidding.

Le cas Deezer. L’innovation « service » en utilisant tous les canaux de communication pour diffuser un produit. Le service d’écoute de musique en ligne Deezer, avec un catalogue de 20 millions de titres, est passé de 1 à 30 millions d’utilisateurs en cinq ans. Un service « à la mode » centré sur une clientèle exigeante et jeune qui est capable de zapper à tout moment pour utiliser un autre vecteur : c’est le cadre dans lequel Deezer doit s’intégrer. Aujourd’hui cette entreprise est implantée dans 160 pays. Sa technologie est désormais intégrée à Facebook, présente dans certaines offres d’Orange et sera bientôt ajoutée aux téléviseurs connectés du Coréen LG. L’entreprise n’a été créée qu’en 2006 et, depuis, a su innover en permanence dans un univers concurrentiel. Son succès et son développement sont dus à sa souplesse et à sa vivacité pour adapter sa stratégie et son organisation à son projet.

Le cas Kolibree. La start-up « Kolibree » se lance à l’assaut d’un marché qui n’a pas de concurrent. Elle propose de commercialiser la première brosse à dents connectée. En effet, l’entreprise cible la relation parents-enfants à travers l’apprentissage de l’hygiène bucco-dentaire. La brosse à dents est électrique et contient des capteurs. Ces derniers transmettent les caractéristiques du brossage à l’application Kolibree préalablement téléchargée sur un Smartphone. Cette innovation va permettre un apprentissage du brossage de dents en fournissant des informations sur la fréquence et le temps de brossage des dents pour chaque enfant…

Le cas Bunkr, prêt à envoyer l’outil PowerPoint au placard. Bunkr est basée à Rouen, c’est une jeune société lancée en 2012, qui ambitionne de détrôner le célèbre outil de présentation PowerPoint avec une application plus simple, plus intuitive en ligne permettant de faire des présentations dynamiques.

La jeune société Sysnav développe un système nouveau de positionnement. Les solutions innovantes de navigation, de géolocalisation et de capture du mouvement sans GPS et sans infrastructure. Ses solutions sont fondées sur une technologie de géolocalisation de nouvelle génération magnéto-inertielle, largement primée au plan national et international. Elle est lauréate du prix de l’Innovation TR35/2014 du MIT Technology Review. Ses solutions visent les secteurs de la défense, de l’aéronautique, du spatial, du médical, du monde portuaire.

L’innovation produit. En mars 2014, l’entreprise Expliseat, créée en 2011 par trois ingénieurs, est passée du statut de jeune pousse à celui de société industrielle. Expliseat a, en effet, signé avec Air Méditerranée, un contrat d’un million de dollars, pour équiper avec ses sièges Titanium, l’un des Airbus A321 de la compagnie.

L’innovation produit toujours, mais dans un but humanitaire. Thomas Samuel, Français de 32 ans, a reçu le prix 2014 de l’innovateur solidaire. Fondateur de Sunna Energy en Inde, il fournit des systèmes d’éclairage public écologiques pour les régions défavorisées.

Celles qui soutiennent l’innovation sociale comme moyen de développer la motivation des salariés à innover sans arrêt

Le cas Technip. L’innovation sociale pour développer la motivation par la satisfaction des salariés sur les conditions de travail. Technip : cette entreprise est spécialisée dans les infrastructures énergétiques. Cette expertise reconnue dans la création et l’exploitation de plateformes offshore, mais aussi d’extraction sous-marine, d’organisation de navires spécialisés dans l’exploration et dans les énergies éoliennes. Elle a réalisé en 2013 un chiffre d’affaires de plus de 9 milliards d’euros. Ce groupe de 40 000 collaborateurs est présent dans 48 pays. Cette entreprise, selon un classement HappyTrainees , est placée en tête des entreprises où les alternants (apprentis et contrats de professionnalisation) s’estiment les plus heureux, avec L’Oréal et Microsoft. L’innovation sociale est un des aspects de cette entreprise qui a compris que la satisfaction au travail développe la motivation pour les résultats tout en centrant le management sur le développement des compétences. Le PDG a su transformer la culture d’ingénieurs de cette entreprise en culture « d’ingénieurs managers de projet » en la centrant sur « le business du client ». Sa stratégie gagnante repose ainsi sur trois axes : manager par les compétences, placer l’innovation au cœur de la stratégie et centrer les résultats sur la satisfaction du client.

Celles qui soutiennent l’innovation dans les services

L’innovation est aussi présente dans les services. « Nous traitons les problèmes concrets de façon scientifique », explique Rand Hindi, président de la start-up parisienne Snips, créée en 2012 avec Alexandre Vallette et Maël Primet. « Nous sommes spécialisés en modélisation prédictive. Pour cela, nous recourons au big data et aux machine learning, poursuit Rand Hindi. Grâce à un modèle prédictif bâti sur les statistiques de fréquentation du réseau Transilien de la SNCF, notre application mobile, baptisée Tranquilien, offre aux usagers d’Île-de-France de choisir le bon moment pour prendre le train. »

Roland ROBEVEILLE © GERESO Édition 2015

Manager l’innovation autrement
Comment relancer l’innovation dans les entreprises françaises

Date de parution : 24 septembre 2015

 

Coup de pouce de l’État en faveur de l’Open Source

Trois ans après sa première édition, cette mise à jour présente toujours un périmètre limité, en l’occurrence celui du poste de travail, de la gestion de parc, de l’exploitation de serveurs, des bases de données et des environnements de développement. Le SILL se présente sous la forme d’un tableau par fonctionnalité ou cas d’usage. Pour chaque fonctionnalité, il présente le logiciel préconisé en précisant la version. Chaque logiciel du SILL est suivi par un ministère référent.

Ce cru 2016 comprend des classiques comme la suite bureautique Libre Office, le logiciel de dessin et de gestion d’images The Gimp, le client de messagerie Thunderbird, l’outil d’inventaire OCS, l’environnement de développement Eclipse et la gestion des configurations Git. Ce SILL préconise également trois distributions GNU/Linux : CentOS, Debian et Ubuntu ainsi que la solution de virtualisation KVM.

Réuni en décembre dernier, le comité interministériel qui établit cette liste a ajouté MariaDB (référencé dans les bases transactionnelles aux côtés de PostgreSQL) et la base NoSQL Cassandra, répertoriée pour sa capacité à gérer de gros volumes de données. Mais pour l’instant, ces deux « nouveaux promus » devront faire leur preuve, car ils sont encore classés « en observation ». À l’inverse, l’annuaire OpenLDAP passe d’un statut « en observation » en 2015 à « recommandé » en 2016. Côté supervision d’infrastructure, Shinken fait son apparition aux côtés de Nagios.

Ce comité a également fait le ménage dans sa liste en supprimant le bloqueur de pub Adblock et le logiciel de chiffrement TrueCrypt considéré en fin de vie. Pour protéger leurs données sensibles, les administrations peuvent utiliser un « fork » de TrueCrypt, GostCrypt (LIEN : http://www.gostcrypt.org/gostcrypt.php?langue=fr) dont une nouvelle version vient d’être livrée par ses développeurs français.

La publication de ce SILL 2016 peut être l’occasion pour les entreprises publiques et privées de migrer vers des solutions Open Source au détriment de logiciels propriétaires. Publiée cet hiver, l’étude de marché prospective réalisée par le cabinet PAC pour le Conseil National du Logiciel Libre et du Syntec Numérique confirme « la pénétration croissante du Libre sur le marché informatique en France et confirme ses retombées en termes d’emplois »

Le marché du logiciel libre a représenté un chiffre d’affaires de 4,1 milliards d’euros en 2015. Ce marché affiche une croissance régulière. Le cabinet PAC annonce une croissance de 9 % par an pour atteindre un marché de près de 6 milliards en 2020, soit 13 % du marché des logiciels et services associés en France. Cette part équivaut à un quasi triplement de la part du libre sur le marché français en huit ans. Elle était de 5 % en 2012.

Néanmoins, tout n’est pas rose pour l’Open source. La Loi de finances 2016 pourrait mettre fin aux logiciels libres de comptabilité et de gestion de caisses. L’article 38 de ce projet de loi introduit en effet une notion particulière :

« […] Lorsqu’elle enregistre les règlements de ses clients au moyen d’un logiciel de comptabilité ou de gestion ou d’un système de caisse, utiliser un logiciel ou un système satisfaisant à des conditions d’inaltérabilité, de sécurisation, de conservation et d’archivage des données en vue du contrôle de l’administration fiscale, attestées par un certificat délivré par un organisme accrédité dans les conditions prévues à l’article L. 115-28 du code de la consommation ou par une attestation individuelle de l’éditeur, conforme à un modèle fixé par l’administration.
[…] Le fait, pour une personne assujettie à la taxe sur la valeur ajoutée, de ne pas justifier, par la production de l’attestation ou du certificat prévu au 3° bis de l’article 286, que le ou les logiciels de comptabilité ou de gestion ou systèmes de caisse qu’elle détient satisfont aux conditions d’inaltérabilité, de sécurisation, de conservation et d’archivage des données prévues par ces mêmes dispositions est sanctionné par une amende de 5 000 € par logiciel de comptabilité ou de gestion ou système de caisse. »

Avec de telles obligations, tous les logiciels de gestion d’entreprises sont potentiellement impactés, propriétaires ou libres sans différence apparente. Sauf qu’elles reviennent à priver l’utilisateur de sa liberté N° 3 octroyée par les logiciels libres : celle de modifier le programme. Autre répercussion : si une entreprise installe un logiciel libre et que le client bidouille ou fait bidouiller le programme en question pour frauder et se fait pincer, c’est l’entreprise qui sera responsable aux yeux de la loi, car elle aura attesté que le logiciel répond aux conditions d’inaltérabilité, de sécurisation, de conservation et d’archivage des données.

Par Philippe Richard

Pourquoi peut-on soulever une voiture avec deux annuaires ?

Internet regorge de séquences vidéo étonnantes mettant en évidence l’énorme force de friction existant entre deux annuaires entremêlés. Si l’on intercale les feuilles du premier annuaire entre celles du second, il est en effet possible de soulever une voiture, de résister à la traction de chars ou d’athlètes. Il est même envisageable de se jeter dans le vide en s’accrochant à un élastique simplement tenu par ces annuaires. Curieusement, une recherche bibliographique dans les articles scientifiques déjà publiés ne permettait pas, jusqu’à présent, de comprendre ces observations.

annuaires_a

Pour résoudre cette énigme, les chercheurs ont intercalé des feuilles de papier, les ont placées verticalement dans une machine de traction et ont mesuré la force nécessaire pour les séparer en fonction de leur nombre, de l’épaisseur du papier et de la distance de recouvrement. L’analyse des expériences révèle l’importance de ces trois paramètres combinés. Les chercheurs ont notamment montré que la résistance de l’ensemble augmente beaucoup plus rapidement que le nombre de pages. Par exemple, à partir du moment où le nombre de pages est suffisant pour résister à une tension, une simple multiplication par dix du nombre de feuilles peut, dans le cas où les pages se recouvrent suffisamment, amplifier d’un facteur dix mille la résistance des annuaires.

onpqc_2_a

Les chercheurs ont ensuite construit un modèle pour expliquer ces observations. Sur les côtés de l’empilement, les feuilles sont inclinées pour rejoindre la reliure; il existe alors un petit angle qui augmente au fur et à mesure que l’on ajoute des feuilles dans la pile ou que l’on intercale ces dernières plus profondément les unes dans les autres. Ainsi, quand on tire verticalement sur l’ensemble, une partie de la force est convertie en une force horizontale qui vient appuyer sur les feuilles. Les frottements permettent ensuite aux feuilles de rester liées les unes aux autres.

onpqc_1_a

Au-delà de l’aspect ludique de cette énigme, introduite dans l’émission On n’est pas que des cobayes sur France 5, cette étude rend désormais possible la mesure de coefficients de friction avec de très petites forces et pourront permettre de comprendre les comportements mécaniques de systèmes entremêlés plus complexes, comme les fibres textiles ou musculaires. Pour les chercheurs, l’intérêt futur réside ainsi, peut-être, dans la conception de nouveaux matériaux biomimétiques.

Source : cnrs

En Chine, Apple se veut 100% renouvelable

Apple annonce la mise en service de deux fermes solaires de 20 mégawatts (MW) dans la Province de Sichuan, en Chine. Ces installations permettent à l’entreprise à la pomme de produire plus d’électricité qu’elle n’en consomme pour ses 19 bureaux et 24 magasins chinois. D’autre part, Apple prévoit la construction de plus de 200 MW de projets solaire dans le nord, l’est et le sud de la Chine. Ces panneaux solaires « produiront l’équivalent  de l’énergie utilisée par plus de 265 000 foyers chinois pendant un an, ce qui commencera à compenser l’énergie utilisée dans la chaîne d’approvisionnement d’Apple », annonce la société dans un communiqué.

A terme, l’objectif d’Apple est de compenser intégralement les émissions de gaz à effet de serre dues à l’ensemble de ses fournisseurs. Pour ce faire, l’entreprise veut améliorer l’efficacité énergétique et l’utilisation des énergies renouvelables chez ses fournisseurs et partenaires industriels. Grâce à ces alliances industrielles, elle espère ainsi installer plus de 2 gigawatts d’énergies renouvelables dans les prochaines années.

Dans le cadre de ces partenariats, Apple partagera ses bonnes pratiques et fournira une assistance technique. Par exemple, son fournisseur Foxconn installera 400 MW de panneaux solaires, en 2018, pour produire assez d’énergie renouvelable pour compenser la consommation de son usine de Zhengzhou. Cette usine produit environ 70 % des iPhone d’Apple, soit environ 200 000 iPhones par jour.

Ces nouveaux programmes devraient permettre d’éviter l’émission d’environ 20 millions de tonnes de gaz à effet de serre  dans le pays d’ici 2020. « Cela équivaut à retirer environ 4 millions de voitures particulières de la route pendant un an », se félicite le géant américain.

par Matthieu Combe

ALMA révèle l’existence de chantiers de construction planétaire

Autour de chaque étoile ou presque orbite(nt) une ou plusieurs planètes. Toutefois, les conditions de leur formation demeurent aujourd’hui encore partiellement incomprises. Afin de lever ce voile de mystère, les astronomes étudient les disques de gaz et de poussière en rotation autour des jeunes étoiles à partir desquels les planètes se forment. La puissance d’ALMA leur a permis de s’affranchir de la petitesse de ces disques ainsi que de leur éloignement de la Terre.

Les disques transitoires constituent un type de disques particulier, dénués de poussière en leur centre, là où se situe l’étoile hôte. Cette mystérieuse absence de matière résulterait de l’un ou l’autre scénario ci-après : soit de puissants vents stellaires ainsi qu’un intense rayonnement ont balayé ou détruit cette matière, soit cette matière a été expulsée par les jeunes planètes massives en formation, alors qu’elles orbitent autour de leur étoile.

L’incomparable sensibilité d’ALMA d’une part, la netteté des images obtenues d’autre part, ont tout récemment permis à une équipe d’astronomes conduite par Nienke van der Marel de l’Observatoire de Leiden au Pays-Bas, de cartographier, avec un degré de précision inédit, la distribution de gaz et de poussière au sein de quatre disques transitoires. Les résultats obtenus leur ont en outre permis de privilégier l’un des deux scénarii de disparition de la poussière centrale.

This ALMA image combines a view of the dust around the young star HD 135344B (orange) with a view of the gaseous material (blue). The smaller hole in the inner gas is a telltale sign of the presence of a young planet clearing the disc. The bar at the bottom of the image indicates the diameter of the orbit of Neptune in the Solar System (60 AU).

Les images nouvellement acquises montrent l’existence de quantités significatives de gaz au sein des trous de poussière. A la surprise de l’équipe, il est toutefois apparu que le gaz présentait lui aussi une cavité, de dimension jusqu’à trois fois inférieure à celle du trou de poussière.

Cette observation trouve une seule et unique explication : les planètes massives nouvellement formées ont nettoyé le gaz à mesure qu’elles ont décrit leurs orbites autour de l’étoile centrale, et piégé les particules de poussière en périphérie.

“De précédentes observations suggéraient déjà la présence de gaz au sein des trous de poussière”, précise Nienke van der Marel. “ALMA étant capable de cartographier la matière sur la totalité du disque avec une résolution nettement supérieure à celle de tout autre instrument, nous avons été en mesure d’exclure l’autre scénario envisagé jusqu’à présent. Une cavité aussi profonde plaide nettement en faveur de l’existence de planètes dotées de masses de l’ordre de plusieurs masses joviennes, et résulte de leur balayage du disque.

Il est intéressant de noter que ces observations ont été effectuées alors que le réseau ALMA était encore en construction sur le Plateau Chajnantor au Chili. Il n’était doté alors que de 10% de son pouvoir de résolution actuel.

De nouvelles études, appliquées à d’autres disques transitoires, permettront peut-être d’établir l’universalité de ce scénario de défrichage planétaire. D’ici là, les observations d’ALMA auront fourni aux astronomes de précieux renseignements concernant le processus complexe de formation planétaire.

“L’ensemble des disques transitoires étudiés à ce jour et qui présentent de vastes trous de poussière, sont également caractérisés par des cavités de gaz. Grâce à ALMA, nous pouvons à présent déterminer le lieu ainsi que l’époque de formation de ces planètes géantes au sein de ces disques, puis comparer les résultats obtenus aux modèles de formation planétaire”, précise Ewine van Dishoek, de l’Université de Leiden et de l’Institut Max Planck dédié à la Physique Extraterrestre à Garching. “La détection directe de planètes est à la portée des instruments actuels, et la prochaine génération de télescopes actuellement en cours de construction, tel le télescope géant Européen, nous permetta de repousser ces limites. ALMA permet de cibler les observations à venir.”

Source : European Southern Observatory

Projet Ultimate CO2 : une meilleure compréhension des risques à long terme du stockage de CO2

Le BRGM (Bureau de recherches géologiques et minières) a coordonné depuis quatre ans le projet européen UltimateCO2 (Understanding the long-term fate of geologically stored CO2), qui regroupe 12 partenaires (instituts de recherches, universitaires et industriels) et un panel d’experts, sur financement européen (7e PCRD). Au coeur du projet, des calculs numériques ainsi que des observations en laboratoire ou sur analogues naturels, afin d’améliorer les connaissances sur les principaux effets à long terme du stockage géologique de CO2.

Une expérience a notamment été menée à échelle réelle sur le laboratoire expérimental de Mont Terri (Suisse), avec une couverture argileuse étudiée depuis plusieurs années. Objectif : analyser le comportement des puits, considérés comme des voies de fuites potentielles. Le concept était de reproduire une section d’un puits soumis à des contraintes similaires à celles d’un puits profond soumis à un stockage de CO2. Plusieurs paramètres ont été testés: une augmentation de température et de pression liée à la profondeur, et la mise en contact avec une eau acidifiée par du CO2 dissout pendant un an. En dehors du paramètre de pression, les résultats montrent plutôt une augmentation de l’étanchéité du puits dans ces conditions.

Des tests ont également été menés concernant la roche couverture, située au-dessus d’un stockage et dont l’imperméabilité permet de contenir le CO2. Les roches couvertures possiblement faillées ou fracturées peuvent présenter des risques de fuite. Les expérimentations ont consisté dans un premier temps à dégrader des roches argileuses, mécaniquement ou chimiquement, comme elles pourraient l’être sur le long terme en présence de CO2. Dans un second temps, les échantillons sont conduits jusqu’à la rupture afin d’évaluer leurs propriétés de résistance mécanique et d’écoulement. Or, les observations ont montré que l’imperméabilité de ce type d’argile dans les conditions étudiées restait assurée malgré la dégradation.

Ces expériences ont été complétées par des modélisations numériques, permettant notamment de simuler l’évolution du réservoir géologique jusqu’à 10 000 ans, avec une incertitude modérée sur des horizons de 100 ans mais plus importante sur des horizons de 1000 ans.

Pas de seuil critique atteint sur les conditions de stockage

Les modèles ont tout d’abord confirmé dans les cas étudiés que les impacts du stockage du CO2 à long terme sont faibles : pas de seuil critique atteint en termes de pression et de réactivation de failles et une évolution des flux de CO2 vers une situation stable.

Les simulations ont par ailleurs montré que, dans certains cas, une quantité importante de CO2 peut rester piégée sous forme gazeuse à l’horizon de 1000 ans. Le CO2 peut en effet changer de nature au cours du temps, soit en se dissolvant dans l’eau (comme dans une bouteille d’eau pétillante), soit en précipitant avec les roches. Or, dans les différents cas étudiés, on estime qu’au minimum 30% du CO2 reste sous forme gazeuse. Le risque de remontée de ce gaz reste donc présent sur le long terme, d’où la nécessaire imperméabilité du puits et de la roche couverture comme dans les accumulations naturelles de CO2. L’originalité du projet a enfin porté sur l’élargissement de l’étude des processus du réservoir à l’échelle du bassin sédimentaire. En effet, sur le long terme, un impact potentiel au-delà des zones de stockage n’est pas à exclure.

Où en est le stockage du CO2?

L’Agence internationale de l’énergie (AIE) estime que le captage et le stockage de CO2 devra contribuer à hauteur de 13% à l’effort de réduction des émissions de gaz à effet de serre nécessaire d’ici 2050 pour parvenir à limiter le réchauffement climatique à 2°C. Cette technologie a fait l’objet en 2005 d’un rapport spécial du GIEC, lui reconnaissant un rôle clé à jouer là où l’usage des énergies fossiles reste nécessaire au développement. L’Alliance nationale de coordination de la recherche pour l’énergie (Ancre) a également souligné le caractère incontournable de cette solution de lutte contre le réchauffement climatique dans ses Scénarios pour la transition énergétique, publiés en 2013. Pour que son déploiement généralisé puisse s’effectuer le plus rapidement possible, il est nécessaire d’accroître les connaissances et démonstrateurs sur les contextes géologiques propices et la surveillance des sites de stockage.

Il y a actuellement dans le monde 15 projets de capture et stockage du CO2 de taille industrielle en exploitation, 7 autres en cours de construction et 11 en conception. Ils démontrent qu’il est possible de capter le CO2 émis par des installations industrielles (centrales à charbon, usines de traitement du gaz naturel, usines sidérurgiques, cimenteries…) pour le stocker dans des aquifères salins profonds ou dans des réservoirs d’hydrocarbures épuisés. A ce jour, les quantités de CO2 déjà stockées sont de l’ordre de 50 Mt. Cela correspond seulement à 0,06% des 90 Gt visés par l’AIE d’ici à 2050. D’où l’effort considérable qu’il reste à accomplir pour déployer cette technologie sur quelques milliers de sites dans le monde. Cet objectif ambitieux nécessitera un cadre économique incitatif avec notamment un marché du CO2 fort.

En-dehors de la récupération assistée de pétrole, on peut envisager de coupler le stockage du CO2 avec les énergies renouvelables comme la géothermie ou la filière biomasse pour générer des bilans carbone négatifs.

Source : brgm

8 matériaux de construction innovants et méconnus

Ils existent et sont parfois utilisés depuis des années, pourtant ils sont encore trop méconnus. Voici quelques-uns de ces matériaux qui permettront peut-être de construire la maison de demain en lui octroyant des qualités devenues indispensables : résistance, durabilité, respect de l’environnement et économie en ressources, en énergie, et en coût.

Bat’IPAC et ses structures alvéolaires

BAT’IPAC, la société d’Alain Marboeuf (président) et d’Hubert Lê (inventeur) propose des constructions à partir d’un matériau innovant : l’IPAC (isolant porteur alvéolaire cellulosé). Depuis 2010, elle réalise des maisons en carton – n’allez pas comprendre en toc – faites de « plaques composées de feuilles de carton recyclé collées les unes aux autres », puis enduites de polyéthylène pour l’étanchéité.

Le produit est un isolant thermique efficace et écologique en plus d’offrir d’autres avantages : une grande résistance aux intempéries (il a su faire face à 31 tempêtes à Belle-Île-en-Mer), un prix intéressant (60 000 euros pour une habitation de 90 m²) et surtout des qualités écologiques qui concordent avec la politique de développement durable vendue par la société. Le carton peut en effet être recyclé sept fois. La colle est à base d’amidon de maïs ou de blé. Et la fabrication ne nécessiterait que peu d’énergie. Autre bienfait, BAT’IPAC sollicite les centres ESAT (Etablissement et service d’aide par le travail) pour assembler les panneaux.

Le traitement du bois par haute température 

Traiter le bois par haute température, c’est ce que propose la société THT. Pour obtenir un bois aux nouvelles propriétés, elle le soumet à une température qui monte progressivement « dans un milieu contrôlé en oxygène et en humidité ». Selon le niveau de température et le degré de dégradation de l’hémicellulose (une des composantes du bois), la nature du bois obtenue diffère. THT compare ce procédé à une pyrolyse ménagée.

Le traitement a ses bienfaits. La résistance à l’humidité est accrue de 30 à 50% entraînant une meilleure durabilité ainsi qu’une stabilité des dimensions du bois dans le temps. Le bois traité est moins atteint par les moisissures. Qui plus est, le procédé est respectueux de l’environnement. Il n’y a pas d’ajout de produits de synthèse. Ce qui veut dire que seule la température est responsable du changement des propriétés du bois.

L’usage des produits traités se diversifie avec les années. Il s’étend désormais aux produits d’intérieur (ameublement, menuiserie…) ainsi qu’aux produits d’extérieur (bardages, équipements de jardin, routiers et menuiserie). Il devrait donc dans le futur trouver de nouvelles utilisations.

Le carrelage écologique

En Allemagne, l’institut Fraunhofer a mis au point un carrelage organique à base d’huile de lin, de fibres naturelles et de célite – issu de diatomées fossilisées, une classe de micro-algues brunes. Ici aussi les avantages sont multiples. Le carrelage Fraunhofer est plus souple et plus léger que la moyenne. Après moulage, il peut prendre différentes formes. Il résiste très bien aux hautes températures (jusqu’à 120 degrés). Sa fabrication est peu gourmande en ressources et en énergie. Et bien sûr, les carreaux sont écologiques. Chaque parcelle de carrelage étant biodégradable. En bonus, il est possible de choisir les couleurs et motifs avant la fabrication et de rendre lumineux les carreaux en incorporant des pigments fluorescents. Voilà donc une conception qui cadre bien avec la volonté de l’Union Européenne de réduire la consommation énergétique de 20% d’ici 2020.

Le béton LiTraCon laisse passer la lumière

La société austro-hongroise LiTraCon, spécialisée dans la création de matériaux de construction, est quant à elle à l’origine d’un béton en quelque sorte translucide dans lequel ont été insérés des fibres optiques. Grâce à elles, la lumière peut traverser un mur LiTraCon – jusqu’à une épaisseur de 20 mètres selon les tests.

Il augure d’intéressantes perspectives, pour les constructeurs mais aussi pour les artistes qui désireraient s’accaparer de ce matériau. D’une part car les caractéristiques habituelles du béton sont conservées en termes de résistance et d’isolation. D’autre part, il permet de créer des jeux d’ombre et de lumière, de mettre en évidence des silhouettes et de rendre son intérieur plus vivant.

Seul défaut, un parpaing LiTraCon est fabriqué à la main. Ce qui entraîne des répercussions évidentes sur le coût d’achat, très onéreux.

Allwater, la maison isolée par l’eau

Loger de l’eau à l’intérieur des murs et des planchers pour en faire un isolant, personne n’y avait encore pensé. L’architecte hongrois Matyas Guntai a donc eu une idée plutôt originale en imaginant (et en construisant) une maison qui intègre dans toute sa structure des panneaux de verres et d’acier contenant de l’eau permettant de garder une température agréable tout au long de l’année.

D’après Matyas Guntai, son système s’adapte naturellement aux changements de saison. Ainsi, pendant les grandes chaleurs, l’énergie liée à la température est dirigée puis emprisonnée dans un réservoir d’eau sous la maison – laquelle est ensuite redistribuée en hiver dans les murs.

Toujours selon l’architecte, ce serait une solution économiquement rentable puisqu’elle pourrait faire baisser la facture d’énergie jusqu’à 20%. Il ne dit pas, en revanche, si la structure est capable de de résister aux séismes ainsi qu’aux impacts lourds.

Les briques en papier signées BetR-blok

BetR-blok est une start-up américaine qui a basé son activité sur la conception de briques à partir de ciment et de cellulose provenant de papier et de carton recyclés.  Les briques ne présenteraient aucun souci de solidité, et seraient même de très bons isolants thermique et acoustique, tout en présentant une résistance aux moisissures et au feu.

Mais l’argument de poids, c’est leur vertu écologique. Comme l’assurent les concepteurs du projet, « avec le papier gaspillé chaque année aux États-Unis, on pourrait construire un mur de 15 mètres de haut tout autour du pays ».

Btonlin, le béton à base de fibres de lin

Avec 75 000 hectares, la France est le premier producteur de lin dans le monde.  Une ressource locale à laquelle se sont intéressés le laboratoire de recherche de l’ESITC Caen et l’entreprise du bâtiment CMEG, qui en ont développé un béton, à partir de ses fibres : le Btonlin.

Les propriétés du lin confèrent au Btonlin résistance (aux fissurations notamment) et isolation thermique et promettent un impact environnemental moindre. Le matériau est conforme aux futures réglementations (Réflexion Bâtiment responsable 2020) ainsi qu’au label Bâtiment Biosourcé. Il devrait être commercialisé en 2016.

SECC, le béton centenaire

Mis au point par une équipe de chercheurs de l’Université du Wisconsin-Milwaukee dirigée par le professeur Konstantin Sobolev, le Superhydrophobic Engineered Cementitious Composite (SECC) est un béton bien plus résistant à l’eau et aux fissures qu’un béton traditionnel, avec une durée de vie qui pourrait atteindre les 120 ans.

Ployer mais ne pas rompre, tel est la devise du SECC. Un de ses atouts majeurs c’est en effet sa ductilité (la capacité d’un matériau à se déformer), qui serait jusqu’à 200 fois supérieure à un béton ordinaire. Une performance rendue possible grâce à des fibres d’alcool polyvinylique non tissées incorporées au béton.

Le SECC est aussi très résistant à l’eau, qui s’écoule par des micros-craquelures, au lieu de s’infiltrer dans les fissures où elle risquerait de stagner. Ce qui, lors de grands froids, éviterait de détériorer le béton. Le SECC serait ainsi capable d’encaisser une compression jusqu’à quatre fois plus importante que le béton armé.

De par ses propriétés très résistantes, le SECC pourrait trouver des applications dans l’édification de ponts, ou toute construction soumise à un niveau de dégradation plus forte.

par Sébastien Tribot

Internet des Objets : Alimenter des capteurs via des ondes radios

Faire fonctionner des appareils électroniques de l’Internet des Objets (IoT) grâce aux ondes radios : tel était le sujet de thèse de Hao Gao, étudiant-chercheur à l’Université Technique d’Eindoven (TU/e), aux Pays-Bas. Le doctorant a conçu un capteur de température (miniature) sans fil. Il est alimenté par un routeur sans fil, qui envoie, via ses antennes, des ondes radio.

haogaosensor
Capteur sans fil

Ces ondes sont converties en énergie, et accumulées jusqu’à permettre au capteur de fonctionner, de mesurer la température ambiante et de renvoyer un signal radio au routeur. Pas de batterie, ni de câble : le capteur peut être incorporé dans le béton ou dans la peinture d’un mur, et être utilisé par des installations domotiques.

Domotique et bâtiments intelligents

Si le système inventé par Hao Gao ne fonctionne encore que sur une courte portée (2,5 centimètres), son jeune inventeur pense qu’il pourrait être utilisé un jour pour alimenter des capteurs (surtout miniatures) de mouvement, de lumière ou d’humidité, ce qui constituerait un grand plus pour le développement de l’Internet des Objets (“Internet of things”, ou “IoT”).

De nombreuses applications seraient facilitées par une telle technologie sans fil, en domotique, mais aussi dans le domaine des “bâtiments intelligents”, ou du paiement sans fil. Cerise sur le gâteau, le coût de production en masse de ces capteurs se situerait aux alentours des 20 centimes d’euro”.

Par Fabien Soyez

Internet des objets : une sécurité négligée

Bref, demain, tous les domaines d’activité ou presque seront connectés : la santé, l’habitat, l’automobile, l’assurance… Cette évolution soulève de nombreuses questions concernant la croissance économique et les mutations sociales, mais aussi les libertés individuelles et la souveraineté nationale.

Mais la sécurité de ces milliards de connexions par lesquelles vont transiter d’énormes flux de données n’est pas encore prise en compte par de nombreux fabricants.

Une aubaine pour les pirates qui peuvent dès maintenant s’engouffrer dans de nombreuses failles non corrigées ou mal protégées. Généralement, ces vulnérabilités ne sont pas connues des industriels eux-mêmes, trop focalisés sur l’ergonomie et la facilité d’usage ! Rien de surprenant en réalité. La majorité des nouveaux objets connectés présents en entreprise et chez les particuliers sont développés par des constructeurs non spécialistes des problèmes de sécurité informatique.

Or, la facilité d’usage (le créneau est de limiter au maximum les manipulations) est incompatible avec une sécurité cohérente. Résultat, 90% des réseaux informatiques auront subi au moins une brèche liée à l’Internet des Objets si l’on en croit une étude d’IDC.

La situation pourrait devenir catastrophique pour des entreprises. « Si le système d’information de l’entreprise est attaqué, tous les objets connectés sont paralysés : portes, caméras, ordinateurs, imprimantes… En effet, l’indisponibilité des données et des services ainsi que la perte définitive des données sont les principales conséquences de ce manque de protection. Ceci engendre inévitablement un risque économique (perte d’exploitation liée à l’indisponibilité d’un site web marchand par un déni de service le rendant inaccessible). Au-delà de cela, un piratage nuit fortement à l’image de l’entreprise », explique Hervé Dhelin, directeur marketing d’EfficientIP, une société française fondée en 1997 par des Ingénieurs spécialisés dans les services réseaux.

Mais la voiture connectée représente l’exemple type de la sécurité bâclée. Les modèles récents présentent de nombreuses failles qui démontrent que les constructeurs mondiaux n’ont pas du tout intégré cette problématique.
Principalement utilisées par les garagistes pour établir un diagnostic complet et rapide de l’état du véhicule, les entrées diagnostic restent accessibles à n’importe qui. Or, elles peuvent parfois contenir des informations critiques pour l’utilisateur.

Comme pour les réseaux industriels, les voitures connectées intègrent des capteurs développés à une époque où l’on n’évoquait même pas la sécurité. C’est le cas du CANBus (Controller Area Network), Bus CAN en français. Ce bus série est utilisé majoritairement dans les systèmes automobiles depuis son apparition dans les années 80. Or, les constructeurs se servent du flux utilisé par le CANBus pour échanger des informations (l’allumage/extinction des phares, l’ouverture automatique des portes, le déclenchement des airbags..). Autant de données en accès libre…

Même un banal lecteur de CD peut être une faille pour pirater un véhicule. En 2011 des chercheurs des universités de Californie et de San Diego ont réussi à pénétrer le système électronique d’une voiture par son lecteur CD3. Ceux-ci ont injecté du code malicieux dans le fichier audio contenu sur le disque.

Enfin, la sécurité informatique concerne aussi la protection des données personnelles.
Là aussi, il y a de grosses lacunes. Une équipe de chercheurs français a en effet constaté que certains nouveaux objets connectés récupéraient des informations personnelles (sur la configuration d’une habitation par exemple), à l’insu de leurs propriétaires pour les envoyer vers des serveurs à l’étranger.
Dans quels buts ?

Par Philippe Richard

Des chercheurs créent un hologramme en couleurs… et rêvent d’une “TV holographique”

Le premier hologramme en couleurs : c’est ce que des chercheurs coréens, travaillant pour un consortium de 16 labos d’optique gérés par LG, affirment avoir conçu.

Oubliez donc le faux hologramme du chanteur Tupac, qui n’était en réalité qu’un “fantôme de Pepper” (une illusion d’optique qui remonte au XIXe siècle). Cette fois, les scientifiques coréens ont conçu, non pas une image en 2D projetée de façon à donner l’illusion de la 3D, mais d’une image véritablement en trois dimensions – que l’on peut ainsi regarder sous différents angles.

Diffraction et franges d’interférence

Dévoilé dans une vidéo de démonstration de l’Electronics and Telecommunications Research Institute, l’hologramme d’un Rubik’s Cube rappelle quelque peu le premier épisode de la saga Star Wars… Et suivant le procédé de l’holographie (qui remonte à une trentaine d’années, au moins), il a été conçu grâce à la diffraction.

Concrètement, l’objet d’origine (ici, un Rubik’s Cube) est éclairé par différents lasers. En combinant l’onde émise par la source (les lasers) et l’onde réfléchie par l’objet, les scientifiques obtiennent des “franges d’interférence” (des bandes sombres et brillantes, semblables à celles produites lors de l’expérience des fentes d’Young). Ces franges, enregistrées sur une surface sensible, puis éclairées à nouveau par un laser, forment alors une image en relief de l’objet d’origine.

Selon les scientifiques coréens, qui ont donné peu de détails sur leur invention, la couleur de l’hologramme est affichée grâce à la production d’interférences via des lasers de teintes différentes.

Bien que l’hologramme obtenu “tremble” et ne mesure que 7,6 centimètres, les chercheurs espèrent pouvoir améliorer leur système, jusqu’à multiplier sa taille par 3 ou 4, d’ici 2020. A ce moment là, le consortium de laboratoires de LG pourra alors fabriquer la première “télévision holographique”.

Par Fabien Soyez

Les plus gros piratages de 2015

Janvier : 20 000 sites français piratés

Des musées, des universités, des conseils généraux, des églises ou des PME… Après l’attentat contre Charlie Hebdo, de nombreux sites ont été victimes de pirates se réclamant du groupe État islamique. Dans la majorité des cas, ce piratage s’est limité à du « défacement » (modification de la page d’accueil notamment en remplaçant du texte par des revendications et/ou des images). Ce nombre élevé peut surprendre. En réalité, très peu de sites appliquent des règles élémentaires de sécurité.

etat-islamique-600300

Février : le « casse » du siècle

Selon l’éditeur russe d’antivirus Kaspersky, une centaine d’établissements bancaires d’une trentaine de pays auraient perdu entre 260 à 880 millions d’euros. Cette attaque massive aurait été organisée par des équipes russes et ukrainiennes.

banques660300

Avril : mauvais vol chez Ryanair

Environ 4,5 millions d’euros ont été dérobés d’un des comptes de la compagnie aérienne à bas coûts Ryanair. Selon la société irlandaise, des pirates informatiques se seraient emparés de la somme par « un transfert électronique frauduleux passé via une banque chinoise ».

ryanair-aircraft-660300

Juillet : des états civils plus privés

Des informations confidentielles sur la vie et l’état civil de près de 7% des Américains ont été volées dans les serveurs de l’Office of Personnel Management, une agence du gouvernement fédéral des États-Unis qui gère notamment les demandes d’emploi dans la fonction publique. 22, 5 millions de personnes sont concernées par ce vol de données personnelles. Ce n’est pas la première fois que des administrations américaines sont victimes d’intrusion.

office-of-personnel660300

Juillet : des hackers au volant

De plus en plus de véhicules seront connectés d’ici quelques années. Les constructeurs devront renforcer la sécurité de leurs modèles sous peine de sortie de route ! Dans le Missouri, deux hackers ont en effet démontré qu’il était possible de prendre le contrôle à distance d’une Jeep Cherokee commercialisée par le groupe Fiat Chrysler. Situés à une quinzaine de kilomètres du véhicule, Charlie Miller et Chris Valasek (deux experts en sécurité, le premier étant connu notamment pour avoir révélé plusieurs failles dans l’iOS d’Apple) ont coupé le moteur pendant que la voiture roulait sur une autoroute. Ils ont également pris le contrôle des freins et du volant.

Jeep_Cherokee660300

Août : des rencontres adultères… publiques

33 millions de comptes utilisateurs (dont des Français avec des adresses du ministère de l’Intérieur, de la Culture ou de plusieurs mairies) d’Ashley Madison ont été récupérés par un pirate. La base de données de cet important site de rencontres adultères comprend des informations très sensibles, comme les préférences sexuelles ou le numéro de téléphone. Pire, aux États-Unis, plus de 15 000 adresses email utilisées pour la création du compte provenaient de l’administration américaine ou de l’armée. De quoi lancer des opérations d’usurpation d’identité ou du chantage. Des sanctions disciplinaires et des peines de prison sont annoncées. Les conséquences sont parfois dramatiques. La police canadienne enquête sur deux suicides potentiellement liés au piratage de ce site géré par Avid Life Media, une société canadienne de Toronto.

Ashley-Madison660300

Novembre : jouets en panne

Le fabricant de jouets Vtech a été victime du piratage d’une de ses bases de données. Des clients français, canadiens, ainsi que des ressortissants d’autres pays étaient enregistrés dans ce fichier d’environ 6 millions de données. Un internaute britannique de 21 ans a été arrêté le 17 décembre. Il ne serait pas le seul pirate à avoir pénétré ce serveur…

vtech-hack660300

Par Philippe Richard

Des incertitudes sur la toxicité des fragments de clivage

Si les effets des fibres d’amiante sur la santé sont bien documentés, il existe des incertitudes sur la toxicité des fragments de clivage. De plus, les méthodes analytiques actuelles ne permettent pas de distinguer de façon simple les fragments de clivage des fibres d’amiante. L’Anses a été saisie par les ministères en charge de la santé, du travail et de l’environnement pour documenter les expositions des professionnels aux fragments de clivage, les effets sanitaires en résultant, et les méthodes ou critères permettant d’affiner les analyses de matériaux et d’air. Dans l’avis et le rapport publiés ce jour, elle conclut qu’en l’état actuel des connaissances, les fragments de clivage des minéraux homologues des amiantes réglementés ayant les dimensions d’une fibre ainsi que certaines espèces minérales actuellement non réglementées peuvent conduire à des effets sanitaires similaires à ceux de l’amiante. L’Agence recommande dans ce contexte la prise en compte de ces effets potentiels dans le cadre réglementaire en vigueur.

Dans la réglementation européenne, le terme amiante fait référence à 6 minéraux présents naturellement dans plusieurs types de roches : d’une part une serpentine, le chrysotile, et d’autre part, cinq amphiboles, l’actinolite-amiante, l’anthophyllite-amiante, la trémolite-amiante, l’amosite et le crocidolite.

Le point sur les fibres d’amiante et les fragments de clivage

Dans l’environnement naturel, l’actinolite, mais également les autres amphiboles, peuvent se présenter sous différentes morphologies, dites asbestiformes ou non asbestiformes. Les minéraux non asbestiformes et leurs homologues asbestiformes (i.e. actinolite et actinolite-amiante) ont la même composition chimique mais se différencient par leur mode de croissance dans les roches. Actuellement, seules les morphologies asbestiformes des 5 amphiboles précitées et le chrysotile font l’objet d’une réglementation.

Lorsqu’une contrainte mécanique est appliquée sur les minéraux non asbestiformes, comme lors du broyage des roches extraites des carrières pour la fabrication de granulats par exemple, ceux-ci peuvent se cliver et libérer des particules plus ou moins allongées appelées « fragments de clivage ». Ces particules peuvent parfois être comptabilisées comme des fibres d’amiante, du fait notamment de leurs caractéristiques dimensionnelles.

Le travail de l’Anses

Suite à l‘identification de fibres d’actinolite-amiante et de fragments de clivage d’actinolite dans les granulats (roches) d’enrobés routiers, l’Anses a été saisie par les ministères en charge de la santé, du travail et de l’environnement pour réaliser une expertise sur les expositions professionnelles aux fragments de clivage, leurs effets sanitaires potentiels et les méthodes d’analyse dans l’air et les matériaux. Les fragments de clivage d’intérêt sont ceux susceptibles d’être comptabilisés comme fibres d’amiante lors des analyses d’air, c’est-à-dire les fragments de clivage de minéraux homologues des amiantes réglementés, à savoir d’actinolite, d’anthophyllite, de trémolite, de grunérite et de riébeckite ayant les dimensions d’une fibre définies par l’Organisation Mondiale de la Santé (longueur supérieure à 5 µm, diamètre inférieur à 3 µm, rapport d’allongement supérieur à 3) et donc susceptibles d’être inhalés. Par ailleurs, les données relatives aux amphiboles pour lesquelles des données préoccupantes sur la santé existent et ayant une composition chimique très proche de celle de certaines des 5 amphiboles précitées ont également été étudiées.

D’une façon générale, l’Anses souligne la difficulté à identifier des données sanitaires spécifiques aux fragments de clivage, du fait de co-expositions à des fibres asbestiformes ou à d’autres facteurs de risques respiratoires, mais aussi de l’absence de données renseignant les dimensions ou la morphologie des particules minérales étudiées. De plus, les études disponibles ne discutent pas des paramètres autres que les critères dimensionnels et pouvant avoir une influence sur la toxicité de ces particules, comme la biopersistance, les contaminants, la réactivité de surface, etc.

Au vu des données analysées, l’Anses conclut qu’il n’est pas possible d’exclure un risque pour la santé lié à l’exposition aux fragments de clivage d’actinolite, d’anthophyllite, de trémolite, de grunérite et de riébeckite. Par ailleurs, certaines données indiquent des risques pour la santé similaires à ceux induits par l’amiante pour des espèces chimiques ne faisant actuellement pas l’objet de réglementation : la winchite, la richtérite, la fluoro-édénite et l’érionite.

Enfin, il n’a pas été possible d’identifier de données d’exposition spécifiques aux fragments de clivage, en raison notamment de co-expositions avec des fibres d’amiante, et des difficultés analytiques pour les distinguer formellement des fibres d’amiante.

Les recommandations de l’Anses

Au vu de ses conclusions, l’Anses recommande une évolution du cadre réglementaire en vigueur afin de prendre en compte les effets sanitaires associés aux fragments de clivage d’actinolite, d’anthophyllite, de trémolite, de grunérite et de riébeckite, dès lors qu’ils ont les dimensions d’une fibre telles que définies par l’OMS.

Par ailleurs, compte tenu des effets sanitaires similaires à ceux de l’amiante mis en évidence pour la winchite, la richtérite, la fluoro-édénite et l’érionite, l’Anses recommande également que la réglementation en vigueur soit étendue à ces quatre espèces minérales.

Au delà, l’Anses liste des recommandations quant à la conduite des travaux susceptibles d’engendrer une exposition à ces particules minérales dans le secteur des carrières et chantiers routiers. D’autres domaines, comme le secteur du bâtiment et des travaux publics en environnement naturel ou mettant en œuvre des matériaux manufacturés à partir de matériaux naturels, peuvent également être concernés par cette problématique. Avant de démarrer ce type de travaux, il apparaît nécessaire que soient réalisées des cartographies des sites pour repérer la présence de particules.

Enfin, en matière de métrologie, l’Anses propose des recommandations visant à améliorer le prélèvement et l’analyse des particules minérales dans les matériaux naturels, et à homogénéiser les résultats des laboratoires.

Source : anses

L’espace, nouvel el dorado commercial ?

En novembre 2014, après plus de 10 ans de voyage, l’agence spatiale européenne réalisait une grande première dans l’aventure spatiale : la sonde Rosetta se plaçait en orbite de la comète 67P/Tchourioumov-Guerassimenko et envoyait à sa surface l’atterrisseur Philae. Dans quelques années, les américains espèrent de leur côté faire atterrir des « bulldozers » sur des astéroïdes pour extraire leurs ressources.

Les Etats-Unis viennent d »adopter « The US Commercial Space Launch Competitiveness Act » ou « Space Act ». Cette loi prévoit que « toutes les ressources d’astéroïdes obtenues dans l’espace sont la propriété de l’entité qui les a obtenus », c’est-à-dire de tout américain ou entreprise américaine. Cette nouvelle loi autorise la prospection de l’eau et des métaux des astéroïdes, leur extraction et leur vente aux Etats-Unis. C’est le début d’une nouvelle ère de la conquête spatiale.

Si une entreprise américaine peut s’accaparer les ressources d’un astéroïde, elle ne pourra néanmoins pas se déclarer propriétaire du corps céleste, en accord avec le traité international de 1967 qui régit l’exploration spatiale. Ce traité stipule en effet que les États ne peuvent pas se déclarer propriétaire d’une parcelle spatiale. Il faut dire qu’à l’époque, on ne pensait pas encore à l’exploitation commerciale de l’espace !

Des ressources à gogo

Pionnières dans le secteur, Deep Space Industries (DSI) et Planetary Resources, des entreprises de transport ou de forage spatial, lancent la course pour conquérir ces nouvelles mines. Extraction de platine, de nickel, d’or, de fer ou encore de glace… les richesses enfermées dans les astéroïdes sont considérables. Ces ressources ne seront pas toutes ramenées sur Terre, elles permettront également d’approvisionner la Station spatiale internationale (ISS) et les futures missions d’exploration ou de colonisation de l’espace en eau et carburant. Cette exploitation permettrait de réapprovisionner les engins spatiaux en eau potable, mais aussi en carburant via la production d’hydrogène par hydrolyse de l’eau. La première « station-service » de l’espace pourrait ainsi naître pour ravitailler les navettes parties à la conquête de l’espace.

Cette loi permet de consolider le modèle économique de ces sociétés et d’attirer les investisseurs grâce à un cadre légal clair. « Cette économie hors de la planète va améliorer à jamais nos vies ici sur Terre. Nous célébrons cette loi car elle crée un environnement favorable à la croissance de notre industrie naissante, en encourageant l’investissement du secteur privé et en assurant un environnement réglementaire de plus en plus stable et prévisible », se félicite Chris Chris Lewicki, Président et ingénieur en chef de Planetary Resources.

Une industrie très rentable

Les premières missions de prospection devraient intervenir à compter de 2017 et s’étaler jusqu’en 2019, selon les différents acteurs interrogés par l’AFP. Elles viseront à confirmer les données disponibles sur des astéroïdes facilement accessibles. Selon la Nasa, environ 10 % des 1 500 astéroïdes facilement accessibles seraient dotés de ressources minières importantes. Si le début de l’extraction ne devrait pas commencer avant 2020, Chris Lewicki prévoit la création d’une économie du ravitaillement en carburant dans l’espace dans les dix prochaines années.

Ce marché serait juteux. Il devrait atteindre les 3 000 milliards de dollars dans les dix à quinze prochaines années, selon DSI et Planetary Resources. Et pour cause : un seul astéroïde pourrait contenir plus de platine que tout ce qu’on a extrait du sous-sol de la Terre à ce jour. Les ressources d’un seul astéroïde riche en minerais peuvent s’évaluer à plusieurs milliers de milliards de dollars.

Selon ses défenseurs, cette nouvelle industrie pourrait être la clé de la conquête spatiale. Car l’exploitation de ces ressources pourrait permettre d’installer les premères colonies lunaires, martiennes ou ailleurs. Elle permettrait aussi de construire les navettes en orbite pour éviter les lancements, fortement émetteurs de gaz à effet de serre.

Quelles sont les critiques ?

Cette loi accorde un droit de propriété opposable uniquement aux États-Unis. Mais rapidement, d’autres pays devraient voter des lois similaires pour leurs entreprises afin de ne pas laisser les Etats-Unis s’approprier l’espace . Mais dans cette nouvelle conquête spatiale, les pays pauvres seront encore les grands perdants.

L’extraction des minerais dans l’espace pourra là encore nuire à l’environnement autour de la Terre et, éventuellement, conduire à des conflits sur les ressources. Que se passera-t-il lorsque deux sociétés de nationalités différentes défendront leur droit de propriété sur les ressources d’un même astéroïde selon leurs lois nationales ? La règle du premier arrivé, premier servi, sera-t-elle la règle, comme dans la ruée vers l’or ?

Les mêmes problèmes que sur Terre semblent pointer le bout de leur nez dans l’aventure spatiale. « L’idée que les entreprises américaines peuvent, sur la base de leurs seules lois nationales, exploiter systématiquement les ressources minérales dans l’espace , en dépit des risques environnementaux énormes montre réellement l’audace de la cupidité », s’insurge Gbenga Oduntan, Maître de conférences en droit du commerce international à l’Université de Kent. Dans la course infinie à la croissance, l’espace semble bien être le nouveau terrain de jeu des « grandes » nations.

Par Matthieu Combe, journaliste scientifique

Elections en Espagne : quelle politique énergétique ?

Victoire en trompe l’œil

Pour la première fois depuis les élections libres, aucun des deux grands partis politiques ne s’est imposé. Les conservateurs (PP) arrivent en tête du scrutin avec 123 sièges, soit 28,7% des voix, en nette baisse par rapport à 2011 (le PP avait réuni 44,6%). Les socialistes obtiennent 22% des voix et 90 sièges au Congrès. Des résultats très décevants pour les deux partis. Et pour cause, ils ont vu éclore deux nouvelles forces politiques devenues incontournables. Le PSOE est concurrencé sur sa gauche par Podemos, un parti né il y a 3 ans du mouvement des Indignés. Décidé à mettre fin aux politiques d’austérité menées dans le pays depuis la double crise immobilière et économique, Podemos a su convaincre nombre d’Espagnols qui se sentent sacrifiés sur l’autel des coupes budgétaires. Le Parti d’extrême-gauche a presque fait jeu égal avec le PSOE, mais a obtenu moins de députés (69) en raison des particularités du système électoral. Enfin, Ciudadano’s (centre-droit) déçoit quelque peu les attentes avec 40 sièges. Dans cette configuration très particulière, aucun parti, même allié à sa formation politique la plus proche (PP/C’s ou PSOE/Podemos), n’obtient la majorité absolue de 175 députés. Les sièges restants (28) sont attribués à des formations régionales telles que ERC-CATSI (Catalan) ou encore Coalition des Canaries. La future majorité sera composée d’ici le 13 janvier prochain, date de formation de la nouvelle assemblée. Le chef de gouvernement devra pour cela composer avec différentes tendances pour construire une majorité parlementaire solide. Ainsi, pour la première fois outre-Pyrénées, le parti qui n’a pas terminé en tête du vote (le PSOE) pourrait néanmoins diriger le pays à la faveur de combinaisons politiques. Si aucune majorité n’est trouvée, la Constitution prévoit qu’un nouveau scrutin devra être organisé.

Fin du bipartisme

Cette élection a un caractère historique. Aucun des deux grands partis (le PP et le PSOE) ne s’est clairement imposé et la montée en puissance de Podemos, et dans une moindre mesure Ciudadano’s, a mis à bat le bipartisme qui était la règle depuis la chute du Franquisme et l’avènement de la démocratie en 1975. Si les jeunes élus de Podemos et C’s participent à renouveler une classe politique espagnole vieillissante, ils modifient également de nombreux rapports de force. Désormais dominée au niveau national par quatre partis, la vie politique va se complexifier avec des coalitions de circonstances. C’est notamment le cas sur la politique énergétique. Si tous les partis appellent à « un Pacte d’Etat sur l’énergie », une obscure expression reprise tous les quatre ans lors des élections, ils divergent en revanche sur de nombreux aspects. De fait, la fin du bipartisme en Espagne a considérablement complexifié l’équation énergétique du pays.

L’atome en question

Jusqu’alors, l’opposition droite/gauche avait un sens dans le secteur énergétique espagnol. Les conservateurs prônaient une plus grande libéralisation des marchés de l’énergie (électricité, gaz, carburants), un développement des énergies renouvelables sans soutien public ou presque, et la poursuite de l’énergie nucléaire. Les réformateurs outre-Pyrénées critiquaient la libéralisation excessive des marchés de l’énergie (mais l’acceptent dans le cadre européen), souhaitaient la fin progressive du nucléaire et considèrent qu’il faut soutenir les énergies renouvelables pour qu’elle deviennent la principale source d’énergie à un horizon plus ou moins lointain. Ceci était le schisme idéologique de l’échiquier politique espagnol, que l’on peut d’ailleurs retrouver dans d’autres pays européens.

Cette opposition a quelque peu volé en éclat avec l’avènement de Podemos et de Ciudadano’s en particulier. Ainsi, la formation de centre-droit appelle, à l’instar du PSOE et Podemos, à la fermeture des centrales nucléaire en fin de vie utile (40 ans). Une position qui isole le PP, désormais le seul parti politique espagnol significatif à prôner la poursuite de l’atome. Il s’agit d’un sujet qui revient régulièrement sur la table, en raison de l’Almacén Temporal Centralizado, un site de stockage des déchets nucléaires situé à Villar de Cañas (Cuenca) dont la construction est régulièrement retardée à cause de l’opposition des communautés locales. Le Royaume dispose d’un parc de huit centrales nucléaires (cinq en fonctionnement cumulant sept réacteurs) dont les licences d’exploitation expirent prochainement (trois en 2020, trois l’année suivante et une en 2024). Il reviendra donc au prochain gouvernement et au suivant de statuer sur le futur de ces installations, et notamment sur le cas de Santa María de Garoña, la doyenne des centrales, actuellement à l’arrêt pour « raisons administratives ». Le rapport de force politique semble désormais pencher vers l’abandon progressif de l’atome. Pour autant, le lobby nucléaire garde des relais importants à Madrid et rappelle à l’envi qu’avec seulement 7,3% des capacités installées, il a produit un peu plus de 20% de l’électricité consommée dans le pays en 2014.

Brouillard

Le nucléaire n’est pas la seule énergie à l’avenir incertain. Les acteurs des énergies renouvelables ne savent plus à quel saint se vouer. L’Espagne a été, avec l’Allemagne, un leader européen des énergies vertes, solaire et éolien en tête. Le Royaume a ainsi installé plus de 3 300 Mégawatts-crête (MWc) de panneaux photovoltaïques en 2007 et 2008. Ce développement massif de l’énergie solaire a été permis par l’introduction d’un mécanisme de tarif d’achat similaire à celui de l’Hexagone. Las ! L’explosion des demandes de raccordement a considérablement alourdi le coût de cette mesure dédiée aux énergies renouvelables creusant un peu plus le fameux « déficit tarifaire » (différence entre les coûts et les revenus du secteur électrique). Arrivé au pouvoir en 2011, Mariano Rajoy a opéré des coupures drastiques dans les subventions, permettant de rééquilibrer le système, mais au prix d’une casse sociale estimée à plus de 45 000 emplois selon l’Unef, une association professionnelle du secteur.

Cette problématique s’est invitée au cœur de la campagne électorale avec l’annonce en novembre de la cessation de paiement d’Abengoa, l’un des fleurons espagnols de l’industrie solaire. Si la procédure de conciliation en cours avec ses créanciers n’aboutit pas, ce serait la plus grande faillite de l’histoire du pays. Le ministre de l’Economie a laissé entendre qu’un nouveau partenaire entrerait dans le capital pour rassurer les banques qui ont mis le groupe sous tutelle. Pour autant, la compagnie est devenue le symbole d’une filière fragilisée par le retrait du soutien public, mettant dans l’embarras le gouvernement conservateur sortant. Celui-ci devrait être amené à d’importants sacrifices s’il veut conserver le pouvoir. La politique énergétique pourrait bien être l’un d’eux.

Par Romain Chicheportiche

Innovation en 2015 : où en sont les entreprises françaises ?

Notre analyse concernant le secteur automobile, est celle-ci : afin de développer leurs ventes et sortir de la crise qui les a mis en difficulté, les constructeurs n’ont eu d’autres choix que d’innover, justement, en intégrant toujours plus d’électronique dans les habitacles. Cependant, Renault est en 48e position dans ce classement alors qu’il figure dans les dix premiers groupes automobiles mondiaux. PSA, qui figure dans une autre étude en tête des entreprises françaises ayant déposé le plus de brevets, en est absent. Les points importants à noter dans cette étude sont les critères qui définissent une entreprise innovante. Ils ne sont pas seulement basés sur le nombre de brevets comme tant d’autres études. Cette étude s’appuie sur les votes des 1 500 cadres dirigeants interrogés à travers le monde. Ils s’expriment sur la capacité des entreprises à investir dans la recherche, mais également dans le dynamisme général de l’entreprise et notamment commercial, mais aussi sur la capacité à assurer une rentabilité élevée. La politique sociale n’est (malheureusement) pas un des critères retenus dans cette étude.

12 groupes hexagonaux sont présents dans le classement des 100 organisations les plus innovantes au monde . Cette étude est plus centrée sur le critère des brevets déposés (3M est en pole position mondiale). La France occuperait ainsi le troisième rang mondial, derrière les États-Unis et le Japon selon cette étude qui est essentiellement axée sur le nombre de brevets déposés, mais aussi le nombre de ceux finalement acceptés, leur portée internationale et leur notoriété. En revanche, cette étude ne prend pas en compte d’autres aspects, tels que l’image et la rentabilité des entreprises par exemple ni le climat social. Neuf entreprises sont concernées : Alcatel-Lucent, Arkema, EADS, L’Oréal, Michelin, Saint-Gobain, Thales, Safran et Valeo, le constructeur automobile Renault, présent en 2012, sort du classement et trois organismes français : CEA, le CNRS et IFP Énergies Nouvelles, ont été retenus. La raison principale de ce bon classement des grandes entreprises françaises repose essentiellement sur l’utilisation du crédit d’impôt recherche qui soutient activement la recherche fondamentale, avec cependant les réserves formulées précédemment par les rapports du Sénat et de l’OCDE. Ces deux études démontrent et confirment que des grands groupes utilisent les financements de l’État avec un effet d’aubaine souligné dans plusieurs enquêtes. Elles ont les moyens humains et techniques pour déposer des brevets et, pour certaines, d’assurer le développement de l’innovation, alors que la plupart des PME ne le peuvent pas. Les moyens humains, techniques et financiers des PME sont généralement insuffisants pour se lancer dans la R & D avec les investissements nécessaires et pour se reconnaître dans les méandres de l’administration fiscale nationale, celles des ministères concernés et celles des régions.

Roland ROBEVEILLE © GERESO Édition 2015

Manager l’innovation autrement
Comment relancer l’innovation dans les entreprises françaises

Date de parution : 24 septembre 2015

Les boules solaires Rawlemon commercialisées !

L’architecte allemand André Broessel a eu l’idée d’utiliser un phénomène optique simple pour multiplier l’énergie produite par les panneaux photovoltaïques. Le dispositif comprend une sphère constituée d’un polymère acrylique à 99 % de transparence et remplie d’eau qui concentre les rayons du soleil incidents en son point focal. Grâce à cet « effet loupe », les rayons du Soleil ou de la Lune, sont concentrés plus de 10 000 fois, ce qui permet au dispositif de fonctionner de jour, comme de nuit.

rawlemon_0_0

La lumière ainsi concentrée est dirigée vers des panneaux photovoltaïques à haut rendement situés sous la sphère. Ces cellules photovoltaïques multijonctions sont généralement utilisées pour les applications spatiales : elles se composent de plusieurs couches qui ont la particularité de convertir différentes longueurs d’onde du spectre solaire en énergie. La Rawlemon est aussi monté sur une structure motorisée capable de suivre la course du Soleil ou de la Lune.

Basic RGB

rawlemon-produits1024

Résultat : à puissance équivalente, la Rawlemon divise par dix la surface totale de panneaux nécessaires, estiment les concepteurs. Lorsque le ciel est couvert, la Rawlemon produirait, là encore, quatre fois plus d’énergie qu’une installation photovoltaïque classique. « La géométrie parfaite de la sphère, combinée avec notre système breveé de tracking à double axe, fournit naturellement l’angle optimal pour concentrer la lumière sur nos collecteurs toute la journée, suivant le soleil », expliquent les concepteurs dans leur plaquette commerciale.

 

Une large gamme commerciale

Après avoir levé 231 000 dollars (environ 210 000 euros) en 2014 sur la plateforme de financement Indiegogo, Rawlemon dispose d’une large gamme commerciale. Des modèles de bureau dotés d’une ou deux prises USB 2.0 sont vendus en ligne à 149 euros et 249 euros. Avec une sphère d’un diamètre de 10 ou 20 cm, ils peuvent respectivement délivrer jusqu’à 9 Wh et 30 Wh par jour pour recharger vos appareils électroniques : smartphones, ordinateurs portables, tablettes, etc.

Deux modèles sont prévus pour l’extérieur, avec une sphère de 1 m ou 1,8 m ; ils sont proposés au tarif de 6 000 et 8 999 euros. Ils présentent des collecteurs hybrides pour convertir la lumière incidente en électricité ou en énergie thermique. Ils peuvent ainsi servir de stations de charge pour les vélos, motos ou voitures électriques, alimenter des générateurs ou fournir de l’électricité et du chauffage à des bâtiments. La nuit, ces boules peuvent se convertir en lampadaires LED pour participer à l’éclairage public. Grâce à sa puissance électrique de 560 W, sa puissance thermique de 890 W et son rendement de 57% en mode hybride, le modèle le plus imposant, le KS 1800 peut fournir jusqu’à 3,4 kWh par jour. Il est doté d’une batterie de 0,5 kWh,  pèse 3,35 tonnes, dont 3,05 tonnes d’eau et résiste à des vents de 120 m/s.

c6ae8fdcf2_rawlemon1

Le concept se décline aussi sous forme de vitrage produisant uniquement de l’énergie thermique. Une « fenêtre » composée de 12 sphères de 50 millimètres de diamètre peut fournir jusqu’à 150 W par m². Ce « radiateur solaire » vous coûtera tout de même 8 499 euros.

Par Matthieu Combe, journaliste scientifique

Les ravines de la planète Mars formées par la glace carbonique, et non de l’eau liquide

Depuis 2000, les caméras embarquées sur les satellites en orbite autour de la planète Mars nous ont envoyé de multiples images montrant la présence de chenaux et de cônes de débris, semblables à ceux créés sur Terre par l’action de l’eau liquide sur les pentes d’éboulis, avec parfois un parcours sinueux. La formation de ces ravines semblait récente, âgées de quelques millions d’années à seulement quelques années. Elles relançaient l’idée que des quantités non négligeables d’eau liquide potentiellement propice à une forme de vie pouvaient se former sur la planète Mars aujourd’hui.

Le rôle de l’eau liquide dans la genèse des ravines a récemment été remis en question par des clichés de la sonde Mars Reconnaissance Orbiter de la NASA. Ils ont révélé la formation de nouveaux chenaux, à des saisons où les températures sont beaucoup trop basses pour imaginer que de l’eau, même salée, puisse contribuer à un écoulement liquide. Par contre, le creusement des nouveaux chenaux semblait se dérouler lorsque que de la glace carbonique (formée par la condensation de l’atmosphère de CO2 sur la surface pendant l’hiver martien) était présente. Peut-on lier les deux phénomènes ? Si oui, comment expliquer qu’une fine couche de glace carbonique de quelques dizaines de centimètres d’épaisseur puisse créer des coulées de dix à vingt mètres de largeur, bordées par des amoncellements d’éboulis atteignant un mètre de haut ?

Pour mieux comprendre les processus physiques liés à la condensation et la sublimation du CO2, Cédric Pilorget, chercheur à l’Institut d’Astrophysique Spatiale (CNRS/Université Paris-Sud) et François Forget, chercheur CNRS au Laboratoire de météorologie dynamique (UPMC/ENS Paris/CNRS/Ecole polytechnique), ont créé un simulateur numérique de l’environnement sur différentes pentes de la planète Mars. Du sous-sol à l’atmosphère, ce modèle prend en compte les échanges thermiques par rayonnement, par conduction, ou induit par les changements de phase du CO2. Ceci permet de simuler l’évolution du CO2 sous toutes ses phases au cours d’une année martienne, notamment sur la surface et dans les pores et les interstices du sous-sol.
A quelques centimètres sous les pentes martiennes sur lesquelles le CO2 se condense, on trouve toujours un « pergélisol » formé de grains cimentés par de la glace d’eau. Ainsi lorsque la glace de CO2 se condense sur le sol en hiver, l’air présent dans les pores et interstices du sous-sol immédiat se retrouve confiné, pris en sandwich entre le pergélisol étanche et la couche de glace de CO2 à la surface.

Dans ces conditions, les simulations numériques de Cédric Pilorget et François Forget ont révélé des phénomènes étonnants. A la fin de l’hiver et au printemps, les rayons du Soleil passent au travers de la couche de glace de CO2 translucide et la chauffe par la base. La glace de CO2 ne fond pas, mais se « sublime », en passant directement en phase gazeuse. Le gaz produit se diffuse dans le proche sous-sol poreux. Une partie peut s’y recondenser tandis que le reste du gaz s’accumule dans l’espace poreux restant, augmentant considérablement la pression dans le proche sous-sol, jusqu’à plusieurs fois la pression atmosphérique. Cette surpression finit par fracturer la glace de surface, ce qui génère une violente décompression. Les pores du sous-sol sont alors traversés de puissants flux d’air liés à l’évacuation du surplus de gaz et à la sublimation rapide de la glace de CO2 du sous-sol. En quelques minutes, voire quelques secondes, plusieurs mètres cubes de gaz (voire même plusieurs dizaines de mètres cubes au niveau des fractures) diffusent verticalement vers la surface. De tels flux sont capables de déstabiliser les grains situés sur les pentes et ainsi de provoquer des éboulements et des coulées. Surtout, la pression du gaz peut entraîner une véritable fluidification de l’avalanche, et lui donner les propriétés d’un écoulement liquide.

Un tel phénomène est sans équivalent sur Terre. On peut cependant le rapprocher de certaines coulées pyroclastiques générées pendant les éruptions volcaniques lorsque des avalanches de blocs et de débris sont déclenchées et fluidifiées par les gaz de l’éruption. On a observé que sur des pentes parfois très faibles ces écoulements pouvaient parcourir plusieurs kilomètres en transportant des blocs de plus d’un mètre de diamètre, et en formant des « levées » latérales de tailles analogues à celles des ravines martiennes. Les chercheurs estiment que les ravines martiennes ne se forment que lorsque les conditions sont réunies pour déclencher l’instabilité, de même que sur Terre chaque pluie ne déclenche pas un éboulement de débris.

Le modèle des deux chercheurs français explique également pourquoi les ravines martiennes sont observées entre 30° et 60° de latitude, sur quelques pentes jusqu’aux pôles, et qu’en deçà de 45° les ravines ne se trouvent quasiment que sur les pentes orientées vers les pôles : le phénomène de surpression et de fluidification a précisément lieu là où les ravines sont observées.

Tout indique donc que l’exposition au soleil de la glace de CO2 déposée en hiver par la condensation de l’atmosphère sur les reliefs martiens est à l’origine d’une partie des ravines de la planète Mars -et peut-être de toutes- via un phénomène sans équivalent sur notre planète. L’eau liquide ne serait pas impliquée dans la formation des ravines. Ces travaux remettent donc en question l’idée que ces régions aient pu être propice à la vie dans un passé récent.

Source : cnrs

Des LED flexibles à nanofils : une nouvelle avancée pour les écrans pliables

L’attribution du prix Nobel de physique 2014 aux inventeurs de la LED bleue le confirme : la recherche sur les diodes électroluminescentes, DEL ou LED en anglais, connaît une forte expansion. Les LED sont composées d’un matériau semi-conducteur hétérogène, une partie étant enrichie en électrons et l’autre en étant appauvrie. Le passage d’un courant électrique dans ce matériau hétérogène provoque l’émission d’un photon, et donc de lumière.

Le choix du matériau semi-conducteur influence les caractéristiques lumineuses et physiques des LED. Il est ainsi possible d’obtenir des LED flexibles grâce à des polymères organiques pour constituer, par exemple, un écran pliable. Ces matériaux souffrent cependant d’une mauvaise brillance des bleus et d’une usure précoce. Pour pallier ces problèmes, les chercheurs ont donc combiné la haute brillance et la grande durée de vie de LED à base de nitrures, avec la flexibilité des polymères.

Ils ont pour cela utilisé des nanofils de nitrures englobés dans une couche de polymère, puis les ont détachés de leur substrat pour réaliser une membrane flexible. Ces émetteurs mesurent plusieurs centaines de nanomètres de diamètre pour 20 micromètres4 de hauteur et l’ensemble paraît totalement homogène à notre échelle.

Les chercheurs ont ainsi fabriqué la première LED verte flexible à nanofils au monde, ainsi qu’une variante bleue. L’équipe a également combiné deux couches de nanofils de ces couleurs, afin d’obtenir une LED capable d’éclairer à la fois en vert et en bleu. Cette étape est importante car, une fois que le rouge sera ajouté, il sera possible d’émettre une lumière blanche et d’afficher des vidéos5.

Cette avancée ouvre la porte à des écrans, montres ou ampoules à LED déformables. D’autres couleurs peuvent être obtenues si les nitrures sont remplacés par des arséniures ou des phosphures, ainsi qu’en jouant sur la taille des nanofils. À plus long terme, les chercheurs espèrent utiliser des matériaux absorbants afin de transformer ces LED en photodétecteurs ou en cellules solaires flexibles.

L’intelligence artificielle inamicale : réalité ou fantasme ?

“Terminator”, “2001, l’odyssée de l’espace”, “I, Robot” sont autant de films de science-fiction montrant comment l’intelligence artificielle deviendra un jour consciente d’elle-même, jusqu’à nous supplanter et menacer notre intégrité physique. Pourtant, dans la réalité, nous sommes loin, très loin de ce type de scénario.

Jean-Gabriel Ganascia, expert en intelligence artificielle et philosophe, chercheur au LIP6, le Laboratoire d’informatique de Paris 6, raconte l’histoire de l’I.A. : “ce terme est né en 1955, aux États-Unis. Il s’agissait d’étudier l’intelligence avec les machines, en simulant ses différents aspects”. Mais rapidement, déplore-t-il, “ce terme est devenu ambivalent, avec d’un côté le projet scientifique d’étude de l’intelligence avec des moyens artificiels (l’l.A. faible), et de l’autre, l’idée (entretenue par des chercheurs passionnés de science-fiction) de créer une intelligence avec les moyens de l’artificiel (l’I.A. forte)”.

Pour l’expert, l’idée qu’une machine “va tout à coup raisonner comme un homme et qu’un jour une  intelligence artificielle générale aura conscience d’elle-même” n’est qu’un “pur fantasme”, qui n’existe pas sur le plan scientifique. Ainsi, il n’existerait, indique Jean-Gabriel Ganascia, qu’une seule intelligence artificielle : l’I.A. faible. Autrement dit, la simulation de l’intelligence et des capacités cognitives de l’être humain, via des techniques informatiques (algorithmes, programmation).

“C’est cette I.A. que l’on retrouve dans les systèmes de recommandation, dans les voitures intelligentes, dans les drones militaires, dans les systèmes de reconnaissance d’empreintes, ou dans la traduction automatique”, explique le chercheur.

“L’I.A. est plus dangereuse que les armes nucléaires”

Pourtant, si l’on en croit des scientifiques réputés, en majorité anglo-saxons, l’I.A. forte, c’est pour demain. Elon Musk, président-fondateur de Tesla Motors et de SpaceX, estime ainsi qu’il faut rester “très prudent” à propos de l’intelligence artificielle. “Si je devais miser sur ce qui constitue notre plus grande menace existentielle, ce serait probablement ça”, a-t-il lancé en 2014 lors de l’AeroAstro Centennial Symposium du MIT. Pour lui, “L’I.A. est plus dangereuse que les armes nucléaires”.

De son côté, Stephen Hawking, physicien théoricien de renommée mondiale, joue au prophète : “le développement d’une pleine I.A. pourrait signifier la fin de la race humaine. Si elle finissait par devenir autonome, ce qui est probable, les humains, limités par leur lente évolution biologique, ne pourraient pas rivaliser”.

Avec Elon Musk et 700 autres scientifiques, Stephen Hawking a publié une lettre ouverte sur les dangers de l’I.A, qui se veut alarmiste : “en raison de son grand potentiel, il est important de se demander comment nous pourrons en profiter tout en évitant les pièges possibles”.

I.A. “superintelligente” et robots assistants

En 2014, le philosophe suédois Nick Bostrom, connu pour être un des penseurs du transhumanisme, a publié un ouvrage intitulé “Superintelligence”, dans lequel il analyse les bienfaits et les dangers de l’apparition d’une I.A. “superintelligente”.

Pour Nick Bostrom, si une telle entité venait à s’en prendre à l’homme, c’est surtout à cause de “l’orthogonalité” entre volonté et intelligence : pour poursuivre un but simple, une superintelligence choisira une solution simple.  “Imaginons par exemple que nous lui demandions de fabriquer le plus grand nombre de trombones possible. Obnubilée par sa tâche, elle en viendrait à considérer que l’humanité est un obstacle à la production de trombones puisqu’elle peut décider à un moment ou à un autre que le compte y est. Logiquement, la super-intelligence se dirait que les humains ne sont après tout qu’un amas d’atomes qui, reconfigurés autrement, permettraient d’obtenir d’excellents trombones”, écrit le philosophe.

Les recherches en robotique faisant des pas de géant, le pire est-il à craindre ? Nous sommes encore loin d’avoir chacun un robot assistant à la maison, mais peu à peu, les robots commencent à investir notre quotidien.

Au Japon, dans l’usine de la société Glory, en banlieue de Tokyo, des humanoïdes-ouvriers font leur gym le matin en même temps que leurs collègue humains. En Allemagne, le robot de service “Max” aide des personnes âgées dans des maisons de retraite, comme le montre le documentaire édifiant d’Arte, “Au coeur des robots”.

Dans le domaine civil, nous n’en sommes encore qu’aux prémices d’une société robotisée. Mais en ce qui concerne le secteur militaire, c’est une autre histoire.

Robots tueurs et machines “autonomes”

Certes, il n’existe pas encore de “robots tueurs” autonomes, capables de décider seuls s’ils doivent tirer ou pas. Mais les chercheurs des armées du monde entier, à commencer par la DARPA, l’agence de recherche de l’armée américaine, travaillent à créer des “armes semi-autonomes” : ces avions ou frégates sans pilote, ces robots et ces machines nouvelle génération analysent une situation donnée, décident de la réponse à apporter, et en dernier ressort, un humain valide ou non la suite à donner.

En Corée du Sud, les SGR-A1, des “robots sentinelles” armés de lance-grenades et de mitrailleuses, défendent les frontières. La décision finale dépend d’un opérateur humain, mais rien ne dit que cette situation ne changera pas un jour.

Alors que depuis deux ans, Human Rights Watch (HRW) mène une campagne pour stopper ces “robots létaux autonomes” (RLA), Elon Musk et Stephen Hawking ont publié cet été une autre lettre ouverte, pour réclamer l’interdiction des armes autonomes et stopper une potentielle “course à l’armement” dans ce domaine.

Ces machines autonomes, qui existeront “probablement d’ici quelques années”, seraient là encore, pour Elon Musk et Stephen Hawking, “plus dangereuses que les armes nucléaires”. Pour Hod Lipson, ingénieur en robotique et directeur du Creative Machines Lab de l’Université Cornell, à New-York, “combinée avec des robots physiques, l’I.A. pourrait effectivement être dangereuse”. D’où l’idée que nous devrions nous “préparer dès maintenant” à l’arrivée de l’I.A. forte, et penser aux moyens de la canaliser.

“Rendre une machine consciente, c’est de la pure science-fiction”

Jean-Gabriel Ganascia insiste : “il est facile de simuler l’intelligence et des émotions, mais rendre une machine consciente, c’est de la pure science-fiction”. Et de constater : “il y a derrière tout cela une croyance en la toute-puissance de la technologie, très proche d’une religion… peut être celle des transhumanistes”.

En revanche, l’expert estime que l’I.A. véritable, la “faible”, comporte des risques à ne pas négliger. “Comment réagira une voiture sans chauffeur confronté à un dilemme, comme choisir entre un carambolage et écraser un piéton ? Les machines demeurent imprévisibles, elles peuvent faire des erreurs”, explique-t-il.

Restent des risques “plus factuels”, comme l’utilisation de nos données par les fabricants des systèmes d’I.A. – en premier lieu, des robots de compagnie, qui en sauront beaucoup sur nous : “les données utilisées par les systèmes d’I.A. se propagent, se dupliquent, et sont forcément stockées quelque part pour être réutilisées.  Il ne faut pas oublier le scénario d’une utilisation à mauvais escient de ces nouveaux outils, par des personnes mal intentionnées”, remarque Jean-Gabriel Ganascia.

Au delà du scénario d’une intelligence artificielle inamicale façon Terminator, c’est bel et bien “l’impact de l’I.A. faible sur nos vies qui mérite d’être posé”, conclut-il. D’où son idée d’instaurer “un certain nombre de règles et principes éthiques” – pourquoi pas inspirés des lois d’Asimov.

Par Fabien Soyez, journaliste scientifique

La Finlande va enterrer ses déchets radioactifs

Le 12 novembre, le Gouvernement finlandais a annoncé la décision par voie de communiqué. L’entreprise retenue pour construire son centre de stockage des déchets radioactifs est Posiva, l’entreprise chargée de la gestion des déchets radioactifs finlandais. Le centre de stockage se situera vers 400 mètres de profondeur dans une couche de granit, au sud-ouest de la Finlande, sur l’île d’Olkiluoto, à proximité du site de construction du futur réacteur EPR construit par Areva pour l’électricien finlandais TVO.

« L’installation comprend deux parties: en surface, l’usine d’encapsulation du combustible usé dans les réservoirs de stockage définitif, et le stockage définitif en profondeur dans la roche, avec des tunnels dans lesquels le combustible usé sera placé », précise Posiva dans un communiqué. L’entreprise estime que les premiers colis de déchets arriveront à partir de 2020.

Ce centre de stockage accueillira les déchets hautement radioactifs à vie courte ou à vie longue et les déchets de moyenne activité à vie longue produits par les 4 réacteurs d’Olkiluoto et de Loviisa et du futur EPR. Il sera constitué de galeries souterraines menant à des puits en fonte recouverts d’une couche de cuivre. Ces puits, d’une dizaine de mètres de profondeur, accueilleront les colis de déchets. Ils seront scellés par de la bentonite, une variété d’argile fortement imperméable. Dès lors, le stockage sera irréversible et constituera une « solution de stockage sûre », selon Posiva. De son côté, Greenpeace signale les risques de corrosion du cuivre par l’eau, conteste l’imperméabilité totale de la bentonite et craint la contamination des nappes phréatiques.

Vers le deuxième site de stockage en France ?

La France projette la construction de Cigéo, un site de stockage similaire. A Bure, aux frontières de la Meuse et de la Haute-Marne, un laboratoire souterrain sert de lieu d’expérimentation depuis 2000. Exploité par l’Agence nationale pour la gestion des déchets nucléaires (Andra), il vérifie la résistance de la couche d’argile et évalue les techniques de construction. Le centre de stockage définitif sera situé à environ 3 kilomètres de ce laboratoire, sur une implantation de 30 km2. Le dépôt de la demande d’autorisation par l’Andra est prévue pour 2017. Cette demande sera alors instruite par l’Autorité de sûreté nucléaire (ASN) et l’Institut de radioprotection et de sûreté nucléaire (IRSN) pendant une durée maximale de 3 ans. Si le projet est autorisé, la construction devrait s’achever en 2025 et commencer par une phase industrielle pilote pour une durée allant de 5 à 10 ans.

Pendant la phase d’exploitation du centre, prévue pour une centaine d’années, le stockage devra être réversible pour laisser aux générations futures un maximum de possibilités pour permettre des adaptations. Ensuite, les galeries seront hermétiquement fermées le plus longtemps possible, soit entre plusieurs centaines de milliers d’années et quelques millions d’années. Avant la mise en route des travaux, la loi de 2006 prévoit le vote obligatoire d’une loi définissant la notion de réversibilité. Les députés ont essayé de placer un amendement dans la loi de transition énergétique, puis dans la loi Macron, sans succès.

Le 10 novembre, le député socialiste de Meurthe-et-Moselle, Jean-Yves le Déault, a déposé une nouvelle proposition de loi. L’article 1er prévoit notamment la définition suivante de la réversibilité : « La réversibilité est la capacité, pour les générations successives, à revenir sur des décisions prises lors de la mise en œuvre progressive dune installation de stockage. La réversibilité doit permettre de garantir la possibilité de récupérer des colis de déchets déjà stockés pendant une période donnée et dadapter linstallation initialement conçue en fonction de choix futurs. »

Par Matthieu Combe, journaliste scientifique

Comment Linky pourrait aider à économiser l’énergie

Linky compteur Nouvelle générationAprès plusieurs années d’expérimentation dans les régions de Lyon et de Tours, le compteur électrique et communicant Linky a débuté sa carrière officielle le 1er décembre. Son déploiement est assuré très majoritairement par ErDF, qui couvre 95% du territoire, et devrait se poursuivre jusque 2021. Objectif à cette date : le remplacement de 90% des compteurs existants dans quelque 35 millions de foyers français.

Selon l’Ademe, Linky et ses possibilités de communication seraient un atout pour économiser l’énergie, un thème d’actualité s’il en est. «Nous avons signé un accord avec ErDF pour accompagner le déploiement de ce compteur, confie Martin Régner, ingénieur Réseaux Electriques Intelligents à l’Ademe. Le but est de sensibiliser les particuliers et les collectivités locales à la maîtrise de la consommation électrique.» Toujours selon l’Ademe, les économies réalisées sur l’ensemble du réseau électrique pourraient se compter en milliards de kilowatts-heure (kWh) par an.

x-default

En pratique, délivrer une information plus régulière sur la consommation serait un premier moyen de sensibilisation, d’après les conclusions d’une étude menée par deux chercheurs du CNRS, à l’université de Nice Sophia Antipolis. Cette étude, commencée en 2012, a concerné une centaine de ménages volontaires dans les Alpes Maritimes, certains étant équipés d’outils de mesure de leur consommation électrique, d’autres non. Elle a indiqué entre autres que «la consommation électrique des groupes équipés (…) s’est révélée 23% moins élevée que la consommation initiale», selon le communiqué du CNRS.

Dans le cas de Linky, le relevé n’est plus effectué manuellement tous les 6 mois comme aujourd’hui. L’index de consommation du logement est transmis chaque nuit via CPL (courant porteur en ligne) à un concentrateur hébergé dans le poste de transformation électrique le plus proche. Ces données sont ensuite récupérées par le système d’information d’ErDF, puis accessibles sur un portail Internet, moyennant création d’un compte individuel. «L’historique permet un lecture journalière, hebdomadaire, mensuelle ou annuelle de la consommation électrique, précise Martin Régner de l’Ademe. Après souscription à un service gratuit, on obtient même des courbes de charge, c’est-à-dire la consommation par tranche de 10, 30 ou 60 minutes.» L’incitation à diminuer cette consommation s’en trouverait donc renforcée.

Donner la possibilité d’agir

Linky offre toujours la possibilité d’agir en partie sur cette consommation. «Il est équipé d’un contact sec à la manière du compteur bleu actuel, explique Martin Régner, et peut actionner l’interrupteur lié au ballon d’eau chaude en fonction de l’indice tarifaire du fournisseur d’énergie : heure creuse, heure pleine, voire heure de pointe.» La nouveauté, ce sont les 8 contacts virtuels supplémentaires à destination de ces mêmes fournisseurs. «Beaucoup d’entre eux nous demandaient de pouvoir gérer la mise en route et l’extinction d’autres appareils électriques, tels que les bornes de recharge de véhicules électriques» note Gladys Larose, en charge des relations externes au sein du projet Linky.

Dans le même ordre d’idée, Smart Electric Lyon et l’Ignes (Industries du Génie Numérique, Energétique et Sécuritaire) ont développé un émetteur radio qui se greffe à Linky et communique via Zigbee et KNX. Ce sont deux protocoles très répandus sur le marché de la domotique, il est vrai, mais la domotique elle-même est loin d’avoir conquis toutes les habitations. Quoi qu’il en soit, la mesure de la consommation électrique instantanée et la modulation du fonctionnement des appareils électriques en fonction du tarif font partie des applications.

Autre possibilité envisagée dans ce projet : l’effacement, c’est-à-dire l’arrêt de l’appareil en question afin de diminuer la quantité d’énergie ponctionnée sur le réseau électrique. L’enjeu consiste à réduire la demande pour l’adapter à l’offre, l’énergie électrique ne pouvant être stockée, et ainsi éviter de mettre en service des sites électrogènes parfois polluants, comme les centrales à charbon. La société Voltalis s’est positionnée sur ce marché il y a 8 ans et équipe gratuitement – elle se rémunère auprès de Réseau de Transport d’Electricité (RTE) – quelque 100 000 foyers qui ont en fait la demande. Son boîtier, posé dans le tableau électrique, interrompt de façon automatisée et temporaire le chauffage électrique et la production d’eau chaude quand le réseau est en déséquilibre. «C’est un modulation qui ne dure que quelques minutes, commente Arthur de Choulot, représentant de Voltalis. Il n’est pas question d’engendrer de l’inconfort chez nos adhérents.»

Par Frédéric Monflier

Découvrez l’ePub « Innovations marquantes » de Techniques de l’Ingénieur

celine_chartier

Céline Chartier, vous êtes éditrice chez Techniques de l’Ingénieur et responsable de la publication de l’ePub « Innovations marquantes ». Pouvez-vous nous en dire plus sur son contenu ?

Céline Chartier. Cette publication est une compilation de 18 innovations publiées au cours de ces dernières années dans notre collection. Elles représentent selon nous des avancées significatives dans les domaines de l’environnement, de la santé ou encore de l’énergie.  Ces innovations mettent en lumière le potentiel considérable de la R&D pour apporter des solutions viables et durables aux problématiques actuelles et à la nécessaire évolution de notre industrie vers un modèle plus sûr et plus responsable.

A qui s’adresse ce document ?

Céline Chartier. Cette publication est composée d’extraits d’articles, articles que nous avons sélectionnés parmi ceux de notre collection. Il s’agit donc d’un format court, synthétique et facilement accessible aux non spécialistes. Ce document s’adresse à tous ceux qui souhaitent se tenir au courant des grandes tendances technologiques et des orientations de recherche. Il permet au lecteur d’assurer une veille rapide et multisectorielle, en particulier dans d’autres domaines que le sien.V

Vous avez choisi de publier ce document en version numérique au format ePub. Pour quelle raison ?

Céline Chartier. Le format numérique, plus précisément le format ePub pour tablettes et smartphones, nous a paru idéal pour une lecture facile, mobile et confortable. Cette technologie permet plus d’interactivité et de dynamisme, ce qui est tout à fait approprié au contenu innovant et original de la publication.

Peut-on espérer que les futures publications seront aussi dans ce format ?  

Céline Chartier. Nous avons prévu de développer d’autres publications au format numérique ePub. Il s’agira de contenus nouveaux, adaptés à ce format original et interactif : synthèses, bases de données, annuaires, dictionnaires, traducteurs techniques… Notre objectif est d’être en phase avec l’évolution des usages et de répondre au mieux à la nécessaire évolution de notre métier d’éditeur ainsi qu’aux attentes de nos abonnés en termes d’innovations éditoriales.

L’interphone connecté Urmet où comment gérer sa consommation énergétique

Urmet France, qui se présente comme le leader français en solutions d’interphonie et de contrôle d’accès innovants, organisait le 3 décembre, au musée de l’air et de l’espace du Bourget, une table ronde sur le thème « Habitat connecté : une réponse à la précarité énergétique » réunissant différents acteurs comme Benoît Apparu, ancien ministre délégué chargé du Logement, Régis Bigot, Directeur Général du CREDOC, Frédéric Loison, Directeur Général d’Aiguillon et Bénédicte Faivre Tavignot, cofondatrice du mastère Développement Durable d’HEC.

Durant ce temps fort, a été évoqué, une tendance malheureusement bien réelle, celle du coût de l’énergie qui va aller en augmentant, des solutions envisageables, et surtout, le bon état d’esprit à adopter de la part de tous; des locataires comme des bailleurs sociaux. L’état d’esprit en question, « une logique d’expérimentation locale » a pour objectifs, cités ici pêle-mêle « d’associer une coalition d’acteurs, de prendre des risques, de trouver le bon modèle économique » afin de faire évoluer « l’attitude des Français au regard de leur consommation, de les accompagner pour les faire devenir de parfaits locataires ». Et si cela passe évidemment par les innovations technologiques, tous ont rappelé que rien ne pouvait se faire sans le changement de comportement des usagers.

L’interphone connecté « Home Book System », la solution domotique signée Urmet

Outre cette discussion, pour Urmet France, c’était aussi l’occasion d’attirer les projecteurs sur son nouveau produit, le « Home Book System », un interphone intelligent capable d’offrir un accompagnement énergétique en temps réel.

« Avertir, informer et éduquer le consommateur »

HomeBookSystem Urmet écranTelle est la vocation de l’interphone, issu d’une volonté de R&D d’Urmet France. Ses ambitions se déclinent en trois principaux volets : l’accompagnement vers une meilleure maîtrise des consommations d’énergie (eau, électricité, chauffage), le renforcement du lien social et de la domotique standard. Toutes les commandes étant, dans un objectif de simplification, centralisées en un point, « le coeur du logement » : l’interphone.

Mieux gérer ses énergies

« Au sein d’un même bâtiment, on sait que les logements ont la même isolation thermique par exemple, que certains ont les mêmes caractéristiques (surface…). Cela permet de comparer sa consommation et de savoir si elle est normale » explique Pierre-Antoine Person, responsable marketing & communication Urmet France.

conso_mensuelleLa première étape va donc consister à tester son empreinte énergétique sur plusieurs mois par la mesure des divers équipements qui composent nos habitations (four, télévision, frigidaire…) en déterminant les pics de consommation et la consommation au repos.

L’interphone récupère toutes les données via des compteurs ampérométriques. Données que l’utilisateur peut, en naviguant dans les menus, retrouver facilement en tapotant sur l’écran tactile.

« L’interface a été désignée pour être claire et a été testée auprès d’un panel d’utilisateurs » et pour ceux qui ne seraient pas à l’aise avec l’écran tactile, il y a toujours les boutons mécaniques ou la fonction « affichage simplifié ». Un sur-écran en braille pour les malvoyants a même été prévu.

« Favoriser les éco-gestes »

Le locataire est en mesure, à l’aide de ses données personnelles, et d’un historique sur deux ans, de se créer des objectifs annuels. « L’idée derrière tout ça est d’entraîner le consommateur à contrôler régulièrement ses consommations d’énergie, à le rendre lucide sur sa situation, afin de favoriser des éco-gestes et d’adopter un comportement en conséquence ». Or, sur ce point, Pierre-Antoine Person, s’appuie sur l’étude ACEEE, qui déclare qu’être conscient de sa consommation, c’est réaliser 12% d’économie. Comme le dit le proverbe, un homme averti en vaut deux.

Un système d’alerte

alerte fuite eauBien sûr, comme tout interphone, le « Home Book System » prévient de l’arrivée d’un visiteur. Mais il ne se contente pas de ça. Il fait également office de système d’alarme que le résident peut employer, après avoir reçu une alerte intrusion sur smartphone par exemple, pour générer une sirène sonore dissuasive. Ce n’est pas tout, ce dernier peut aussi être alerté à tout moment d’une fuite en cas de surconsommation.

Renforcer le lien social

Un des aspects fondamentaux que souhaite développer Urmet à travers l’interphone est le lien social. Que ce soit pour envoyer des messages vocaux à ses voisins pour les prévenir d’un déménagement ou de bruyances liées à de futurs travaux, contacter le gardien, maintenir le contact avec des personnes vivant seules ou afin de rendre des services (réception de colis, garde d’enfant…) l’interphone permet une mise en relation simplifiée. Outre les services, c’est donc d’entretenir la vie en communauté qu’entend favoriser « Home Book ».

Par Sébastien Tribot

Qu’est-ce qu’une entreprise innovante ?

La société américaine Google se hisse ainsi sur la première marche du podium pour « être devenu un géant de 350 milliards d’euros ayant fait émerger presque trop d’innovations pour qu’on puisse les compter ». Suivent dans le désordre, l’organisation caritative Bloomberg Philanthropies « qui fait le bien, de façon méthodique » et le fabricant de téléphones chinois Xiaomi « pour avoir réinventé le business model des Smartphones ».

Dans la suite du classement, de nombreuses entreprises liées à Internet ont également été distinguées, comme Dropbox (4e), Airbnb (6e), Yelp (10e), Twitter (13e) ou Amazon (18e).

Contrairement à l’an passé, où une entreprise française (le groupe Kering) avait été mise en avant, aucune n’a été retenue en 2014. Cela ne nous semble pas étonnant au regard des différentes analyses effectuées depuis le début de cet ouvrage.

La Suisse est de nouveau en tête du classement de l’innovation en 2014, qu’effectue l’Union européenne avec Innovation Union Scoreboard (IUS) chaque année. Ce classement est basé sur 25 critères dans huit catégories, allant du nombre de doctorants formés aux revenus des brevets acquis à l’étranger. Ce classement distingue la Suisse en particulier pour :

  • l’ouverture ;
  • l’excellence et l’attractivité de son système de recherche ;
  • les dépenses des entreprises pour l’innovation ;
  • les actifs intellectuels (brevets, marques, design).

La raison de ce classement est également à chercher dans les citations de ses articles scientifiques (facteur d’impact) et la formation d’étudiants venant de pays non membres de l’UE. Les dépenses pour de l’innovation non liées à des programmes de recherche et développement, l’innovation interne des PME, le nombre de publications scientifiques résultant de collaborations public-privé, de même que les revenus de la propriété intellectuelle pour des brevets acquis à l’étranger sont aussi à mettre du côté des points forts.

La première place de la Suisse dans le classement 2014 des pays innovants (cf. schéma plus haut) repose sur une politique sociale particulière. La rémunération est importante avec un salaire moyen de 3 280 euros et un médian à 5 000 euros. Il n’y a pas de salaire minimum, il a été refusé par les électeurs en 2014. La durée moyenne du travail est de 42 heures, à condition de bénéficier d’une convention collective (49 % des salariés sont concernés), mais la durée peut être portée à 45 heures voire 50 heures dans certaines branches, telles que le commerce et l’industrie. Avec quatre semaines de congés payés, les salariés suisses sont parmi les plus gros travailleurs de l’Europe de l’Ouest. La grève, si elle est licite, est « tabou » dans les faits. La retraite est fixée à 65 ans depuis 1948. Il n’est pas besoin de motif pour licencier un salarié, le salarié quitte l’entreprise le jour même, avec en moyenne trois mois de préavis. Il n’y a pas de statut de fonctionnaires qui ont un contrat de travail proche du privé. Il n’y a pas de Sécurité sociale, l’assurance maladie est obligatoire ; il est à noter que 18 % des Suisses ne vont pas chez le médecin. Les impôts sont proportionnellement plus élevés qu’en France, mais le différentiel de revenus a comme conséquence une plus grande aisance financière.

Le chômage est estimé à 2,9 % de la population. Les chômeurs perçoivent une indemnité dégressive pendant 400 jours afin de les inciter à retrouver rapidement un emploi.

L’innovation est le fait des entreprises ayant leur siège social en Suisse : Glencore, ABB, Nestlé, Novartis, Roche, Richemont, Swatch Group, Adecco…, qui investissent une part importante de leurs bénéfices dans la recherche, puisque les impôts sur les sociétés ont un taux de 14,5 % en moyenne (33 % en France) et que les charges sociales sont comparativement 30 % plus importantes en France (42 % contre 28 % pour les charges patronales et 22 % contre 14 % pour les charges salariales). La Suisse fait donc un choix différent de la France, des impôts plus bas pour les entreprises, des salaires plus élevés pour les salariés et une souplesse dans les contrats de travail.

Le rapport publié par l’Insead et l’Organisation mondiale de la propriété intellectuelle (OMPI) établit un indice annuel mondial de l’innovation. Si la Suisse est en tête du classement pour la deuxième année consécutive, la France ne pointe qu’au 24e rang du classement, avec une note de 51,8 sur 100.

Nous allons fournir quelques exemples avant d’évaluer les raisons du développement et du soutien à l’innovation permanente pour certaines entreprises. Chacune des entreprises présentées a innové dans un domaine particulier et a réussi, pour certaines, à conserver la capacité à se positionner parmi les meilleures de sa catégorie. Ces entreprises, françaises pour la plupart, ont peu de points communs et sont très anciennes pour certaines. L’innovation n’est heureusement pas seulement présente dans les grandes entreprises, des PME peuvent également être mises en avant pour leurs innovations, soit de rupture, c’est-à-dire une innovation totalement en rupture avec les autres produits ou services, soit de changement, c’est-à-dire une innovation qui apporte une évolution (le Smartphone par rapport au téléphone).

Selon les analyses vues précédemment, seulement 41 % des entreprises françaises cherchent à innover et 1 % réussissent effectivement. Nous présentons dans le sous-chapitre suivant le cas de quelques entreprises particulièrement intéressantes à suivre dans leur démarche.

Roland ROBEVEILLE © GERESO Édition 2015

Manager l’innovation autrement
Comment relancer l’innovation dans les entreprises françaises

Date de parution : 24 septembre 2015

 

Héritage épigénétique : ce qu’a vécu votre père influe sur votre vie

Ce que le père fait avant la naissance de son enfant peut influer sur son avenir. Selon une étude menée par des généticiens Canadiens et Québecois, et publiée dans la revue Science, la façon de vivre et l’environnement d’un futur père influencerait en effet la vie de ses enfants, voire même de ses petits-enfants.  

Signatures épigénétiques

Les scientifiques, spécialistes de l’épigénétique (discipline de biologie qui consiste à étudier les mécanismes moléculaires modulant l’expression du patrimoine génétique en fonction du contexte), se sont ainsi penchés sur les “signatures” ADN laissées par les pères – et non pas les mères, puisque leur capital génétique n’intervient que pour la moitié du génome de l’enfant.

Selon les chercheurs, le fait de manipuler le processus épigénétique, durant la production de sperme chez les souris, influence le développement de leur descendance – pendant plusieurs générations. Les généticiens ont ainsi modifié l’activité d’une protéine histone (un constituant protéique des chromosomes) contrôlant le processus épigénétique – la “KDM1A histone lysine 4 demethylase”. La manipulation génétique a ainsi, indique l’étude, influé sur la santé et le développement de la progéniture des souris.

Un programme génétique “mis à jour”

La “variation génétique” des histones commandant l’epigénétique pourrait, selon les chercheurs, produire des “effets semblables” chez les humains, indique le site The Conversation. Et une telle variation pourrait être provoquée par plusieurs “facteurs environnementaux” lors de la production de sperme – autrement dit, par la façon de vivre du père. Nous pourrions dès lors éviter l’apparition de malformations congénitales, ou de maladies, en adoptant un bon mode de vie.

Au delà de ces considérations, les chercheurs se sont aussi intéressés à la variation génétique provoquée inconsciemment par les pères, en vue de l’évolution de l’espèce. Ainsi, certaines variations sont “utiles” pour permettre aux descendants de s’adapter au monde dans lequel ils sont destinés à vivre.

Autrement dit, les enfants ressentent “l’environnement métabolique” de leurs géniteurs, qui ont modifié en amont leur “programme génétique” – et ce processus se produit, d’une façon souvent infime, de génération en génération, à la façon d’une “mise à jour” périodique, d’un héritage épigénétique remodelé sans cesse.

Par Fabien Soyez

Tournesol et colza, des lipides d’intérêt pour la chimie verte

Dans un contexte économique et écologique où la réduction de l’utilisation des produits issus du pétrole conduit à se tourner vers des matières premières renouvelables, issues de la biomasse végétale, les lipides sont des molécules clés pour la production d’agrocarburants et de produits biosourcés issus de la chimie verte. Leur élaboration par des microorganismes à partir de la biomasse lignocellulosique est en plein essor. Des chercheurs de l’Inra, d’AgroParisTech et du CNRS ont exploré le potentiel de résidus issus de l’agriculture pour la production de lipides d’intérêt par une bactérie lignocellulolytique, Streptomyces lividans.

Des tiges de tournesol et des pailles de colza…

S’intéressant aux tiges de tournesol et aux pailles de colza, jusqu’alors peu explorées, les scientifiques ont mis en évidence que les unes et les autres présentent un taux moyen de lignines peu élevé (17 %), proche de celui du maïs mais bien moins élevé que celui du bois, tous deux mieux connus des filières de bioconversion. Ces lignines ont par ailleurs la particularité d’être structurellement faciles à convertir en molécules d’intérêt. Tiges de tournesol et pailles de colza renferment toutes deux, en moyenne, 32 % de cellulose et 16 % d’hémicelluloses. Au final, ces caractéristiques hissent d’ores et déjà ces résidus agricoles lignocellulosiques au rang de substrat potentiellement intéressant pour les filières de bioconversion.

…pour la production bactérienne d’acides gras originaux

Connues pour leur capacité à dégrader les lignocelluloses et à produire des molécules d’intérêt, tels des antibiotiques ou des lipides, des bactéries du genre Streptomyces, S. lividans, se sont révélées capables de se développer sur les résidus de colza comme de tournesol. Le fractionnement de ces résidus lignocellulosiques a permis de montrer que les bactéries se développent préférentiellement sur la fraction glucidique soluble dans l’eau de ces résidus. Cette observation pousse à optimiser les conditions de culture de cet organisme afin qu’il utilise d’autres fractions ou à envisager des prétraitements thermiques ou chimiques pour libérer les molécules utilisables par ces microorganismes. Au cours de leur croissance, ces bactéries produisent des acides gras et cette
production peut atteindre 44 % de celle réalisée à partir de l’arabinose, un glucide très favorable à la croissance en laboratoire de S. lividans. Parmi ces acides gras, les scientifiques ont identifié des acides gras originaux par leur structure puisqu’ils sont ramifiés ou comportent un nombre impair d’atomes de carbone voire réunissent ces deux caractéristiques. Ils représentent près des ¾ des acides gras produits.

Au final, de la parcelle agricole à la fiole de laboratoire, ce travail pionnier révèle l’intérêt des résidus lignocellulosiques d’origine agricole que sont les tiges de tournesol et les pailles de colza pour la croissance de bactéries lignocellulolytiques et la production de lipides d’intérêt pour la chimie verte. Soulignons qu’il a nécessité de mettre au point de nombreuses techniques d’analyse susceptibles d’intéresser le domaine industriel de la bioconversion. Plus largement, ce travail ouvre de nouvelles perspectives pour la valorisation par voie biotechnologique de coproduits agricoles encore sous-exploités. Il appelle à être poursuivi pour en démonter la faisabilité à plus grande échelle.

Source : CNRS (http://www2.cnrs.fr/presse/communique/4273.htm)

Un sondage de l’Univers XXL

Ce sondage, baptisé XXL, et réalisé grâce notamment au satellite XMM-Newton de l’ESA et aux télescopes de l’ESO, a permis de localiser et d’identifier 450 amas de galaxies, ainsi que 22 000 galaxies actives1 . Astronomy & Astrophysics publie une première série de résultats de la collaboration internationale, menée par le CEA, et qui compte des chercheurs et moyens du CNRS, du CNES, d’Aix Marseille Université, et de l’Observatoire de la Côted’Azur. Les amas de galaxies sont les plus grandes structures de l’Univers, pouvant atteindre des masses de plus de cent mille milliards de fois celle du Soleil. Le sondage XXL, réalisé de 2011 à 2013 à l’issue d’observations2 en rayons X du satellite XMM-Newton, a pour but de constituer un catalogue de plusieurs centaines d’amas de galaxies, situées jusqu’à des distances si lointaines qu’on les observe telles qu’elles étaient lorsque l’Univers avait la moitié de son âge actuel. Les chercheurs pourront ainsi reconstituer l’évolution et la répartition spatiale de ces structures, et tester différents scénarios cosmologiques.

Cap-espace-xxl

Les résultats présentés dans cette première série d’articles portent sur les 100 amas de galaxies les plus brillants détectés par le sondage XXL. Ils permettent une première reconstruction de la structure de l’Univers jusqu’à des distances de plus de 11 milliards d’années-lumière3 . Ils révèlent une densité d’amas sensiblement moins élevée que celle prévue par les modèles cosmologiques, ainsi qu’une quantité de gaz dans ces amas également plus faible qu’attendue. Un déficit similaire avait été observé pour les amas plus massifs directement détectés par le satellite Planck sur tout le ciel. Cela suggère, soit que certains paramètres décrivant la physique des amas doivent être revus, soit que le modèle cosmologique est plus complexe – ou différent – de ce qui est envisagé actuellement. L’étude de l’échantillon complet des 450 amas du projet XXL, qui sera publiée d’ici deux ans, devrait permettre de préciser cette conclusion. Les premières analyses d’XXL révèlent aussi la découverte de cinq nouveaux « superamas » ou « amas d’amas » de galaxies : par exemple, le super-amas XLSSC-e, dans la constellation de la Baleine, à une distance d’environ 4,5 milliards d’années-lumière, est constitué de six amas différents couvrant une région du ciel de 0,3 degré par 0,2 degré, ce qui, à cette distance, correspond à des dimensions de 7 x 4,5 millions d’années-lumière.

cap-espace-xxl-2

Le projet XXL constitue une étape intermédiaire importante avant les prochains sondages de nouvelle génération, qui auront pour objectif de couvrir l’ensemble ou une partie significative du ciel, tels que DES (Dark Energy Survey), eROSITA (extended ROentgen Survey with an Imaging Telescope Array), LSST (Large Synoptic Survey Telescope) et EUCLID.

Source : cnrs