Données personnelles : l’Europe renforce les droits des internautes

L’adoption d’un texte final, validé par le Parlement européen, la Commission européenne et le Conseil de l’Europe, aura le mérite de clarifier la situation avec des contraintes plus explicites pour les professionnels.

Les obligations des entreprises

La collecte et le traitement des données par les entreprises, quel que soit leur statut, va être réglementés par différentes mesures dont certaines n’entreront en vigueur qu’en 2018. Principale nouveauté, l’accord tacite, basé sur le principe du « qui ne dit mot consent », est révolu. Avant de recueillir des informations sur leurs visiteurs, les sites devront solliciter leur consentement explicite sous la forme, par exemple, d’une case à cocher. Si ses données personnelles ont été collectées irrégulièrement ou si une personne ne souhaite plus l’exploitation d’informations la concernant, elle pourra faire jouer son « droit à l’oubli ». Ce nouveau règlement européen élargit donc à toutes les entreprises ce que la justice a déjà imposé aux moteurs de recherche, en particulier à Google.

Par ailleurs, si un internaute souhaite récupérer des données personnelles récupérées et analysées par une entreprise, celle-ci devra les lui fournir dans un format utilisable par un autre service en ligne. Cette « portabilité » des informations risque néanmoins d’être une contrainte pour certaines entreprises… L’irréversibilité des données a en effet donné lieu à différents litiges, voire des procès (comme ce fut le cas entre Oracle et l’UMP), entre hébergeurs de données et leurs clients…

Histoire de convaincre les entreprises de tout mettre en œuvre pour protéger les données qu’elles stockent et parfois analysent, l’Europe annonce des amendes pouvant aller jusqu’à 4 % du chiffre d’affaires mondial. Certains pays, comme l’Allemagne, estimant que ce pourcentage pouvait être nuisible aux intérêts des entreprises, l’Europe a indiqué que les professionnels qui traiteront de façon anonyme les données personnelles ne seront pas contraints par cette réglementation.

Toujours dans le but de renforcer la protection des données sensibles (santé, opinion, etc.), le texte européen impose aux entreprises publiques de nommer un data protection officer, dont le rôle est proche du CIL, le Correspondant informatique et liberté.

Les droits des citoyens

Leurs droits sont renforcés puisque le texte leur garantit un meilleur accès aux données les concernant et entérine le principe du « droit à l’oubli ».
Les données liées à l’exercice de droits et de choix fondamentaux, comme la religion, l’appartenance politique ou la race bénéficient d’une protection renforcée. Leur traitement devrait être une exception et soumis, avant leur exécution, à une analyse d’impact du risque.
Enfin, comme c’est le cas dans certains États américains, les entreprises ayant constaté une fuite de données devront informer dans les 72 heures les autorités et les personnes concernées. Cette obligation est levée lorsque les informations sont chiffrées.

Les droits des États

Bien que ce texte s’impose à tous les États membres, ces derniers pourront adapter certains points. C’est le cas notamment de l’âge de « la majorité numérique », c’est-à-dire l’âge à partir duquel un adolescent n’a plus besoin de demander l’accord de ses parents pour accéder à un service en ligne. Bruxelles proposait 13 ans, comme aux États-Unis. Mais les États membres, et en particulier la France, préféraient 16 ans.
Finalement, les États membres pourront déroger à la règle générale des 16 ans.

Par Philippe Richard

Le télétravail : une faille de plus dans la sécurité des entreprises ?

Cette éventualité semble séduire les salariés. Plus de 60 % d’entre eux souhaiteraient faire du télétravail. La même proportion a émis le souhait de pouvoir le faire au moins plusieurs jours par semaine ou de temps en temps, d’après les résultats d’une étude de l’institut Odaxa, publiée en avril 2015.

Cette évolution des comportements est facilitée par les multiples solutions permettant de travailler à distance : visioconférence, ordinateur portable, messageries instantanées, calendrier partagé, smartphones, etc.

Revers de la médaille, ces multiples accès au réseau informatique de l’entreprise sont autant de failles de sécurité. Le télétravail peut être l’occasion pour les entreprises de profiter d’une souplesse et d’une meilleure productivité (pas de perte de temps avec les transports notamment). Mais le télétravail doit être aussi l’occasion pour les entreprises de renforcer leur politique de sécurité et notamment de mettre en place une gestion très précise des accès et des identités.

Les postes de travail des collaborateurs travaillant depuis leur domicile doivent être configurés de façon à ce que les risques d’infection virale soient limités et que les fuites de données sensibles soient réduites. Antivirus, pare-feu, logiciel antispam, mais aussi VPN (réseau virtuel privatif) et carte à puce intégrée au PC (pour authentifier les accès à distance) doivent être installés et mis à jour automatiquement.

Sensibilisation à tous les étages

La sensibilisation de tous les salariés est également prioritaire afin que chacun applique les règles essentielles de la sécurité informatique. Les salariés ne doivent pas cliquer sur des pièces jointes à des emails envoyés par des inconnus ou usurpant une identité. De leur côté, les responsables informatiques doivent mettre en place une politique stricte des accès afin d’autoriser telle ou telle personne à se connecter à tel ou tel service (ou application) et à faire telle ou telle tache. « Cela implique de définir précisément la zone de confiance, car il y a des risques d’usurpation d’identité. Cela implique de supprimer tous les comptes génériques et les remplacer par des comptes nominaux avec, pour chaque personne, la liste des opérations autorisées », insiste Dominique Meurisse, Chief Operating Officer de Wallix, un éditeur français de solutions de sécurité informatique spécialisé dans la traçabilité et la sécurisation des accès privilégiés aux systèmes d’informations des entreprises.

Grâce à des règles simples, il est possible de contrôler l’ensemble des accès à des équipements réseau. Ces règles sont définies en fonction de critères précis : l’adresse IP de l’utilisateur, son email, son login, les plages horaires auxquelles il est autorisé à accéder auxdits équipements, le type de session (interactive, transfert de fichiers, etc.) ou le protocole.

Les responsables informatiques doivent aussi proposer des plates-formes sécurisées de collaboration pour éviter les supports de stockage amovibles. Ils doivent aussi inciter les collaborateurs à utiliser un chiffrement complexe pour leur routeur à domicile. Même si vous devez assister l’utilisateur lors de la configuration ou proposer un point d’accès 4G (qui offre ce type de protection) à un prix préférentiel, c’est une étape nécessaire pour sécuriser les réseaux à domicile.

Séparation

Mais pour les experts du Laboratoire de virologie et de cryptologie, dépendant de l’ESIEA (une école d’ingénieurs du numérique), « le télétravail est comme incompatible avec le SI de l’entreprise. Pourquoi vouloir sécuriser un équipement qui, par sa nature instable, est une menace pour la sécurité du SI ? L’idéal serait d’utiliser au sein de cet équipement un conteneur logiciel étanche. Celui-ci serait une extension logique de l’entreprise au sein du terminal de l’employé. Relié au réseau local via un tunnel chiffré (Virtual Private Network (VPN)) lui aussi étanche, le conteneur aurait accès aux applications métiers et aux ressources de l’entreprise de manière sécurisée. L’utilisation d’un conteneur apporte une séparation forte entre une utilisation personnelle et une utilisation professionnelle ».

Ne pas mettre ses œufs dans le même panier est une règle qui peut paraître banale, mais qui a démontré son efficacité…

Par Philippe Richard

La menace coréenne monte d’un cran

Génèse

Les sources du conflit coréen remontent au début du XXème siècle. A l’époque, la Corée est colonisée par le Japon dont les méthodes provoquent des révoltes durement réprimées. La Seconde Guerre Mondiale va mettre fin à l’oppression japonaise. La conférence de Yalta en 1945 dessine le nouvel ordre mondial et prévoit l’indépendance de la Corée. Dans les faits, la péninsule sera sacrifiée sur l’autel de la Guerre Froide, divisée en deux le long du 38ème parallèle. La partie nord est dirigée d’une main de fer par Kim Il-sung, allié des Soviétiques, le sud étant soutenu par les Etats-Unis. La péninsule sera l’un des théâtres de guerre indirecte entre les deux superpuissances. Entre 1950 et 1953, le conflit fait 2 millions de victimes civils et militaires et marque profondément l’esprit des survivants. La fracture entre Coréens, devenus frères ennemis, ne fera alors que grandir. La guerre se conclut sur un armistice et non un traité de paix ce qui implique que les deux pays sont théoriquement toujours en guerre. Une zone démilitarisée est tracée autour du 38ème parallèle pour limiter le risque d’embrasement. Mais dans les faits, les deux armées se font face et cette bande de terre détient le titre peu enviable de plus grande densité d’armes et de militaires de la planète…

La chute de l’empire soviétique en 1989 va laisser Pyongyang seul face à ce qu’il appelle « l’impérialisme américain ». La disparition de l’URSS a impacté durement l’économie nord-coréenne qui s’est progressivement recroqueviller sur elle-même. L’autosuffisance et la menace étrangère vont ainsi devenir les thèmes principaux de la propagande du parti.

Le péril extérieur

Le sentiment d’insécurité va être exacerbé par le régime afin d’asseoir son emprise et constituer une armée disproportionnée. Selon les experts, le pays aurait la quatrième plus grande armée du monde avec 1,19 million de soldats et officiers, mais également une réserve de 5,7 millions de miliciens, sur une population qui n’excèderait pas les 25 millions d’habitants. Très nombreuse, l’armée nord-coréenne est assise sur un stock d’armes impressionnant issu de la Guerre Froide. Pyongyang disposerait ainsi de pas moins de 6 000 blindés en tous genres, 21 000 pièces d’artillerie, plus de 500 avions de combat ou encore de 70 sous-marins ! Pour autant, ces matériels sont anciens (années 60) voire obsolètes. La capacité d’attaque de Pyongyang est donc relativement faible mais, Séoul, la capitale sud-coréenne est très proche de la frontière et reste donc vulnérable par l’artillerie lourde nord-coréenne souvent dissimulée sous terre, à l’abri de l’aviation américaine et sud-coréenne.

C’est dans ce contexte que Pyongyang a décidé de lancer à la fin des années 90 son programme nucléaire, seul à même selon Kim Jong-Il, fils de Kim Il-sung et père de l’actuel dirigeant Kim Jong-Un, de garantir l’indépendance du pays.

Objectif A

Le programme nucléaire nord-coréen est relativement récent. Débuté selon les observateurs en 1998, il répond au sentiment d’insécurité lié à la chute de l’Union soviétique. L’arme atomique, objet de dissuasion, devient la priorité du régime et un instrument de cohésion national. Au vu de la difficulté technique et technologique d’une telle entreprise, du peu de moyens du pays, et de l’avancée rapide de son programme nucléaire, des soupçons pèsent fortement sur le concours d’un réseau clandestin qui aiderait le régime. L’ingénieur Abdul Qadeer Khan, « père » de la bombe nucléaire pakistanaise, est l’un des suspects. Il faut dire que les progrès nord-coréens en physique nucléaire ont été anormalement rapides. Pyongyang a testé sa première bombe au plutonium en octobre 2006 créant une vague d’inquiétude dans la région. Des négociations sont engagées mais n’aboutissent pas. En mai 2009, la Corée du nord annonce l’essai réussi d’une deuxième bombe au plutonium, plus puissante. En février 2013, les scientifiques nord-coréens franchissent une nouvelle étape-clé en faisant exploser sur leur site de Punggye-ri une bombe alimentée en uranium enrichi, ce qui implique une possible maîtrise du procédé d’enrichissement. Enfin, le dernier en date, l’essai en janvier 2016 d’une bombe à hydrogène.

essai

Des doutes

L’annonce de Pyongyang a surpris les observateurs internationaux. En premier lieu car la bombe à hydrogène représente un saut qualitatif majeur dans la menace que représente l’arsenal nucléaire nord-coréen. Contrairement à la bombe A (fission), la bombe thermonucléaire consiste en la fusion de deux noyaux légers (deutérium ou tritium), ce qui représente un défi technologique qui semblait jusqu’ici hors de portée du régime de Kim Jong-un. Ces engins sont généralement divisés en deux étages : le premier est celui d’une bombe A qui fait office de détonateur pour le second étage, constitué des combustibles de fusion. Une complexité qui fait douter certains experts en armement de la véracité de cette annonce. Les relevés sismologiques de l’agence américaine USGS font en effet apparaître des mesures de 5,1 sur l’échelle de Richter, soit sensiblement équivalent à ceux enregistrés en 2013 lors du 3ème essai de la bombe A. Or, une bombe à hydrogène est nettement plus puissante, le séisme enregistré aurait donc dû être plus important. Ce ne serait pas la première fois que Pyongyang use de la désinformation.

L’autre inconnue réside dans la capacité réelle des ingénieurs nord-coréens à miniaturiser la bombe présumée. Un pré-requis indispensable pour pouvoir l’installer sur les missiles balistiques Taepodong-2, d’une portée théorique de 4 500 km mais dont la maîtrise est encore imparfaite (2 tirs ratés sur 3). Par ailleurs, ces fusées restent encore très rustiques par rapport aux technologies anti-missiles développées par les Etats-Unis notamment. En revanche, la proximité de la Corée du sud et du Japon les rend potentiellement plus vulnérables.

Axe du mal

Face à la menace que représentait le développement d’un programme nucléaire clandestin, l’administration Clinton avait initié des négociations. L’élection de Georges W. Bush, et les attentats du 11 septembre 2001, ont radicalement changé la donne. La Corée du nord a été classée dans le fameux « Axe du mal », aux côtés de l’Irak et l’Iran, contre lequel Washington partit en guerre, au sens propre et figuré. La multiplication des essais nucléaires nord-coréens s’est traduite par le vote systématique de nouvelles sanctions au Conseil de sécurité des Nations-Unies, dont l’efficacité semble aujourd’hui bien maigre. Ces provocations ont durci un peu plus l’opinion publique du sud qui a porté au pouvoir en 2008 le parti conservateur, peu enclin à l’apaisement. Ainsi, les années 2010 se sont caractérisées par des provocations verbales des deux côtés, Pyongyang promettant « une mer de feu » à Séoul, qui s’en amuse en retour : « un chien qui aboie ne mord pas », se serait hasardé le ministère de la Défense sud-coréen. Cette tension a dépassé les simples mots en novembre 2010, lorsque le nord a bombardé l’île de Yeonpyeong, située dans une zone stratégique et très disputée. Elle est, depuis la fin des années 90, l’objet de nombreux accrochages entre les armées des deux pays, mais jusqu’ici, le conflit n’a jamais dégénéré. L’arrivée à la Maison Blanche de Barack Obama n’a guère changé la donne. Empêtré au Moyen-Orient, le président américain s’est concentré sur d’autres priorités laissant la situation coréenne pourrir un peu plus. De fait, les pays de la région poursuivent leur course aux armements.

Bombe à retardement

Si le scénario d’une confrontation directe et totale sur la péninsule coréenne est peu probable, l’attitude belliqueuse de la Corée du nord n’en reste pas moins problématique au regard de la situation régionale tendue. Historiquement premier allié du régime de Kim Jong-un, Pékin joue un jeu d’équilibriste. Le maintien de la menace nord-coréenne est utile car elle détourne en partie l’attention et les ressources de ses concurrents régionaux. Par ailleurs, Pékin craint  l’effondrement du régime nord-coréen et des millions de réfugiés qu’il pourrait entraîner. Longtemps solidaire, la Chine a ainsi peu à peu pris ses distances avec le voisin coréen, jusqu’à voter des sanctions au Conseil de sécurité, elle qui n’hésite pas à opposer son veto lorsque ses intérêts sont menacés. L’attitude de la Chine est le deuxième facteur de tension régionale.

La montée en puissance de l’économie chinoise s’est accompagnée d’une politique étrangère visant à sécuriser ses approvisionnements en matières premières et les passages maritimes stratégiques (comme le détroit de Malacca). Cette stratégie s’est traduite notamment par le déploiement d’une grande flotte de guerre qui inquiète au plus haut point ses voisins et les Etats-Unis.

Mais le changement de paradigme majeur est sans aucun doute la remilitarisation du Japon qui, depuis la Seconde Guerre Mondiale, s’était interdit d’envoyer des troupes hors du sol nippon et avait délégué aux États-Unis la charge de protéger le pays. Une règle inscrite dans la Loi japonaise mais amendée par le Premier ministre Shinzo Abe, élu en 2012. Il s’agit là d’un tournant géopolitique majeur dans l’équilibre des forces. Les capacités technologiques de l’archipel devraient propulser son armée à la quatrième position des forces de la région. En 2015, le budget de la Défense japonais a atteint les 41,7 milliards de dollars, un record pour le pays et, le septième plus important au monde. Cette remilitarisation est justifiée par les Conservateurs japonais par la menace nord-coréenne et la politique marine active menée par Pékin. Le Japon entretient avec la Chine un contentieux territorial au sujet des îles Senkaku/Diaoyu en Mer de Chine orientale. Cette dernière inquiète ses voisins en raison de sa stratégie dite de « polders », en référence aux Pays-Bas, qui consiste à créer de toutes pièces des îles artificielles, en Mer de Chine méridionale, destinées à abriter des bases militaires.

En somme, le cas nord-coréen montre les limites du Traité de non-prolifération nucléaire, conclu en 1968, qui n’aura pas empêché plusieurs nations d’acquérir l’arme atomique (Israël, Inde, Pakistan et Corée du nord). Face à une Chine ambitieuse, on assiste au renforcement de l’alliance militaire tripartite issue de la Guerre Froide entre les Etats-Unis, la Corée du sud et le Japon. Une escalade militaire qui ne présage rien de bon.

Par Romain Chicheportiche

E-cigarette : le diacétyle, une substance dangereuse ?

C’est ce qu’indiquent des chercheurs de l’Université de Harvard (Massachusetts, États-Unis). Selon leurs travaux publiés dans l’édition de décembre 2015 de la revue Environmental Health Perspectives, des traces de diacétyle ont été repérées dans 39 des 51 types de liquides testés. Or, son inhalation prolongée peut déclencher une bronchiolite oblitérante.  Deux autres composés potentiellement toxiques pour les voies respiratoires, l’acétoïne et l’acétyle propionyle, ont également été détectés.

Cet additif alimentaire très utilisé dans l’industrie agro-alimentaire pour renforcer les goûts des biscuits, gâteaux mais aussi des boissons alcoolisées est mis à l’index par des scientifiques depuis 1985. A cette époque, une corrélation entre le diacétyle et cette maladie a été constatée lorsqu’elle est inhalée (pas lorsqu’elle est ingérée).

Mais cette étude est-elle réellement alarmiste ? Le Dr Konstantinos Farsalinos, spécialiste grec de la cigarette électronique « précise que les valeurs retrouvées dans cette étude sont faibles et même inférieures à celles que lui-même avait trouvées dans son étude de l’an dernier. Et surtout, cette nouvelle étude ne fait pas mention que ces substances sont aussi trouvées dans la fumée des cigarettes de tabac à des concentrations 10 fois (pour le diacétyle) et 100 fois (pour l’acétyle propionyle) plus élevées ».

surtout, cette nouvelle étude ne fait pas mention que ces substances sont aussi trouvées dans la fumée des cigarettes de tabac à des concentrations 10 fois (pour le diacétyle) et 100 fois (pour l’acétyle propionyle) plus élevées

Pour Jacques Le Houezec, membre de l’équipe de recherche en Addictologie à l’Institut national de la santé et de la recherche médicale (INSERM), le but de cette étude est de « faire peur, et le résultat est que de moins en moins de fumeurs font confiance à la vape pour arrêter de fumer, car ils pensent à tort qu’elle est aussi, voire plus dangereuse que la cigarette. Dès l’instant où l’on arrête d’inhaler de la fumée (c’est elle qui est dangereuse, pas la nicotine) il y a un bénéfice de santé. Même si pour cela il peut être nécessaire de s’exposer à un très faible risque résiduel, qui reste cependant à démontrer ».

L’alarme lancée par les scientifiques américains vise peut-être un objectif plus précis : Sylvia Mathews Burwell, la secrétaire à la Santé et aux Services sociaux des États-Unis. A la différence de la France où différentes normes Afnor ont été adoptées en mai 2015, les États-Unis (mais aussi des pays européens) n’ont pas une réglementation restrictive. « La norme XP90-300 interdit l’utilisation de diacétyle dans les produits de la cigarette électronique. Les liquides fabriqués en France sont donc en principe exempts de cette substance, quelle que soit la saveur », a expliqué à Sciences et Avenir le Pr Bertrand Dautzenberg, professeur de médecine français et praticien dans le service de pneumologie de l’Hôpital de la Salpêtrière à Paris.

Par ailleurs, un processus de certification des fabricants, destiné à attester le respect de la norme Afnor, sera mis en place cette année.  En attendant, les vapoteurs peuvent se tourner en priorité vers les plus grandes marques françaises (Alfaliquid, D’lice ou Vincent dans les Vapes) et certaines marques nord-américaines (Halo et Vapor Shark) qui proposent des liquides sans diacétyle.

Ce n’est pas la première fois que la cigarette électronique est pointée du doigt. En 2014, une campagne de vérifications de la Direction générale de la concurrence, de la consommation et de la répression des fraudes (DGCCRF) avait conclut à une non-conformité de 90 % des liquides prélevés et de près de la totalité des chargeurs. Sur 110 analyses chimiques effectuées sur les liquides, la DGCCRF a relevé 90 % de produits non conformes. Par ailleurs, 6 % de ces produits ont été jugés « dangereux » pour des motifs d’absence d’étiquetage de danger ou d’absence de dispositif de fermeture de sécurité pour enfants.

Jacques Le Houezec rappelle aussi « que le risque zéro n’existe pas dans la vie. Même respirer l’air de nos villes ou boire l’eau du robinet n’est pas sans risques. Mais il est clair que, pour un fumeur, l’exposition à la vapeur d’e-cigarette est bien moins problématique que de continuer à fumer ».

Par Philippe Richard

Des lampadaires solaires créent des nano-réseaux !

Voici une invention qui pourrait bien changer la donne pour les 600 millions d’Africains qui n’ont pas accès à l’électricité. Le 20 novembre, Sunna Design a lancé une campagne de crowdlending. Alors que l’objectif initial porté à 100 000 € prévoyait l’électrification de 500 foyers au Sénégal, la jauge atteint déjà plus de 373 000 euros. Les objectifs ont donc été réhaussés et 1 500 foyers devraient accueillir la fée électricité en 2016. Au total, 10 000 foyers devraient être équipés dans cette région du Sénégal, l’entreprise attend donc de nouveaux investisseurs. L’intégralité de la production de l’entreprise est « made in France», sur son site de Blanquefort près de Bordeaux.

up4Des innovations techniques

Les lampadaires sont surmontés de panneaux solaires et équipés d’une batterie nickel-hydrures NiMH. Cette technologie de batterie, développée en partenariat avec le laboratoire public CEA-INES (Institut national de l’énergie solaire)  fonctionne même dans un environnement désertique ou tropical, et résisterait pendant 10 ans, sans maintenance, à des températures allant jusqu’à 70°C.

L’électricité produite par le lampadaire allume des rangées de LED à la nuit tombée et éclaire la place publique. En plus, chaque lampadaire peut être relié par câbles jusqu’à 8 maisons. A l’intérieur, un boîtier électrique permet de brancher un dispositif d’éclairage à LED, d’y utiliser de petits appareils électriques ou de recharger un téléphone portable grâce aux différents câbles fournis.

Un mode de financement innovant

Outre les spécificités techniques, le mode de financement est également innovant. D’abord, le lampadaire, les lampes et les boitiers sont installés gratuitement et ils sont remboursés progressivement par les habitants au fur et à mesure de leur utilisation du service. Ainsi, les habitants reliés à chaque lampadaire payent ce service 20 centimes d’euros par jour d’utilisation, via leur téléphone portable. Sunna assure que grâce à ce système, l’installation est remboursée en 3 ans (soit environ 1 700 euros).

Ce lampadaire solaire permet aux habitants de faire des économies et de s’affranchir de modes de chauffage et d’éclairage polluants. « Les 600 millions d’Africains qui n’ont accès à l’électricité dépensent jusqu’à 30% de leurs revenus en bougies, piles et kérosène. Et 80% d’entre eux possèdent un téléphone mobile : pour le charger, ils doivent parfois faire des kilomètres et payer jusqu’à 50 centimes d’euros », explique Jean-Baptiste Lenoir, Directeur Nouveaux Marchés de Sunna Design à Sciences et Avenir.

Dans ce business model, il restait à savoir comment Sunna Design pouvait financer l’installation de milliers de lampadaires, sachant qu’elle serait remboursée par leur utilisation. Pour ce faire, plutôt que de miser sur le crowdfunding comme le font de nombreuses start-up, Sunna Design a préféré le système de crowdlending. Le particulier qui apporte son épargne finance le projet et est rémunéré avec un taux d’intérêt annuel brut de 6% sur la somme prêtée. Il est remboursé tous les six mois, pendant trois ans, le temps que l’installation du lampadaire soit remboursée par les utilisateurs à l’entreprise ! Les prêts sont ouverts dès 50 €.

Sunna Design aurait déjà mis en place 5 000 de ces lampadaires. Ces premières réussites attirent les investisseurs. En Décembre 2014, l’entreprise a levé 5,3 millions d’euros. Elle espère désormais lever 20 millions d’euros supplémentaires en 2016.

L’intérêt des lampadaires Sunna en vidéo !

Par Matthieu Combe, journaliste scientifique

Une imprimante 3D qui sculpte du verre fondu

Leur machine, présentée lors de la conférence de mécanique des fluides de la Société Américaine de Physique, le 24 novembre à Boston, est capable de chauffer du verre à 1037,77° Celsius – afin de le faire fondre, de le maintenir en fusion, et de pouvoir ensuite le faire “couler” jusqu’à “modeler” et obtenir l’objet désiré.

3d-printed-glass-MIT-Neri-Oxman

“La machine à coudre du verre en fusion”

L’imprimante 3D du Glass Lab, baptisée “Glass 3D Printing” (G3DP), et aussi surnommée par les scientifiques “la machine à coudre de verre en fusion”, a été conçue en aluminium, sur une armature d’acier.

Test-impression-3D-verre-04

Selon Sciences et Avenir, la G3DP est dotée de “buses en oxyde d’aluminium” et d’un “système de compartiments”, qui permet de “faire passer la matière en fusion d’un creuset aux buses tout en maintenant la température adéquate à tous les stades de l’opération”.

impression3d-verre

Afin de solidifier l’objet (à l’origine, conçu à partir d’un fichier numérique), et de le refroidir sans le briser, la machine injecte progressivement de l’air comprimé dans l’espace où il se forme.

Ce procédé corrige le principal défaut des techniques utilisées jusqu’ici pour imprimer des objets en verre en 3D : l’utilisation de poudre de verre, qui ne permet de produire que des objets opaques, et non transparents.

Par Fabien Soyez

Des caméras sachant compter

Le terme «vidéosurveillance» – ou «vidéoprotection» selon l’euphémisme en vigueur – n’accompagne même plus le mot «caméra» tant l’association semble faire sens. Malgré tout, si la sécurité et la sûreté demeurent ses priorités, une caméra peut être employée à d’autres fins. «En supplément de notre activité principale liée à la sécurité, nous avons développé depuis deux ans la gestion de flux, basé sur le comptage, témoigne Jean-Baptiste Ducatez, directeur de Foxstream, société spécialisée dans l’analyse et le traitement automatique d’images vidéo. Notre algorithme FoxVigi permet de détecter une intrusion dans un périmètre donné, mais aussi de compter des personnes ou de gérer une file d’attente.»

Files-aéroport3-copie

Le comptage, qui détermine si une personne franchit une ligne virtuelle dans l’image filmée par la caméra, trouve des débouchés dans le commerce et le marketing. «Toutes les boutiques de Bouygues Telecom en France sont équipées de notre algorithme, poursuit Jean-Baptiste Ducatez. La caméra en position zénithale surplombe l’entrée du magasin et distingue les personnes entrantes des personnes sortantes. Ainsi la fréquentation des magasins par région, par date, etc. est-elle connue et l’impact d’une promotion est-elle analysé.» Le taux de transformation, c’est-à-dire le rapport entre les visites et les achats, peut être déduit en comparant ces statistiques et l’émission de tickets de caisse.

FoxCounter-zone

D’autres applications dérivent du comptage, comme la mesure du taux d’occupation. «Notre algorithme Lynx, au travers d’une caméra, est capable de recenser les personnes ayant occupé l’espace devant tel ou tel rayon d’un magasin» explique Laurent Assouly, directeur marketing d’Evitech, une autre société experte en matière d’analyse d’image pour la sécurité. Ces zones chaudes et zones froides constituent de précieuses informations pour les services commerciaux. C’est une fonction qui peut aussi être mise à profit dans un espace public. «La SNCF l’a utilisée à la Gare Saint Lazare quand Burger King s’est implanté dans la galerie marchande, afin d’analyser les répercussions sur la circulation autour de cette zone» ajoute Laurent Assouly. FoxVigi de Foxstream est quant à lui employé dans les aéroports de Lyon et Roissy Charles de Gaulle, entre autres. «Devant chaque PIF (Poste inspection filtrage, zone où les passagers et leurs bagages sont inspectés, Ndlr), notre algorithme compte le nombre de personnes dans la file d’attente et, en fonction du débit sortant, calcule puis affiche le temps d’attente estimé, décrit Jean-Baptiste Ducatez. L’information est intéressante pour les voyageurs et les services d’exploitation, qui jugent s’il faut ouvrir un PIF supplémentaire ou non.»

dashboard-monitoring - Copie

La précision est assez surprenante. «Notre solution a été testée dans un festival de musique. En comparaison avec le nombre de tickets RFID vendus, c’est-à-dire la réalité du terrain, elle a atteint une précision de 99,5%» se félicite Laurent Assouly. C’est une performance supérieure à celle d’autres techniques employées dans les magasins, basées des faisceaux infrarouges par exemple. «Mais attention, une précision de 70% peut suffire dans un magasin, prévient Laurent Assouly. Ce qui importe le gérant, c’est davantage la tendance qu’un chiffre exact.»

Ces algorithmes sont tributaires d’une puissance de calcul que, évolution des processeurs aidant, certaines caméras sont désormais en mesure de satisfaire. Quelques fabricants de caméras, comme Axis (aujourd’hui propriété de Canon) et Samsung, prévoient un espace mémoire réservé à des éditeurs tiers et l’algorithme fonctionne alors en version embarquée. A titre d’illustration, FoxVigi ne pèse qu’un petit mégaoctet. Cette option est parfois source d’économies. «Bouygues Telecom, grâce à notre algorithme embarqué, s’est épargné l’acquisition de quelque 500 PC» estime Jean-Baptiste Ducatez.

Il existe néanmoins des contraintes techniques. D’une part, la caméra doit être fixe, non motorisée. D’autre part, si la puissance de calcul des caméras s’améliore, elle n’est pas encore au niveau de celle d’un PC moyen. «Des traitements tels que les allocations mémoire sont beaucoup plus lents quand l’algorithme fonctionne dans la caméra, constate Laurent Assouly. De fait, la taille de l’image analysée doit être réduite, donc la portée de la caméra.» Ce n’est pas problématique quand la caméra est posée sous le plafond à quelques mètres de hauteur, à l’entrée d’un magasin. Ca le devient quand il s’agit de détecter des intrusions ou de compter des individus sur de grandes superficies.

Par Frédéric Monflier

Les couples d’oiseaux discutent pour se partager les soins parentaux

Chez les oiseaux, les soins parentaux consistent généralement à construire un nid, couver les œufs et nourrir les oisillons. Chez le diamant mandarin, les couples sont très unis et partagent très équitablement toutes ces tâches. Pendant l’incubation le mâle et la femelle passent autant de temps l’un que l’autre à couver les œufs, en se relayant toutes les 30 minutes environ. Lorsqu’un oiseau revient au nid pour remplacer son partenaire, le couple fait un échange de cris semblable à une discussion : le mâle et la femelle alternent leurs cris de manière organisée. C’est au rôle de cet échange vocal que se sont intéressées les chercheuses dans cette étude.

En milieu naturel un oiseau qui quitte le nid pour aller se nourrir, doit partir au loin et perd donc tout contact avec son partenaire resté sur les œufs. Dans cette étude, cette séparation a été reproduite en captivité en construisant une grande volière avec deux pièces distinctes : une zone de nidification et une pièce où les oiseaux peuvent se nourrir. Ce dispositif a permis de perturber l’organisation des couples en bloquant le mâle en dehors de la zone de nidification pendant une heure. Il a ainsi été contraint de s’absenter deux fois plus longtemps qu’à l’ordinaire. Afin de mesurer l’effet de ce retard sur le comportement des partenaires, leurs allées et venues ont été suivies grâce à des puces radiofréquence fixées à leur bague, et leurs échanges vocaux ont été enregistrés à l’intérieur des nids.

Lorsque le mâle arrive en retard au nid, le couple a un échange vocal plus court et plus rapide qu’en temps normal. De plus, le contenu de cet échange accéléré détermine la répartition des tâches qui va suivre : plus le mâle émet de cris lors de cet échange, et plus la femelle reviendra rapidement au nid à son tour pour prendre la relève. Si le mâle crie peu, la femelle partira d’autant plus longtemps qu’il aura été en retard. Les diamants mandarins discutent donc pour se partager le temps que chacun va passer sur les œufs.

Il s’agit de la première démonstration d’une communication entre partenaires concernant le partage des soins parentaux. Ce phénomène s’apparente à un processus de négociation où chaque oiseau adapte son comportement à ce que signale son partenaire. Ces discussions pourraient exister chez d’autres espèces d’oiseaux et être utilisées pour organiser d’autres tâches telles que la construction du nid ou le nourrissage des oisillons. Mais ces hypothèses doivent encore être explorées.

Source : cnrs

Les stratégies des entreprises qui réussissent

Celles qui réussissent dans la durée avec une démarche stratégique, souple, en s’adaptant aux contingences économiques et financières

Le cas Saft, une entreprise presque centenaire, qui après avoir intégré Alcatel s’en est détachée et est, aujourd’hui, un des leaders des piles au lithium. Saft, s’est organisée autour de projets nouveaux dans un type de produit, la batterie, en innovant constamment dans des technologies de plus en plus sophistiquées.

Le cas Tefal est présenté dans le travail de Vincent Chapel en 1990, dans une thèse en gestion de l’innovation à l’École des Mines de Paris comme un cas exemplaire d’une catégorie particulière d’organisation : celle des « organisations orientées conception » (design oriented organizations). Elle possède comme caractéristique de ne pas simplement parvenir à mener à bien avec succès un projet d’innovation isolé, mais de développer une capacité à construire une trajectoire durable d’innovations successives introduisant des changements significatifs dans l’identité des produits, des marchés et des technologies. Elle a derrière elle plusieurs décennies de croissance forte basée sur l’innovation en termes de chiffre d’affaires et de nombre de salariés dans un contexte de concurrence sévère. Tefal est classée systématiquement en tête des rentabilités de son secteur, et peut distribuer jusqu’à 23 mois de salaire par an ! Par contraste, l’entreprise historique de cette industrie, Moulinex, connaît à la même époque de graves difficultés. La production de Tefal est entièrement localisée en France contrairement à ses concurrents, installés dans des pays à bas coût de main-d’œuvre.

Certains secteurs qui étaient encore en déshérence il y a dix ans se relèvent. Le secteur textile par exemple se porte ainsi mieux que la moyenne. Ce secteur compte en 2014, 65 000 emplois. L’orientation vers le luxe et les recherches entreprises vers les textiles techniques ont permis de contenir la concurrence, notamment allemande. Ces nouveaux textiles offrent des perspectives vers des applications variées, dont l’automobile, l’aéronautique, mais aussi le bâtiment et la santé.

Celles qui ont une stratégie de rupture avec les anciennes technologies

Le cas Gemalto. Une stratégie mono produit, avec des innovations incrémentales qui placent l’entreprise au plus haut niveau de son métier de base. Le leader mondial de la carte à puce et de la sécurité numérique, qui avec un chiffre d’affaires de 2,2 milliards d’euros en 2012, vient tout juste d’entrer au CAC40 à la place d’Alcatel Lucent. Les ventes de Gemalto ont progressé de 43 % et son bénéfice opérationnel de 79 % depuis 2009. L’entreprise n’hésite pas à attaquer Google et Samsung en justice sur l’utilisation de ses brevets de paiement sans contact. La valeur de son action a crû de 250 % depuis 2008. Cette entreprise a le monopole d’un produit phare et continue d’innover pour améliorer son produit.

Le cas Criteo est particulièrement intéressant. Autre PME française à la pointe de l’innovation, Criteo est devenue une société de technologie mondiale qui permet aux sites de e-commerce d’identifier le « bon client » en segmentant le marché en temps réel. Grâce à des algorithmes de prédiction associés à l’insight sur l’intention et l’engagement des consommateurs, cette entreprise est capable de chiffrer le prix et de livrer des bannières pertinentes et personnalisées, en temps réel. Criteo réussit cette opération grâce à un inventaire très important de sites Web dans le monde entier, via l’achat d’espaces publicitaires premium d’éditeurs et par l’intermédiaire des ad-exchanges en Real Time Bidding.

Le cas Deezer. L’innovation « service » en utilisant tous les canaux de communication pour diffuser un produit. Le service d’écoute de musique en ligne Deezer, avec un catalogue de 20 millions de titres, est passé de 1 à 30 millions d’utilisateurs en cinq ans. Un service « à la mode » centré sur une clientèle exigeante et jeune qui est capable de zapper à tout moment pour utiliser un autre vecteur : c’est le cadre dans lequel Deezer doit s’intégrer. Aujourd’hui cette entreprise est implantée dans 160 pays. Sa technologie est désormais intégrée à Facebook, présente dans certaines offres d’Orange et sera bientôt ajoutée aux téléviseurs connectés du Coréen LG. L’entreprise n’a été créée qu’en 2006 et, depuis, a su innover en permanence dans un univers concurrentiel. Son succès et son développement sont dus à sa souplesse et à sa vivacité pour adapter sa stratégie et son organisation à son projet.

Le cas Kolibree. La start-up « Kolibree » se lance à l’assaut d’un marché qui n’a pas de concurrent. Elle propose de commercialiser la première brosse à dents connectée. En effet, l’entreprise cible la relation parents-enfants à travers l’apprentissage de l’hygiène bucco-dentaire. La brosse à dents est électrique et contient des capteurs. Ces derniers transmettent les caractéristiques du brossage à l’application Kolibree préalablement téléchargée sur un Smartphone. Cette innovation va permettre un apprentissage du brossage de dents en fournissant des informations sur la fréquence et le temps de brossage des dents pour chaque enfant…

Le cas Bunkr, prêt à envoyer l’outil PowerPoint au placard. Bunkr est basée à Rouen, c’est une jeune société lancée en 2012, qui ambitionne de détrôner le célèbre outil de présentation PowerPoint avec une application plus simple, plus intuitive en ligne permettant de faire des présentations dynamiques.

La jeune société Sysnav développe un système nouveau de positionnement. Les solutions innovantes de navigation, de géolocalisation et de capture du mouvement sans GPS et sans infrastructure. Ses solutions sont fondées sur une technologie de géolocalisation de nouvelle génération magnéto-inertielle, largement primée au plan national et international. Elle est lauréate du prix de l’Innovation TR35/2014 du MIT Technology Review. Ses solutions visent les secteurs de la défense, de l’aéronautique, du spatial, du médical, du monde portuaire.

L’innovation produit. En mars 2014, l’entreprise Expliseat, créée en 2011 par trois ingénieurs, est passée du statut de jeune pousse à celui de société industrielle. Expliseat a, en effet, signé avec Air Méditerranée, un contrat d’un million de dollars, pour équiper avec ses sièges Titanium, l’un des Airbus A321 de la compagnie.

L’innovation produit toujours, mais dans un but humanitaire. Thomas Samuel, Français de 32 ans, a reçu le prix 2014 de l’innovateur solidaire. Fondateur de Sunna Energy en Inde, il fournit des systèmes d’éclairage public écologiques pour les régions défavorisées.

Celles qui soutiennent l’innovation sociale comme moyen de développer la motivation des salariés à innover sans arrêt

Le cas Technip. L’innovation sociale pour développer la motivation par la satisfaction des salariés sur les conditions de travail. Technip : cette entreprise est spécialisée dans les infrastructures énergétiques. Cette expertise reconnue dans la création et l’exploitation de plateformes offshore, mais aussi d’extraction sous-marine, d’organisation de navires spécialisés dans l’exploration et dans les énergies éoliennes. Elle a réalisé en 2013 un chiffre d’affaires de plus de 9 milliards d’euros. Ce groupe de 40 000 collaborateurs est présent dans 48 pays. Cette entreprise, selon un classement HappyTrainees , est placée en tête des entreprises où les alternants (apprentis et contrats de professionnalisation) s’estiment les plus heureux, avec L’Oréal et Microsoft. L’innovation sociale est un des aspects de cette entreprise qui a compris que la satisfaction au travail développe la motivation pour les résultats tout en centrant le management sur le développement des compétences. Le PDG a su transformer la culture d’ingénieurs de cette entreprise en culture « d’ingénieurs managers de projet » en la centrant sur « le business du client ». Sa stratégie gagnante repose ainsi sur trois axes : manager par les compétences, placer l’innovation au cœur de la stratégie et centrer les résultats sur la satisfaction du client.

Celles qui soutiennent l’innovation dans les services

L’innovation est aussi présente dans les services. « Nous traitons les problèmes concrets de façon scientifique », explique Rand Hindi, président de la start-up parisienne Snips, créée en 2012 avec Alexandre Vallette et Maël Primet. « Nous sommes spécialisés en modélisation prédictive. Pour cela, nous recourons au big data et aux machine learning, poursuit Rand Hindi. Grâce à un modèle prédictif bâti sur les statistiques de fréquentation du réseau Transilien de la SNCF, notre application mobile, baptisée Tranquilien, offre aux usagers d’Île-de-France de choisir le bon moment pour prendre le train. »

Roland ROBEVEILLE © GERESO Édition 2015

Manager l’innovation autrement
Comment relancer l’innovation dans les entreprises françaises

Date de parution : 24 septembre 2015

 

Coup de pouce de l’État en faveur de l’Open Source

Trois ans après sa première édition, cette mise à jour présente toujours un périmètre limité, en l’occurrence celui du poste de travail, de la gestion de parc, de l’exploitation de serveurs, des bases de données et des environnements de développement. Le SILL se présente sous la forme d’un tableau par fonctionnalité ou cas d’usage. Pour chaque fonctionnalité, il présente le logiciel préconisé en précisant la version. Chaque logiciel du SILL est suivi par un ministère référent.

Ce cru 2016 comprend des classiques comme la suite bureautique Libre Office, le logiciel de dessin et de gestion d’images The Gimp, le client de messagerie Thunderbird, l’outil d’inventaire OCS, l’environnement de développement Eclipse et la gestion des configurations Git. Ce SILL préconise également trois distributions GNU/Linux : CentOS, Debian et Ubuntu ainsi que la solution de virtualisation KVM.

Réuni en décembre dernier, le comité interministériel qui établit cette liste a ajouté MariaDB (référencé dans les bases transactionnelles aux côtés de PostgreSQL) et la base NoSQL Cassandra, répertoriée pour sa capacité à gérer de gros volumes de données. Mais pour l’instant, ces deux « nouveaux promus » devront faire leur preuve, car ils sont encore classés « en observation ». À l’inverse, l’annuaire OpenLDAP passe d’un statut « en observation » en 2015 à « recommandé » en 2016. Côté supervision d’infrastructure, Shinken fait son apparition aux côtés de Nagios.

Ce comité a également fait le ménage dans sa liste en supprimant le bloqueur de pub Adblock et le logiciel de chiffrement TrueCrypt considéré en fin de vie. Pour protéger leurs données sensibles, les administrations peuvent utiliser un « fork » de TrueCrypt, GostCrypt (LIEN : http://www.gostcrypt.org/gostcrypt.php?langue=fr) dont une nouvelle version vient d’être livrée par ses développeurs français.

La publication de ce SILL 2016 peut être l’occasion pour les entreprises publiques et privées de migrer vers des solutions Open Source au détriment de logiciels propriétaires. Publiée cet hiver, l’étude de marché prospective réalisée par le cabinet PAC pour le Conseil National du Logiciel Libre et du Syntec Numérique confirme « la pénétration croissante du Libre sur le marché informatique en France et confirme ses retombées en termes d’emplois »

Le marché du logiciel libre a représenté un chiffre d’affaires de 4,1 milliards d’euros en 2015. Ce marché affiche une croissance régulière. Le cabinet PAC annonce une croissance de 9 % par an pour atteindre un marché de près de 6 milliards en 2020, soit 13 % du marché des logiciels et services associés en France. Cette part équivaut à un quasi triplement de la part du libre sur le marché français en huit ans. Elle était de 5 % en 2012.

Néanmoins, tout n’est pas rose pour l’Open source. La Loi de finances 2016 pourrait mettre fin aux logiciels libres de comptabilité et de gestion de caisses. L’article 38 de ce projet de loi introduit en effet une notion particulière :

« […] Lorsqu’elle enregistre les règlements de ses clients au moyen d’un logiciel de comptabilité ou de gestion ou d’un système de caisse, utiliser un logiciel ou un système satisfaisant à des conditions d’inaltérabilité, de sécurisation, de conservation et d’archivage des données en vue du contrôle de l’administration fiscale, attestées par un certificat délivré par un organisme accrédité dans les conditions prévues à l’article L. 115-28 du code de la consommation ou par une attestation individuelle de l’éditeur, conforme à un modèle fixé par l’administration.
[…] Le fait, pour une personne assujettie à la taxe sur la valeur ajoutée, de ne pas justifier, par la production de l’attestation ou du certificat prévu au 3° bis de l’article 286, que le ou les logiciels de comptabilité ou de gestion ou systèmes de caisse qu’elle détient satisfont aux conditions d’inaltérabilité, de sécurisation, de conservation et d’archivage des données prévues par ces mêmes dispositions est sanctionné par une amende de 5 000 € par logiciel de comptabilité ou de gestion ou système de caisse. »

Avec de telles obligations, tous les logiciels de gestion d’entreprises sont potentiellement impactés, propriétaires ou libres sans différence apparente. Sauf qu’elles reviennent à priver l’utilisateur de sa liberté N° 3 octroyée par les logiciels libres : celle de modifier le programme. Autre répercussion : si une entreprise installe un logiciel libre et que le client bidouille ou fait bidouiller le programme en question pour frauder et se fait pincer, c’est l’entreprise qui sera responsable aux yeux de la loi, car elle aura attesté que le logiciel répond aux conditions d’inaltérabilité, de sécurisation, de conservation et d’archivage des données.

Par Philippe Richard

Pourquoi peut-on soulever une voiture avec deux annuaires ?

Internet regorge de séquences vidéo étonnantes mettant en évidence l’énorme force de friction existant entre deux annuaires entremêlés. Si l’on intercale les feuilles du premier annuaire entre celles du second, il est en effet possible de soulever une voiture, de résister à la traction de chars ou d’athlètes. Il est même envisageable de se jeter dans le vide en s’accrochant à un élastique simplement tenu par ces annuaires. Curieusement, une recherche bibliographique dans les articles scientifiques déjà publiés ne permettait pas, jusqu’à présent, de comprendre ces observations.

annuaires_a

Pour résoudre cette énigme, les chercheurs ont intercalé des feuilles de papier, les ont placées verticalement dans une machine de traction et ont mesuré la force nécessaire pour les séparer en fonction de leur nombre, de l’épaisseur du papier et de la distance de recouvrement. L’analyse des expériences révèle l’importance de ces trois paramètres combinés. Les chercheurs ont notamment montré que la résistance de l’ensemble augmente beaucoup plus rapidement que le nombre de pages. Par exemple, à partir du moment où le nombre de pages est suffisant pour résister à une tension, une simple multiplication par dix du nombre de feuilles peut, dans le cas où les pages se recouvrent suffisamment, amplifier d’un facteur dix mille la résistance des annuaires.

onpqc_2_a

Les chercheurs ont ensuite construit un modèle pour expliquer ces observations. Sur les côtés de l’empilement, les feuilles sont inclinées pour rejoindre la reliure; il existe alors un petit angle qui augmente au fur et à mesure que l’on ajoute des feuilles dans la pile ou que l’on intercale ces dernières plus profondément les unes dans les autres. Ainsi, quand on tire verticalement sur l’ensemble, une partie de la force est convertie en une force horizontale qui vient appuyer sur les feuilles. Les frottements permettent ensuite aux feuilles de rester liées les unes aux autres.

onpqc_1_a

Au-delà de l’aspect ludique de cette énigme, introduite dans l’émission On n’est pas que des cobayes sur France 5, cette étude rend désormais possible la mesure de coefficients de friction avec de très petites forces et pourront permettre de comprendre les comportements mécaniques de systèmes entremêlés plus complexes, comme les fibres textiles ou musculaires. Pour les chercheurs, l’intérêt futur réside ainsi, peut-être, dans la conception de nouveaux matériaux biomimétiques.

Source : cnrs

En Chine, Apple se veut 100% renouvelable

Apple annonce la mise en service de deux fermes solaires de 20 mégawatts (MW) dans la Province de Sichuan, en Chine. Ces installations permettent à l’entreprise à la pomme de produire plus d’électricité qu’elle n’en consomme pour ses 19 bureaux et 24 magasins chinois. D’autre part, Apple prévoit la construction de plus de 200 MW de projets solaire dans le nord, l’est et le sud de la Chine. Ces panneaux solaires « produiront l’équivalent  de l’énergie utilisée par plus de 265 000 foyers chinois pendant un an, ce qui commencera à compenser l’énergie utilisée dans la chaîne d’approvisionnement d’Apple », annonce la société dans un communiqué.

A terme, l’objectif d’Apple est de compenser intégralement les émissions de gaz à effet de serre dues à l’ensemble de ses fournisseurs. Pour ce faire, l’entreprise veut améliorer l’efficacité énergétique et l’utilisation des énergies renouvelables chez ses fournisseurs et partenaires industriels. Grâce à ces alliances industrielles, elle espère ainsi installer plus de 2 gigawatts d’énergies renouvelables dans les prochaines années.

Dans le cadre de ces partenariats, Apple partagera ses bonnes pratiques et fournira une assistance technique. Par exemple, son fournisseur Foxconn installera 400 MW de panneaux solaires, en 2018, pour produire assez d’énergie renouvelable pour compenser la consommation de son usine de Zhengzhou. Cette usine produit environ 70 % des iPhone d’Apple, soit environ 200 000 iPhones par jour.

Ces nouveaux programmes devraient permettre d’éviter l’émission d’environ 20 millions de tonnes de gaz à effet de serre  dans le pays d’ici 2020. « Cela équivaut à retirer environ 4 millions de voitures particulières de la route pendant un an », se félicite le géant américain.

par Matthieu Combe

ALMA révèle l’existence de chantiers de construction planétaire

Autour de chaque étoile ou presque orbite(nt) une ou plusieurs planètes. Toutefois, les conditions de leur formation demeurent aujourd’hui encore partiellement incomprises. Afin de lever ce voile de mystère, les astronomes étudient les disques de gaz et de poussière en rotation autour des jeunes étoiles à partir desquels les planètes se forment. La puissance d’ALMA leur a permis de s’affranchir de la petitesse de ces disques ainsi que de leur éloignement de la Terre.

Les disques transitoires constituent un type de disques particulier, dénués de poussière en leur centre, là où se situe l’étoile hôte. Cette mystérieuse absence de matière résulterait de l’un ou l’autre scénario ci-après : soit de puissants vents stellaires ainsi qu’un intense rayonnement ont balayé ou détruit cette matière, soit cette matière a été expulsée par les jeunes planètes massives en formation, alors qu’elles orbitent autour de leur étoile.

L’incomparable sensibilité d’ALMA d’une part, la netteté des images obtenues d’autre part, ont tout récemment permis à une équipe d’astronomes conduite par Nienke van der Marel de l’Observatoire de Leiden au Pays-Bas, de cartographier, avec un degré de précision inédit, la distribution de gaz et de poussière au sein de quatre disques transitoires. Les résultats obtenus leur ont en outre permis de privilégier l’un des deux scénarii de disparition de la poussière centrale.

This ALMA image combines a view of the dust around the young star HD 135344B (orange) with a view of the gaseous material (blue). The smaller hole in the inner gas is a telltale sign of the presence of a young planet clearing the disc. The bar at the bottom of the image indicates the diameter of the orbit of Neptune in the Solar System (60 AU).

Les images nouvellement acquises montrent l’existence de quantités significatives de gaz au sein des trous de poussière. A la surprise de l’équipe, il est toutefois apparu que le gaz présentait lui aussi une cavité, de dimension jusqu’à trois fois inférieure à celle du trou de poussière.

Cette observation trouve une seule et unique explication : les planètes massives nouvellement formées ont nettoyé le gaz à mesure qu’elles ont décrit leurs orbites autour de l’étoile centrale, et piégé les particules de poussière en périphérie.

“De précédentes observations suggéraient déjà la présence de gaz au sein des trous de poussière”, précise Nienke van der Marel. “ALMA étant capable de cartographier la matière sur la totalité du disque avec une résolution nettement supérieure à celle de tout autre instrument, nous avons été en mesure d’exclure l’autre scénario envisagé jusqu’à présent. Une cavité aussi profonde plaide nettement en faveur de l’existence de planètes dotées de masses de l’ordre de plusieurs masses joviennes, et résulte de leur balayage du disque.

Il est intéressant de noter que ces observations ont été effectuées alors que le réseau ALMA était encore en construction sur le Plateau Chajnantor au Chili. Il n’était doté alors que de 10% de son pouvoir de résolution actuel.

De nouvelles études, appliquées à d’autres disques transitoires, permettront peut-être d’établir l’universalité de ce scénario de défrichage planétaire. D’ici là, les observations d’ALMA auront fourni aux astronomes de précieux renseignements concernant le processus complexe de formation planétaire.

“L’ensemble des disques transitoires étudiés à ce jour et qui présentent de vastes trous de poussière, sont également caractérisés par des cavités de gaz. Grâce à ALMA, nous pouvons à présent déterminer le lieu ainsi que l’époque de formation de ces planètes géantes au sein de ces disques, puis comparer les résultats obtenus aux modèles de formation planétaire”, précise Ewine van Dishoek, de l’Université de Leiden et de l’Institut Max Planck dédié à la Physique Extraterrestre à Garching. “La détection directe de planètes est à la portée des instruments actuels, et la prochaine génération de télescopes actuellement en cours de construction, tel le télescope géant Européen, nous permetta de repousser ces limites. ALMA permet de cibler les observations à venir.”

Source : European Southern Observatory

Projet Ultimate CO2 : une meilleure compréhension des risques à long terme du stockage de CO2

Le BRGM (Bureau de recherches géologiques et minières) a coordonné depuis quatre ans le projet européen UltimateCO2 (Understanding the long-term fate of geologically stored CO2), qui regroupe 12 partenaires (instituts de recherches, universitaires et industriels) et un panel d’experts, sur financement européen (7e PCRD). Au coeur du projet, des calculs numériques ainsi que des observations en laboratoire ou sur analogues naturels, afin d’améliorer les connaissances sur les principaux effets à long terme du stockage géologique de CO2.

Une expérience a notamment été menée à échelle réelle sur le laboratoire expérimental de Mont Terri (Suisse), avec une couverture argileuse étudiée depuis plusieurs années. Objectif : analyser le comportement des puits, considérés comme des voies de fuites potentielles. Le concept était de reproduire une section d’un puits soumis à des contraintes similaires à celles d’un puits profond soumis à un stockage de CO2. Plusieurs paramètres ont été testés: une augmentation de température et de pression liée à la profondeur, et la mise en contact avec une eau acidifiée par du CO2 dissout pendant un an. En dehors du paramètre de pression, les résultats montrent plutôt une augmentation de l’étanchéité du puits dans ces conditions.

Des tests ont également été menés concernant la roche couverture, située au-dessus d’un stockage et dont l’imperméabilité permet de contenir le CO2. Les roches couvertures possiblement faillées ou fracturées peuvent présenter des risques de fuite. Les expérimentations ont consisté dans un premier temps à dégrader des roches argileuses, mécaniquement ou chimiquement, comme elles pourraient l’être sur le long terme en présence de CO2. Dans un second temps, les échantillons sont conduits jusqu’à la rupture afin d’évaluer leurs propriétés de résistance mécanique et d’écoulement. Or, les observations ont montré que l’imperméabilité de ce type d’argile dans les conditions étudiées restait assurée malgré la dégradation.

Ces expériences ont été complétées par des modélisations numériques, permettant notamment de simuler l’évolution du réservoir géologique jusqu’à 10 000 ans, avec une incertitude modérée sur des horizons de 100 ans mais plus importante sur des horizons de 1000 ans.

Pas de seuil critique atteint sur les conditions de stockage

Les modèles ont tout d’abord confirmé dans les cas étudiés que les impacts du stockage du CO2 à long terme sont faibles : pas de seuil critique atteint en termes de pression et de réactivation de failles et une évolution des flux de CO2 vers une situation stable.

Les simulations ont par ailleurs montré que, dans certains cas, une quantité importante de CO2 peut rester piégée sous forme gazeuse à l’horizon de 1000 ans. Le CO2 peut en effet changer de nature au cours du temps, soit en se dissolvant dans l’eau (comme dans une bouteille d’eau pétillante), soit en précipitant avec les roches. Or, dans les différents cas étudiés, on estime qu’au minimum 30% du CO2 reste sous forme gazeuse. Le risque de remontée de ce gaz reste donc présent sur le long terme, d’où la nécessaire imperméabilité du puits et de la roche couverture comme dans les accumulations naturelles de CO2. L’originalité du projet a enfin porté sur l’élargissement de l’étude des processus du réservoir à l’échelle du bassin sédimentaire. En effet, sur le long terme, un impact potentiel au-delà des zones de stockage n’est pas à exclure.

Où en est le stockage du CO2?

L’Agence internationale de l’énergie (AIE) estime que le captage et le stockage de CO2 devra contribuer à hauteur de 13% à l’effort de réduction des émissions de gaz à effet de serre nécessaire d’ici 2050 pour parvenir à limiter le réchauffement climatique à 2°C. Cette technologie a fait l’objet en 2005 d’un rapport spécial du GIEC, lui reconnaissant un rôle clé à jouer là où l’usage des énergies fossiles reste nécessaire au développement. L’Alliance nationale de coordination de la recherche pour l’énergie (Ancre) a également souligné le caractère incontournable de cette solution de lutte contre le réchauffement climatique dans ses Scénarios pour la transition énergétique, publiés en 2013. Pour que son déploiement généralisé puisse s’effectuer le plus rapidement possible, il est nécessaire d’accroître les connaissances et démonstrateurs sur les contextes géologiques propices et la surveillance des sites de stockage.

Il y a actuellement dans le monde 15 projets de capture et stockage du CO2 de taille industrielle en exploitation, 7 autres en cours de construction et 11 en conception. Ils démontrent qu’il est possible de capter le CO2 émis par des installations industrielles (centrales à charbon, usines de traitement du gaz naturel, usines sidérurgiques, cimenteries…) pour le stocker dans des aquifères salins profonds ou dans des réservoirs d’hydrocarbures épuisés. A ce jour, les quantités de CO2 déjà stockées sont de l’ordre de 50 Mt. Cela correspond seulement à 0,06% des 90 Gt visés par l’AIE d’ici à 2050. D’où l’effort considérable qu’il reste à accomplir pour déployer cette technologie sur quelques milliers de sites dans le monde. Cet objectif ambitieux nécessitera un cadre économique incitatif avec notamment un marché du CO2 fort.

En-dehors de la récupération assistée de pétrole, on peut envisager de coupler le stockage du CO2 avec les énergies renouvelables comme la géothermie ou la filière biomasse pour générer des bilans carbone négatifs.

Source : brgm

8 matériaux de construction innovants et méconnus

Ils existent et sont parfois utilisés depuis des années, pourtant ils sont encore trop méconnus. Voici quelques-uns de ces matériaux qui permettront peut-être de construire la maison de demain en lui octroyant des qualités devenues indispensables : résistance, durabilité, respect de l’environnement et économie en ressources, en énergie, et en coût.

Bat’IPAC et ses structures alvéolaires

BAT’IPAC, la société d’Alain Marboeuf (président) et d’Hubert Lê (inventeur) propose des constructions à partir d’un matériau innovant : l’IPAC (isolant porteur alvéolaire cellulosé). Depuis 2010, elle réalise des maisons en carton – n’allez pas comprendre en toc – faites de « plaques composées de feuilles de carton recyclé collées les unes aux autres », puis enduites de polyéthylène pour l’étanchéité.

Le produit est un isolant thermique efficace et écologique en plus d’offrir d’autres avantages : une grande résistance aux intempéries (il a su faire face à 31 tempêtes à Belle-Île-en-Mer), un prix intéressant (60 000 euros pour une habitation de 90 m²) et surtout des qualités écologiques qui concordent avec la politique de développement durable vendue par la société. Le carton peut en effet être recyclé sept fois. La colle est à base d’amidon de maïs ou de blé. Et la fabrication ne nécessiterait que peu d’énergie. Autre bienfait, BAT’IPAC sollicite les centres ESAT (Etablissement et service d’aide par le travail) pour assembler les panneaux.

Le traitement du bois par haute température 

Traiter le bois par haute température, c’est ce que propose la société THT. Pour obtenir un bois aux nouvelles propriétés, elle le soumet à une température qui monte progressivement « dans un milieu contrôlé en oxygène et en humidité ». Selon le niveau de température et le degré de dégradation de l’hémicellulose (une des composantes du bois), la nature du bois obtenue diffère. THT compare ce procédé à une pyrolyse ménagée.

Le traitement a ses bienfaits. La résistance à l’humidité est accrue de 30 à 50% entraînant une meilleure durabilité ainsi qu’une stabilité des dimensions du bois dans le temps. Le bois traité est moins atteint par les moisissures. Qui plus est, le procédé est respectueux de l’environnement. Il n’y a pas d’ajout de produits de synthèse. Ce qui veut dire que seule la température est responsable du changement des propriétés du bois.

L’usage des produits traités se diversifie avec les années. Il s’étend désormais aux produits d’intérieur (ameublement, menuiserie…) ainsi qu’aux produits d’extérieur (bardages, équipements de jardin, routiers et menuiserie). Il devrait donc dans le futur trouver de nouvelles utilisations.

Le carrelage écologique

En Allemagne, l’institut Fraunhofer a mis au point un carrelage organique à base d’huile de lin, de fibres naturelles et de célite – issu de diatomées fossilisées, une classe de micro-algues brunes. Ici aussi les avantages sont multiples. Le carrelage Fraunhofer est plus souple et plus léger que la moyenne. Après moulage, il peut prendre différentes formes. Il résiste très bien aux hautes températures (jusqu’à 120 degrés). Sa fabrication est peu gourmande en ressources et en énergie. Et bien sûr, les carreaux sont écologiques. Chaque parcelle de carrelage étant biodégradable. En bonus, il est possible de choisir les couleurs et motifs avant la fabrication et de rendre lumineux les carreaux en incorporant des pigments fluorescents. Voilà donc une conception qui cadre bien avec la volonté de l’Union Européenne de réduire la consommation énergétique de 20% d’ici 2020.

Le béton LiTraCon laisse passer la lumière

La société austro-hongroise LiTraCon, spécialisée dans la création de matériaux de construction, est quant à elle à l’origine d’un béton en quelque sorte translucide dans lequel ont été insérés des fibres optiques. Grâce à elles, la lumière peut traverser un mur LiTraCon – jusqu’à une épaisseur de 20 mètres selon les tests.

Il augure d’intéressantes perspectives, pour les constructeurs mais aussi pour les artistes qui désireraient s’accaparer de ce matériau. D’une part car les caractéristiques habituelles du béton sont conservées en termes de résistance et d’isolation. D’autre part, il permet de créer des jeux d’ombre et de lumière, de mettre en évidence des silhouettes et de rendre son intérieur plus vivant.

Seul défaut, un parpaing LiTraCon est fabriqué à la main. Ce qui entraîne des répercussions évidentes sur le coût d’achat, très onéreux.

Allwater, la maison isolée par l’eau

Loger de l’eau à l’intérieur des murs et des planchers pour en faire un isolant, personne n’y avait encore pensé. L’architecte hongrois Matyas Guntai a donc eu une idée plutôt originale en imaginant (et en construisant) une maison qui intègre dans toute sa structure des panneaux de verres et d’acier contenant de l’eau permettant de garder une température agréable tout au long de l’année.

D’après Matyas Guntai, son système s’adapte naturellement aux changements de saison. Ainsi, pendant les grandes chaleurs, l’énergie liée à la température est dirigée puis emprisonnée dans un réservoir d’eau sous la maison – laquelle est ensuite redistribuée en hiver dans les murs.

Toujours selon l’architecte, ce serait une solution économiquement rentable puisqu’elle pourrait faire baisser la facture d’énergie jusqu’à 20%. Il ne dit pas, en revanche, si la structure est capable de de résister aux séismes ainsi qu’aux impacts lourds.

Les briques en papier signées BetR-blok

BetR-blok est une start-up américaine qui a basé son activité sur la conception de briques à partir de ciment et de cellulose provenant de papier et de carton recyclés.  Les briques ne présenteraient aucun souci de solidité, et seraient même de très bons isolants thermique et acoustique, tout en présentant une résistance aux moisissures et au feu.

Mais l’argument de poids, c’est leur vertu écologique. Comme l’assurent les concepteurs du projet, « avec le papier gaspillé chaque année aux États-Unis, on pourrait construire un mur de 15 mètres de haut tout autour du pays ».

Btonlin, le béton à base de fibres de lin

Avec 75 000 hectares, la France est le premier producteur de lin dans le monde.  Une ressource locale à laquelle se sont intéressés le laboratoire de recherche de l’ESITC Caen et l’entreprise du bâtiment CMEG, qui en ont développé un béton, à partir de ses fibres : le Btonlin.

Les propriétés du lin confèrent au Btonlin résistance (aux fissurations notamment) et isolation thermique et promettent un impact environnemental moindre. Le matériau est conforme aux futures réglementations (Réflexion Bâtiment responsable 2020) ainsi qu’au label Bâtiment Biosourcé. Il devrait être commercialisé en 2016.

SECC, le béton centenaire

Mis au point par une équipe de chercheurs de l’Université du Wisconsin-Milwaukee dirigée par le professeur Konstantin Sobolev, le Superhydrophobic Engineered Cementitious Composite (SECC) est un béton bien plus résistant à l’eau et aux fissures qu’un béton traditionnel, avec une durée de vie qui pourrait atteindre les 120 ans.

Ployer mais ne pas rompre, tel est la devise du SECC. Un de ses atouts majeurs c’est en effet sa ductilité (la capacité d’un matériau à se déformer), qui serait jusqu’à 200 fois supérieure à un béton ordinaire. Une performance rendue possible grâce à des fibres d’alcool polyvinylique non tissées incorporées au béton.

Le SECC est aussi très résistant à l’eau, qui s’écoule par des micros-craquelures, au lieu de s’infiltrer dans les fissures où elle risquerait de stagner. Ce qui, lors de grands froids, éviterait de détériorer le béton. Le SECC serait ainsi capable d’encaisser une compression jusqu’à quatre fois plus importante que le béton armé.

De par ses propriétés très résistantes, le SECC pourrait trouver des applications dans l’édification de ponts, ou toute construction soumise à un niveau de dégradation plus forte.

par Sébastien Tribot

Internet des Objets : Alimenter des capteurs via des ondes radios

Faire fonctionner des appareils électroniques de l’Internet des Objets (IoT) grâce aux ondes radios : tel était le sujet de thèse de Hao Gao, étudiant-chercheur à l’Université Technique d’Eindoven (TU/e), aux Pays-Bas. Le doctorant a conçu un capteur de température (miniature) sans fil. Il est alimenté par un routeur sans fil, qui envoie, via ses antennes, des ondes radio.

haogaosensor
Capteur sans fil

Ces ondes sont converties en énergie, et accumulées jusqu’à permettre au capteur de fonctionner, de mesurer la température ambiante et de renvoyer un signal radio au routeur. Pas de batterie, ni de câble : le capteur peut être incorporé dans le béton ou dans la peinture d’un mur, et être utilisé par des installations domotiques.

Domotique et bâtiments intelligents

Si le système inventé par Hao Gao ne fonctionne encore que sur une courte portée (2,5 centimètres), son jeune inventeur pense qu’il pourrait être utilisé un jour pour alimenter des capteurs (surtout miniatures) de mouvement, de lumière ou d’humidité, ce qui constituerait un grand plus pour le développement de l’Internet des Objets (“Internet of things”, ou “IoT”).

De nombreuses applications seraient facilitées par une telle technologie sans fil, en domotique, mais aussi dans le domaine des “bâtiments intelligents”, ou du paiement sans fil. Cerise sur le gâteau, le coût de production en masse de ces capteurs se situerait aux alentours des 20 centimes d’euro”.

Par Fabien Soyez

Internet des objets : une sécurité négligée

Bref, demain, tous les domaines d’activité ou presque seront connectés : la santé, l’habitat, l’automobile, l’assurance… Cette évolution soulève de nombreuses questions concernant la croissance économique et les mutations sociales, mais aussi les libertés individuelles et la souveraineté nationale.

Mais la sécurité de ces milliards de connexions par lesquelles vont transiter d’énormes flux de données n’est pas encore prise en compte par de nombreux fabricants.

Une aubaine pour les pirates qui peuvent dès maintenant s’engouffrer dans de nombreuses failles non corrigées ou mal protégées. Généralement, ces vulnérabilités ne sont pas connues des industriels eux-mêmes, trop focalisés sur l’ergonomie et la facilité d’usage ! Rien de surprenant en réalité. La majorité des nouveaux objets connectés présents en entreprise et chez les particuliers sont développés par des constructeurs non spécialistes des problèmes de sécurité informatique.

Or, la facilité d’usage (le créneau est de limiter au maximum les manipulations) est incompatible avec une sécurité cohérente. Résultat, 90% des réseaux informatiques auront subi au moins une brèche liée à l’Internet des Objets si l’on en croit une étude d’IDC.

La situation pourrait devenir catastrophique pour des entreprises. « Si le système d’information de l’entreprise est attaqué, tous les objets connectés sont paralysés : portes, caméras, ordinateurs, imprimantes… En effet, l’indisponibilité des données et des services ainsi que la perte définitive des données sont les principales conséquences de ce manque de protection. Ceci engendre inévitablement un risque économique (perte d’exploitation liée à l’indisponibilité d’un site web marchand par un déni de service le rendant inaccessible). Au-delà de cela, un piratage nuit fortement à l’image de l’entreprise », explique Hervé Dhelin, directeur marketing d’EfficientIP, une société française fondée en 1997 par des Ingénieurs spécialisés dans les services réseaux.

Mais la voiture connectée représente l’exemple type de la sécurité bâclée. Les modèles récents présentent de nombreuses failles qui démontrent que les constructeurs mondiaux n’ont pas du tout intégré cette problématique.
Principalement utilisées par les garagistes pour établir un diagnostic complet et rapide de l’état du véhicule, les entrées diagnostic restent accessibles à n’importe qui. Or, elles peuvent parfois contenir des informations critiques pour l’utilisateur.

Comme pour les réseaux industriels, les voitures connectées intègrent des capteurs développés à une époque où l’on n’évoquait même pas la sécurité. C’est le cas du CANBus (Controller Area Network), Bus CAN en français. Ce bus série est utilisé majoritairement dans les systèmes automobiles depuis son apparition dans les années 80. Or, les constructeurs se servent du flux utilisé par le CANBus pour échanger des informations (l’allumage/extinction des phares, l’ouverture automatique des portes, le déclenchement des airbags..). Autant de données en accès libre…

Même un banal lecteur de CD peut être une faille pour pirater un véhicule. En 2011 des chercheurs des universités de Californie et de San Diego ont réussi à pénétrer le système électronique d’une voiture par son lecteur CD3. Ceux-ci ont injecté du code malicieux dans le fichier audio contenu sur le disque.

Enfin, la sécurité informatique concerne aussi la protection des données personnelles.
Là aussi, il y a de grosses lacunes. Une équipe de chercheurs français a en effet constaté que certains nouveaux objets connectés récupéraient des informations personnelles (sur la configuration d’une habitation par exemple), à l’insu de leurs propriétaires pour les envoyer vers des serveurs à l’étranger.
Dans quels buts ?

Par Philippe Richard

Des chercheurs créent un hologramme en couleurs… et rêvent d’une “TV holographique”

Le premier hologramme en couleurs : c’est ce que des chercheurs coréens, travaillant pour un consortium de 16 labos d’optique gérés par LG, affirment avoir conçu.

Oubliez donc le faux hologramme du chanteur Tupac, qui n’était en réalité qu’un “fantôme de Pepper” (une illusion d’optique qui remonte au XIXe siècle). Cette fois, les scientifiques coréens ont conçu, non pas une image en 2D projetée de façon à donner l’illusion de la 3D, mais d’une image véritablement en trois dimensions – que l’on peut ainsi regarder sous différents angles.

Diffraction et franges d’interférence

Dévoilé dans une vidéo de démonstration de l’Electronics and Telecommunications Research Institute, l’hologramme d’un Rubik’s Cube rappelle quelque peu le premier épisode de la saga Star Wars… Et suivant le procédé de l’holographie (qui remonte à une trentaine d’années, au moins), il a été conçu grâce à la diffraction.

Concrètement, l’objet d’origine (ici, un Rubik’s Cube) est éclairé par différents lasers. En combinant l’onde émise par la source (les lasers) et l’onde réfléchie par l’objet, les scientifiques obtiennent des “franges d’interférence” (des bandes sombres et brillantes, semblables à celles produites lors de l’expérience des fentes d’Young). Ces franges, enregistrées sur une surface sensible, puis éclairées à nouveau par un laser, forment alors une image en relief de l’objet d’origine.

Selon les scientifiques coréens, qui ont donné peu de détails sur leur invention, la couleur de l’hologramme est affichée grâce à la production d’interférences via des lasers de teintes différentes.

Bien que l’hologramme obtenu “tremble” et ne mesure que 7,6 centimètres, les chercheurs espèrent pouvoir améliorer leur système, jusqu’à multiplier sa taille par 3 ou 4, d’ici 2020. A ce moment là, le consortium de laboratoires de LG pourra alors fabriquer la première “télévision holographique”.

Par Fabien Soyez

Les plus gros piratages de 2015

Janvier : 20 000 sites français piratés

Des musées, des universités, des conseils généraux, des églises ou des PME… Après l’attentat contre Charlie Hebdo, de nombreux sites ont été victimes de pirates se réclamant du groupe État islamique. Dans la majorité des cas, ce piratage s’est limité à du « défacement » (modification de la page d’accueil notamment en remplaçant du texte par des revendications et/ou des images). Ce nombre élevé peut surprendre. En réalité, très peu de sites appliquent des règles élémentaires de sécurité.

etat-islamique-600300

Février : le « casse » du siècle

Selon l’éditeur russe d’antivirus Kaspersky, une centaine d’établissements bancaires d’une trentaine de pays auraient perdu entre 260 à 880 millions d’euros. Cette attaque massive aurait été organisée par des équipes russes et ukrainiennes.

banques660300

Avril : mauvais vol chez Ryanair

Environ 4,5 millions d’euros ont été dérobés d’un des comptes de la compagnie aérienne à bas coûts Ryanair. Selon la société irlandaise, des pirates informatiques se seraient emparés de la somme par « un transfert électronique frauduleux passé via une banque chinoise ».

ryanair-aircraft-660300

Juillet : des états civils plus privés

Des informations confidentielles sur la vie et l’état civil de près de 7% des Américains ont été volées dans les serveurs de l’Office of Personnel Management, une agence du gouvernement fédéral des États-Unis qui gère notamment les demandes d’emploi dans la fonction publique. 22, 5 millions de personnes sont concernées par ce vol de données personnelles. Ce n’est pas la première fois que des administrations américaines sont victimes d’intrusion.

office-of-personnel660300

Juillet : des hackers au volant

De plus en plus de véhicules seront connectés d’ici quelques années. Les constructeurs devront renforcer la sécurité de leurs modèles sous peine de sortie de route ! Dans le Missouri, deux hackers ont en effet démontré qu’il était possible de prendre le contrôle à distance d’une Jeep Cherokee commercialisée par le groupe Fiat Chrysler. Situés à une quinzaine de kilomètres du véhicule, Charlie Miller et Chris Valasek (deux experts en sécurité, le premier étant connu notamment pour avoir révélé plusieurs failles dans l’iOS d’Apple) ont coupé le moteur pendant que la voiture roulait sur une autoroute. Ils ont également pris le contrôle des freins et du volant.

Jeep_Cherokee660300

Août : des rencontres adultères… publiques

33 millions de comptes utilisateurs (dont des Français avec des adresses du ministère de l’Intérieur, de la Culture ou de plusieurs mairies) d’Ashley Madison ont été récupérés par un pirate. La base de données de cet important site de rencontres adultères comprend des informations très sensibles, comme les préférences sexuelles ou le numéro de téléphone. Pire, aux États-Unis, plus de 15 000 adresses email utilisées pour la création du compte provenaient de l’administration américaine ou de l’armée. De quoi lancer des opérations d’usurpation d’identité ou du chantage. Des sanctions disciplinaires et des peines de prison sont annoncées. Les conséquences sont parfois dramatiques. La police canadienne enquête sur deux suicides potentiellement liés au piratage de ce site géré par Avid Life Media, une société canadienne de Toronto.

Ashley-Madison660300

Novembre : jouets en panne

Le fabricant de jouets Vtech a été victime du piratage d’une de ses bases de données. Des clients français, canadiens, ainsi que des ressortissants d’autres pays étaient enregistrés dans ce fichier d’environ 6 millions de données. Un internaute britannique de 21 ans a été arrêté le 17 décembre. Il ne serait pas le seul pirate à avoir pénétré ce serveur…

vtech-hack660300

Par Philippe Richard

Des incertitudes sur la toxicité des fragments de clivage

Si les effets des fibres d’amiante sur la santé sont bien documentés, il existe des incertitudes sur la toxicité des fragments de clivage. De plus, les méthodes analytiques actuelles ne permettent pas de distinguer de façon simple les fragments de clivage des fibres d’amiante. L’Anses a été saisie par les ministères en charge de la santé, du travail et de l’environnement pour documenter les expositions des professionnels aux fragments de clivage, les effets sanitaires en résultant, et les méthodes ou critères permettant d’affiner les analyses de matériaux et d’air. Dans l’avis et le rapport publiés ce jour, elle conclut qu’en l’état actuel des connaissances, les fragments de clivage des minéraux homologues des amiantes réglementés ayant les dimensions d’une fibre ainsi que certaines espèces minérales actuellement non réglementées peuvent conduire à des effets sanitaires similaires à ceux de l’amiante. L’Agence recommande dans ce contexte la prise en compte de ces effets potentiels dans le cadre réglementaire en vigueur.

Dans la réglementation européenne, le terme amiante fait référence à 6 minéraux présents naturellement dans plusieurs types de roches : d’une part une serpentine, le chrysotile, et d’autre part, cinq amphiboles, l’actinolite-amiante, l’anthophyllite-amiante, la trémolite-amiante, l’amosite et le crocidolite.

Le point sur les fibres d’amiante et les fragments de clivage

Dans l’environnement naturel, l’actinolite, mais également les autres amphiboles, peuvent se présenter sous différentes morphologies, dites asbestiformes ou non asbestiformes. Les minéraux non asbestiformes et leurs homologues asbestiformes (i.e. actinolite et actinolite-amiante) ont la même composition chimique mais se différencient par leur mode de croissance dans les roches. Actuellement, seules les morphologies asbestiformes des 5 amphiboles précitées et le chrysotile font l’objet d’une réglementation.

Lorsqu’une contrainte mécanique est appliquée sur les minéraux non asbestiformes, comme lors du broyage des roches extraites des carrières pour la fabrication de granulats par exemple, ceux-ci peuvent se cliver et libérer des particules plus ou moins allongées appelées « fragments de clivage ». Ces particules peuvent parfois être comptabilisées comme des fibres d’amiante, du fait notamment de leurs caractéristiques dimensionnelles.

Le travail de l’Anses

Suite à l‘identification de fibres d’actinolite-amiante et de fragments de clivage d’actinolite dans les granulats (roches) d’enrobés routiers, l’Anses a été saisie par les ministères en charge de la santé, du travail et de l’environnement pour réaliser une expertise sur les expositions professionnelles aux fragments de clivage, leurs effets sanitaires potentiels et les méthodes d’analyse dans l’air et les matériaux. Les fragments de clivage d’intérêt sont ceux susceptibles d’être comptabilisés comme fibres d’amiante lors des analyses d’air, c’est-à-dire les fragments de clivage de minéraux homologues des amiantes réglementés, à savoir d’actinolite, d’anthophyllite, de trémolite, de grunérite et de riébeckite ayant les dimensions d’une fibre définies par l’Organisation Mondiale de la Santé (longueur supérieure à 5 µm, diamètre inférieur à 3 µm, rapport d’allongement supérieur à 3) et donc susceptibles d’être inhalés. Par ailleurs, les données relatives aux amphiboles pour lesquelles des données préoccupantes sur la santé existent et ayant une composition chimique très proche de celle de certaines des 5 amphiboles précitées ont également été étudiées.

D’une façon générale, l’Anses souligne la difficulté à identifier des données sanitaires spécifiques aux fragments de clivage, du fait de co-expositions à des fibres asbestiformes ou à d’autres facteurs de risques respiratoires, mais aussi de l’absence de données renseignant les dimensions ou la morphologie des particules minérales étudiées. De plus, les études disponibles ne discutent pas des paramètres autres que les critères dimensionnels et pouvant avoir une influence sur la toxicité de ces particules, comme la biopersistance, les contaminants, la réactivité de surface, etc.

Au vu des données analysées, l’Anses conclut qu’il n’est pas possible d’exclure un risque pour la santé lié à l’exposition aux fragments de clivage d’actinolite, d’anthophyllite, de trémolite, de grunérite et de riébeckite. Par ailleurs, certaines données indiquent des risques pour la santé similaires à ceux induits par l’amiante pour des espèces chimiques ne faisant actuellement pas l’objet de réglementation : la winchite, la richtérite, la fluoro-édénite et l’érionite.

Enfin, il n’a pas été possible d’identifier de données d’exposition spécifiques aux fragments de clivage, en raison notamment de co-expositions avec des fibres d’amiante, et des difficultés analytiques pour les distinguer formellement des fibres d’amiante.

Les recommandations de l’Anses

Au vu de ses conclusions, l’Anses recommande une évolution du cadre réglementaire en vigueur afin de prendre en compte les effets sanitaires associés aux fragments de clivage d’actinolite, d’anthophyllite, de trémolite, de grunérite et de riébeckite, dès lors qu’ils ont les dimensions d’une fibre telles que définies par l’OMS.

Par ailleurs, compte tenu des effets sanitaires similaires à ceux de l’amiante mis en évidence pour la winchite, la richtérite, la fluoro-édénite et l’érionite, l’Anses recommande également que la réglementation en vigueur soit étendue à ces quatre espèces minérales.

Au delà, l’Anses liste des recommandations quant à la conduite des travaux susceptibles d’engendrer une exposition à ces particules minérales dans le secteur des carrières et chantiers routiers. D’autres domaines, comme le secteur du bâtiment et des travaux publics en environnement naturel ou mettant en œuvre des matériaux manufacturés à partir de matériaux naturels, peuvent également être concernés par cette problématique. Avant de démarrer ce type de travaux, il apparaît nécessaire que soient réalisées des cartographies des sites pour repérer la présence de particules.

Enfin, en matière de métrologie, l’Anses propose des recommandations visant à améliorer le prélèvement et l’analyse des particules minérales dans les matériaux naturels, et à homogénéiser les résultats des laboratoires.

Source : anses

L’espace, nouvel el dorado commercial ?

En novembre 2014, après plus de 10 ans de voyage, l’agence spatiale européenne réalisait une grande première dans l’aventure spatiale : la sonde Rosetta se plaçait en orbite de la comète 67P/Tchourioumov-Guerassimenko et envoyait à sa surface l’atterrisseur Philae. Dans quelques années, les américains espèrent de leur côté faire atterrir des « bulldozers » sur des astéroïdes pour extraire leurs ressources.

Les Etats-Unis viennent d »adopter « The US Commercial Space Launch Competitiveness Act » ou « Space Act ». Cette loi prévoit que « toutes les ressources d’astéroïdes obtenues dans l’espace sont la propriété de l’entité qui les a obtenus », c’est-à-dire de tout américain ou entreprise américaine. Cette nouvelle loi autorise la prospection de l’eau et des métaux des astéroïdes, leur extraction et leur vente aux Etats-Unis. C’est le début d’une nouvelle ère de la conquête spatiale.

Si une entreprise américaine peut s’accaparer les ressources d’un astéroïde, elle ne pourra néanmoins pas se déclarer propriétaire du corps céleste, en accord avec le traité international de 1967 qui régit l’exploration spatiale. Ce traité stipule en effet que les États ne peuvent pas se déclarer propriétaire d’une parcelle spatiale. Il faut dire qu’à l’époque, on ne pensait pas encore à l’exploitation commerciale de l’espace !

Des ressources à gogo

Pionnières dans le secteur, Deep Space Industries (DSI) et Planetary Resources, des entreprises de transport ou de forage spatial, lancent la course pour conquérir ces nouvelles mines. Extraction de platine, de nickel, d’or, de fer ou encore de glace… les richesses enfermées dans les astéroïdes sont considérables. Ces ressources ne seront pas toutes ramenées sur Terre, elles permettront également d’approvisionner la Station spatiale internationale (ISS) et les futures missions d’exploration ou de colonisation de l’espace en eau et carburant. Cette exploitation permettrait de réapprovisionner les engins spatiaux en eau potable, mais aussi en carburant via la production d’hydrogène par hydrolyse de l’eau. La première « station-service » de l’espace pourrait ainsi naître pour ravitailler les navettes parties à la conquête de l’espace.

Cette loi permet de consolider le modèle économique de ces sociétés et d’attirer les investisseurs grâce à un cadre légal clair. « Cette économie hors de la planète va améliorer à jamais nos vies ici sur Terre. Nous célébrons cette loi car elle crée un environnement favorable à la croissance de notre industrie naissante, en encourageant l’investissement du secteur privé et en assurant un environnement réglementaire de plus en plus stable et prévisible », se félicite Chris Chris Lewicki, Président et ingénieur en chef de Planetary Resources.

Une industrie très rentable

Les premières missions de prospection devraient intervenir à compter de 2017 et s’étaler jusqu’en 2019, selon les différents acteurs interrogés par l’AFP. Elles viseront à confirmer les données disponibles sur des astéroïdes facilement accessibles. Selon la Nasa, environ 10 % des 1 500 astéroïdes facilement accessibles seraient dotés de ressources minières importantes. Si le début de l’extraction ne devrait pas commencer avant 2020, Chris Lewicki prévoit la création d’une économie du ravitaillement en carburant dans l’espace dans les dix prochaines années.

Ce marché serait juteux. Il devrait atteindre les 3 000 milliards de dollars dans les dix à quinze prochaines années, selon DSI et Planetary Resources. Et pour cause : un seul astéroïde pourrait contenir plus de platine que tout ce qu’on a extrait du sous-sol de la Terre à ce jour. Les ressources d’un seul astéroïde riche en minerais peuvent s’évaluer à plusieurs milliers de milliards de dollars.

Selon ses défenseurs, cette nouvelle industrie pourrait être la clé de la conquête spatiale. Car l’exploitation de ces ressources pourrait permettre d’installer les premères colonies lunaires, martiennes ou ailleurs. Elle permettrait aussi de construire les navettes en orbite pour éviter les lancements, fortement émetteurs de gaz à effet de serre.

Quelles sont les critiques ?

Cette loi accorde un droit de propriété opposable uniquement aux États-Unis. Mais rapidement, d’autres pays devraient voter des lois similaires pour leurs entreprises afin de ne pas laisser les Etats-Unis s’approprier l’espace . Mais dans cette nouvelle conquête spatiale, les pays pauvres seront encore les grands perdants.

L’extraction des minerais dans l’espace pourra là encore nuire à l’environnement autour de la Terre et, éventuellement, conduire à des conflits sur les ressources. Que se passera-t-il lorsque deux sociétés de nationalités différentes défendront leur droit de propriété sur les ressources d’un même astéroïde selon leurs lois nationales ? La règle du premier arrivé, premier servi, sera-t-elle la règle, comme dans la ruée vers l’or ?

Les mêmes problèmes que sur Terre semblent pointer le bout de leur nez dans l’aventure spatiale. « L’idée que les entreprises américaines peuvent, sur la base de leurs seules lois nationales, exploiter systématiquement les ressources minérales dans l’espace , en dépit des risques environnementaux énormes montre réellement l’audace de la cupidité », s’insurge Gbenga Oduntan, Maître de conférences en droit du commerce international à l’Université de Kent. Dans la course infinie à la croissance, l’espace semble bien être le nouveau terrain de jeu des « grandes » nations.

Par Matthieu Combe, journaliste scientifique

Elections en Espagne : quelle politique énergétique ?

Victoire en trompe l’œil

Pour la première fois depuis les élections libres, aucun des deux grands partis politiques ne s’est imposé. Les conservateurs (PP) arrivent en tête du scrutin avec 123 sièges, soit 28,7% des voix, en nette baisse par rapport à 2011 (le PP avait réuni 44,6%). Les socialistes obtiennent 22% des voix et 90 sièges au Congrès. Des résultats très décevants pour les deux partis. Et pour cause, ils ont vu éclore deux nouvelles forces politiques devenues incontournables. Le PSOE est concurrencé sur sa gauche par Podemos, un parti né il y a 3 ans du mouvement des Indignés. Décidé à mettre fin aux politiques d’austérité menées dans le pays depuis la double crise immobilière et économique, Podemos a su convaincre nombre d’Espagnols qui se sentent sacrifiés sur l’autel des coupes budgétaires. Le Parti d’extrême-gauche a presque fait jeu égal avec le PSOE, mais a obtenu moins de députés (69) en raison des particularités du système électoral. Enfin, Ciudadano’s (centre-droit) déçoit quelque peu les attentes avec 40 sièges. Dans cette configuration très particulière, aucun parti, même allié à sa formation politique la plus proche (PP/C’s ou PSOE/Podemos), n’obtient la majorité absolue de 175 députés. Les sièges restants (28) sont attribués à des formations régionales telles que ERC-CATSI (Catalan) ou encore Coalition des Canaries. La future majorité sera composée d’ici le 13 janvier prochain, date de formation de la nouvelle assemblée. Le chef de gouvernement devra pour cela composer avec différentes tendances pour construire une majorité parlementaire solide. Ainsi, pour la première fois outre-Pyrénées, le parti qui n’a pas terminé en tête du vote (le PSOE) pourrait néanmoins diriger le pays à la faveur de combinaisons politiques. Si aucune majorité n’est trouvée, la Constitution prévoit qu’un nouveau scrutin devra être organisé.

Fin du bipartisme

Cette élection a un caractère historique. Aucun des deux grands partis (le PP et le PSOE) ne s’est clairement imposé et la montée en puissance de Podemos, et dans une moindre mesure Ciudadano’s, a mis à bat le bipartisme qui était la règle depuis la chute du Franquisme et l’avènement de la démocratie en 1975. Si les jeunes élus de Podemos et C’s participent à renouveler une classe politique espagnole vieillissante, ils modifient également de nombreux rapports de force. Désormais dominée au niveau national par quatre partis, la vie politique va se complexifier avec des coalitions de circonstances. C’est notamment le cas sur la politique énergétique. Si tous les partis appellent à « un Pacte d’Etat sur l’énergie », une obscure expression reprise tous les quatre ans lors des élections, ils divergent en revanche sur de nombreux aspects. De fait, la fin du bipartisme en Espagne a considérablement complexifié l’équation énergétique du pays.

L’atome en question

Jusqu’alors, l’opposition droite/gauche avait un sens dans le secteur énergétique espagnol. Les conservateurs prônaient une plus grande libéralisation des marchés de l’énergie (électricité, gaz, carburants), un développement des énergies renouvelables sans soutien public ou presque, et la poursuite de l’énergie nucléaire. Les réformateurs outre-Pyrénées critiquaient la libéralisation excessive des marchés de l’énergie (mais l’acceptent dans le cadre européen), souhaitaient la fin progressive du nucléaire et considèrent qu’il faut soutenir les énergies renouvelables pour qu’elle deviennent la principale source d’énergie à un horizon plus ou moins lointain. Ceci était le schisme idéologique de l’échiquier politique espagnol, que l’on peut d’ailleurs retrouver dans d’autres pays européens.

Cette opposition a quelque peu volé en éclat avec l’avènement de Podemos et de Ciudadano’s en particulier. Ainsi, la formation de centre-droit appelle, à l’instar du PSOE et Podemos, à la fermeture des centrales nucléaire en fin de vie utile (40 ans). Une position qui isole le PP, désormais le seul parti politique espagnol significatif à prôner la poursuite de l’atome. Il s’agit d’un sujet qui revient régulièrement sur la table, en raison de l’Almacén Temporal Centralizado, un site de stockage des déchets nucléaires situé à Villar de Cañas (Cuenca) dont la construction est régulièrement retardée à cause de l’opposition des communautés locales. Le Royaume dispose d’un parc de huit centrales nucléaires (cinq en fonctionnement cumulant sept réacteurs) dont les licences d’exploitation expirent prochainement (trois en 2020, trois l’année suivante et une en 2024). Il reviendra donc au prochain gouvernement et au suivant de statuer sur le futur de ces installations, et notamment sur le cas de Santa María de Garoña, la doyenne des centrales, actuellement à l’arrêt pour « raisons administratives ». Le rapport de force politique semble désormais pencher vers l’abandon progressif de l’atome. Pour autant, le lobby nucléaire garde des relais importants à Madrid et rappelle à l’envi qu’avec seulement 7,3% des capacités installées, il a produit un peu plus de 20% de l’électricité consommée dans le pays en 2014.

Brouillard

Le nucléaire n’est pas la seule énergie à l’avenir incertain. Les acteurs des énergies renouvelables ne savent plus à quel saint se vouer. L’Espagne a été, avec l’Allemagne, un leader européen des énergies vertes, solaire et éolien en tête. Le Royaume a ainsi installé plus de 3 300 Mégawatts-crête (MWc) de panneaux photovoltaïques en 2007 et 2008. Ce développement massif de l’énergie solaire a été permis par l’introduction d’un mécanisme de tarif d’achat similaire à celui de l’Hexagone. Las ! L’explosion des demandes de raccordement a considérablement alourdi le coût de cette mesure dédiée aux énergies renouvelables creusant un peu plus le fameux « déficit tarifaire » (différence entre les coûts et les revenus du secteur électrique). Arrivé au pouvoir en 2011, Mariano Rajoy a opéré des coupures drastiques dans les subventions, permettant de rééquilibrer le système, mais au prix d’une casse sociale estimée à plus de 45 000 emplois selon l’Unef, une association professionnelle du secteur.

Cette problématique s’est invitée au cœur de la campagne électorale avec l’annonce en novembre de la cessation de paiement d’Abengoa, l’un des fleurons espagnols de l’industrie solaire. Si la procédure de conciliation en cours avec ses créanciers n’aboutit pas, ce serait la plus grande faillite de l’histoire du pays. Le ministre de l’Economie a laissé entendre qu’un nouveau partenaire entrerait dans le capital pour rassurer les banques qui ont mis le groupe sous tutelle. Pour autant, la compagnie est devenue le symbole d’une filière fragilisée par le retrait du soutien public, mettant dans l’embarras le gouvernement conservateur sortant. Celui-ci devrait être amené à d’importants sacrifices s’il veut conserver le pouvoir. La politique énergétique pourrait bien être l’un d’eux.

Par Romain Chicheportiche

Innovation en 2015 : où en sont les entreprises françaises ?

Notre analyse concernant le secteur automobile, est celle-ci : afin de développer leurs ventes et sortir de la crise qui les a mis en difficulté, les constructeurs n’ont eu d’autres choix que d’innover, justement, en intégrant toujours plus d’électronique dans les habitacles. Cependant, Renault est en 48e position dans ce classement alors qu’il figure dans les dix premiers groupes automobiles mondiaux. PSA, qui figure dans une autre étude en tête des entreprises françaises ayant déposé le plus de brevets, en est absent. Les points importants à noter dans cette étude sont les critères qui définissent une entreprise innovante. Ils ne sont pas seulement basés sur le nombre de brevets comme tant d’autres études. Cette étude s’appuie sur les votes des 1 500 cadres dirigeants interrogés à travers le monde. Ils s’expriment sur la capacité des entreprises à investir dans la recherche, mais également dans le dynamisme général de l’entreprise et notamment commercial, mais aussi sur la capacité à assurer une rentabilité élevée. La politique sociale n’est (malheureusement) pas un des critères retenus dans cette étude.

12 groupes hexagonaux sont présents dans le classement des 100 organisations les plus innovantes au monde . Cette étude est plus centrée sur le critère des brevets déposés (3M est en pole position mondiale). La France occuperait ainsi le troisième rang mondial, derrière les États-Unis et le Japon selon cette étude qui est essentiellement axée sur le nombre de brevets déposés, mais aussi le nombre de ceux finalement acceptés, leur portée internationale et leur notoriété. En revanche, cette étude ne prend pas en compte d’autres aspects, tels que l’image et la rentabilité des entreprises par exemple ni le climat social. Neuf entreprises sont concernées : Alcatel-Lucent, Arkema, EADS, L’Oréal, Michelin, Saint-Gobain, Thales, Safran et Valeo, le constructeur automobile Renault, présent en 2012, sort du classement et trois organismes français : CEA, le CNRS et IFP Énergies Nouvelles, ont été retenus. La raison principale de ce bon classement des grandes entreprises françaises repose essentiellement sur l’utilisation du crédit d’impôt recherche qui soutient activement la recherche fondamentale, avec cependant les réserves formulées précédemment par les rapports du Sénat et de l’OCDE. Ces deux études démontrent et confirment que des grands groupes utilisent les financements de l’État avec un effet d’aubaine souligné dans plusieurs enquêtes. Elles ont les moyens humains et techniques pour déposer des brevets et, pour certaines, d’assurer le développement de l’innovation, alors que la plupart des PME ne le peuvent pas. Les moyens humains, techniques et financiers des PME sont généralement insuffisants pour se lancer dans la R & D avec les investissements nécessaires et pour se reconnaître dans les méandres de l’administration fiscale nationale, celles des ministères concernés et celles des régions.

Roland ROBEVEILLE © GERESO Édition 2015

Manager l’innovation autrement
Comment relancer l’innovation dans les entreprises françaises

Date de parution : 24 septembre 2015

Les boules solaires Rawlemon commercialisées !

L’architecte allemand André Broessel a eu l’idée d’utiliser un phénomène optique simple pour multiplier l’énergie produite par les panneaux photovoltaïques. Le dispositif comprend une sphère constituée d’un polymère acrylique à 99 % de transparence et remplie d’eau qui concentre les rayons du soleil incidents en son point focal. Grâce à cet « effet loupe », les rayons du Soleil ou de la Lune, sont concentrés plus de 10 000 fois, ce qui permet au dispositif de fonctionner de jour, comme de nuit.

rawlemon_0_0

La lumière ainsi concentrée est dirigée vers des panneaux photovoltaïques à haut rendement situés sous la sphère. Ces cellules photovoltaïques multijonctions sont généralement utilisées pour les applications spatiales : elles se composent de plusieurs couches qui ont la particularité de convertir différentes longueurs d’onde du spectre solaire en énergie. La Rawlemon est aussi monté sur une structure motorisée capable de suivre la course du Soleil ou de la Lune.

Basic RGB

rawlemon-produits1024

Résultat : à puissance équivalente, la Rawlemon divise par dix la surface totale de panneaux nécessaires, estiment les concepteurs. Lorsque le ciel est couvert, la Rawlemon produirait, là encore, quatre fois plus d’énergie qu’une installation photovoltaïque classique. « La géométrie parfaite de la sphère, combinée avec notre système breveé de tracking à double axe, fournit naturellement l’angle optimal pour concentrer la lumière sur nos collecteurs toute la journée, suivant le soleil », expliquent les concepteurs dans leur plaquette commerciale.

 

Une large gamme commerciale

Après avoir levé 231 000 dollars (environ 210 000 euros) en 2014 sur la plateforme de financement Indiegogo, Rawlemon dispose d’une large gamme commerciale. Des modèles de bureau dotés d’une ou deux prises USB 2.0 sont vendus en ligne à 149 euros et 249 euros. Avec une sphère d’un diamètre de 10 ou 20 cm, ils peuvent respectivement délivrer jusqu’à 9 Wh et 30 Wh par jour pour recharger vos appareils électroniques : smartphones, ordinateurs portables, tablettes, etc.

Deux modèles sont prévus pour l’extérieur, avec une sphère de 1 m ou 1,8 m ; ils sont proposés au tarif de 6 000 et 8 999 euros. Ils présentent des collecteurs hybrides pour convertir la lumière incidente en électricité ou en énergie thermique. Ils peuvent ainsi servir de stations de charge pour les vélos, motos ou voitures électriques, alimenter des générateurs ou fournir de l’électricité et du chauffage à des bâtiments. La nuit, ces boules peuvent se convertir en lampadaires LED pour participer à l’éclairage public. Grâce à sa puissance électrique de 560 W, sa puissance thermique de 890 W et son rendement de 57% en mode hybride, le modèle le plus imposant, le KS 1800 peut fournir jusqu’à 3,4 kWh par jour. Il est doté d’une batterie de 0,5 kWh,  pèse 3,35 tonnes, dont 3,05 tonnes d’eau et résiste à des vents de 120 m/s.

c6ae8fdcf2_rawlemon1

Le concept se décline aussi sous forme de vitrage produisant uniquement de l’énergie thermique. Une « fenêtre » composée de 12 sphères de 50 millimètres de diamètre peut fournir jusqu’à 150 W par m². Ce « radiateur solaire » vous coûtera tout de même 8 499 euros.

Par Matthieu Combe, journaliste scientifique

Les ravines de la planète Mars formées par la glace carbonique, et non de l’eau liquide

Depuis 2000, les caméras embarquées sur les satellites en orbite autour de la planète Mars nous ont envoyé de multiples images montrant la présence de chenaux et de cônes de débris, semblables à ceux créés sur Terre par l’action de l’eau liquide sur les pentes d’éboulis, avec parfois un parcours sinueux. La formation de ces ravines semblait récente, âgées de quelques millions d’années à seulement quelques années. Elles relançaient l’idée que des quantités non négligeables d’eau liquide potentiellement propice à une forme de vie pouvaient se former sur la planète Mars aujourd’hui.

Le rôle de l’eau liquide dans la genèse des ravines a récemment été remis en question par des clichés de la sonde Mars Reconnaissance Orbiter de la NASA. Ils ont révélé la formation de nouveaux chenaux, à des saisons où les températures sont beaucoup trop basses pour imaginer que de l’eau, même salée, puisse contribuer à un écoulement liquide. Par contre, le creusement des nouveaux chenaux semblait se dérouler lorsque que de la glace carbonique (formée par la condensation de l’atmosphère de CO2 sur la surface pendant l’hiver martien) était présente. Peut-on lier les deux phénomènes ? Si oui, comment expliquer qu’une fine couche de glace carbonique de quelques dizaines de centimètres d’épaisseur puisse créer des coulées de dix à vingt mètres de largeur, bordées par des amoncellements d’éboulis atteignant un mètre de haut ?

Pour mieux comprendre les processus physiques liés à la condensation et la sublimation du CO2, Cédric Pilorget, chercheur à l’Institut d’Astrophysique Spatiale (CNRS/Université Paris-Sud) et François Forget, chercheur CNRS au Laboratoire de météorologie dynamique (UPMC/ENS Paris/CNRS/Ecole polytechnique), ont créé un simulateur numérique de l’environnement sur différentes pentes de la planète Mars. Du sous-sol à l’atmosphère, ce modèle prend en compte les échanges thermiques par rayonnement, par conduction, ou induit par les changements de phase du CO2. Ceci permet de simuler l’évolution du CO2 sous toutes ses phases au cours d’une année martienne, notamment sur la surface et dans les pores et les interstices du sous-sol.
A quelques centimètres sous les pentes martiennes sur lesquelles le CO2 se condense, on trouve toujours un « pergélisol » formé de grains cimentés par de la glace d’eau. Ainsi lorsque la glace de CO2 se condense sur le sol en hiver, l’air présent dans les pores et interstices du sous-sol immédiat se retrouve confiné, pris en sandwich entre le pergélisol étanche et la couche de glace de CO2 à la surface.

Dans ces conditions, les simulations numériques de Cédric Pilorget et François Forget ont révélé des phénomènes étonnants. A la fin de l’hiver et au printemps, les rayons du Soleil passent au travers de la couche de glace de CO2 translucide et la chauffe par la base. La glace de CO2 ne fond pas, mais se « sublime », en passant directement en phase gazeuse. Le gaz produit se diffuse dans le proche sous-sol poreux. Une partie peut s’y recondenser tandis que le reste du gaz s’accumule dans l’espace poreux restant, augmentant considérablement la pression dans le proche sous-sol, jusqu’à plusieurs fois la pression atmosphérique. Cette surpression finit par fracturer la glace de surface, ce qui génère une violente décompression. Les pores du sous-sol sont alors traversés de puissants flux d’air liés à l’évacuation du surplus de gaz et à la sublimation rapide de la glace de CO2 du sous-sol. En quelques minutes, voire quelques secondes, plusieurs mètres cubes de gaz (voire même plusieurs dizaines de mètres cubes au niveau des fractures) diffusent verticalement vers la surface. De tels flux sont capables de déstabiliser les grains situés sur les pentes et ainsi de provoquer des éboulements et des coulées. Surtout, la pression du gaz peut entraîner une véritable fluidification de l’avalanche, et lui donner les propriétés d’un écoulement liquide.

Un tel phénomène est sans équivalent sur Terre. On peut cependant le rapprocher de certaines coulées pyroclastiques générées pendant les éruptions volcaniques lorsque des avalanches de blocs et de débris sont déclenchées et fluidifiées par les gaz de l’éruption. On a observé que sur des pentes parfois très faibles ces écoulements pouvaient parcourir plusieurs kilomètres en transportant des blocs de plus d’un mètre de diamètre, et en formant des « levées » latérales de tailles analogues à celles des ravines martiennes. Les chercheurs estiment que les ravines martiennes ne se forment que lorsque les conditions sont réunies pour déclencher l’instabilité, de même que sur Terre chaque pluie ne déclenche pas un éboulement de débris.

Le modèle des deux chercheurs français explique également pourquoi les ravines martiennes sont observées entre 30° et 60° de latitude, sur quelques pentes jusqu’aux pôles, et qu’en deçà de 45° les ravines ne se trouvent quasiment que sur les pentes orientées vers les pôles : le phénomène de surpression et de fluidification a précisément lieu là où les ravines sont observées.

Tout indique donc que l’exposition au soleil de la glace de CO2 déposée en hiver par la condensation de l’atmosphère sur les reliefs martiens est à l’origine d’une partie des ravines de la planète Mars -et peut-être de toutes- via un phénomène sans équivalent sur notre planète. L’eau liquide ne serait pas impliquée dans la formation des ravines. Ces travaux remettent donc en question l’idée que ces régions aient pu être propice à la vie dans un passé récent.

Source : cnrs

Des LED flexibles à nanofils : une nouvelle avancée pour les écrans pliables

L’attribution du prix Nobel de physique 2014 aux inventeurs de la LED bleue le confirme : la recherche sur les diodes électroluminescentes, DEL ou LED en anglais, connaît une forte expansion. Les LED sont composées d’un matériau semi-conducteur hétérogène, une partie étant enrichie en électrons et l’autre en étant appauvrie. Le passage d’un courant électrique dans ce matériau hétérogène provoque l’émission d’un photon, et donc de lumière.

Le choix du matériau semi-conducteur influence les caractéristiques lumineuses et physiques des LED. Il est ainsi possible d’obtenir des LED flexibles grâce à des polymères organiques pour constituer, par exemple, un écran pliable. Ces matériaux souffrent cependant d’une mauvaise brillance des bleus et d’une usure précoce. Pour pallier ces problèmes, les chercheurs ont donc combiné la haute brillance et la grande durée de vie de LED à base de nitrures, avec la flexibilité des polymères.

Ils ont pour cela utilisé des nanofils de nitrures englobés dans une couche de polymère, puis les ont détachés de leur substrat pour réaliser une membrane flexible. Ces émetteurs mesurent plusieurs centaines de nanomètres de diamètre pour 20 micromètres4 de hauteur et l’ensemble paraît totalement homogène à notre échelle.

Les chercheurs ont ainsi fabriqué la première LED verte flexible à nanofils au monde, ainsi qu’une variante bleue. L’équipe a également combiné deux couches de nanofils de ces couleurs, afin d’obtenir une LED capable d’éclairer à la fois en vert et en bleu. Cette étape est importante car, une fois que le rouge sera ajouté, il sera possible d’émettre une lumière blanche et d’afficher des vidéos5.

Cette avancée ouvre la porte à des écrans, montres ou ampoules à LED déformables. D’autres couleurs peuvent être obtenues si les nitrures sont remplacés par des arséniures ou des phosphures, ainsi qu’en jouant sur la taille des nanofils. À plus long terme, les chercheurs espèrent utiliser des matériaux absorbants afin de transformer ces LED en photodétecteurs ou en cellules solaires flexibles.

L’intelligence artificielle inamicale : réalité ou fantasme ?

“Terminator”, “2001, l’odyssée de l’espace”, “I, Robot” sont autant de films de science-fiction montrant comment l’intelligence artificielle deviendra un jour consciente d’elle-même, jusqu’à nous supplanter et menacer notre intégrité physique. Pourtant, dans la réalité, nous sommes loin, très loin de ce type de scénario.

Jean-Gabriel Ganascia, expert en intelligence artificielle et philosophe, chercheur au LIP6, le Laboratoire d’informatique de Paris 6, raconte l’histoire de l’I.A. : “ce terme est né en 1955, aux États-Unis. Il s’agissait d’étudier l’intelligence avec les machines, en simulant ses différents aspects”. Mais rapidement, déplore-t-il, “ce terme est devenu ambivalent, avec d’un côté le projet scientifique d’étude de l’intelligence avec des moyens artificiels (l’l.A. faible), et de l’autre, l’idée (entretenue par des chercheurs passionnés de science-fiction) de créer une intelligence avec les moyens de l’artificiel (l’I.A. forte)”.

Pour l’expert, l’idée qu’une machine “va tout à coup raisonner comme un homme et qu’un jour une  intelligence artificielle générale aura conscience d’elle-même” n’est qu’un “pur fantasme”, qui n’existe pas sur le plan scientifique. Ainsi, il n’existerait, indique Jean-Gabriel Ganascia, qu’une seule intelligence artificielle : l’I.A. faible. Autrement dit, la simulation de l’intelligence et des capacités cognitives de l’être humain, via des techniques informatiques (algorithmes, programmation).

“C’est cette I.A. que l’on retrouve dans les systèmes de recommandation, dans les voitures intelligentes, dans les drones militaires, dans les systèmes de reconnaissance d’empreintes, ou dans la traduction automatique”, explique le chercheur.

“L’I.A. est plus dangereuse que les armes nucléaires”

Pourtant, si l’on en croit des scientifiques réputés, en majorité anglo-saxons, l’I.A. forte, c’est pour demain. Elon Musk, président-fondateur de Tesla Motors et de SpaceX, estime ainsi qu’il faut rester “très prudent” à propos de l’intelligence artificielle. “Si je devais miser sur ce qui constitue notre plus grande menace existentielle, ce serait probablement ça”, a-t-il lancé en 2014 lors de l’AeroAstro Centennial Symposium du MIT. Pour lui, “L’I.A. est plus dangereuse que les armes nucléaires”.

De son côté, Stephen Hawking, physicien théoricien de renommée mondiale, joue au prophète : “le développement d’une pleine I.A. pourrait signifier la fin de la race humaine. Si elle finissait par devenir autonome, ce qui est probable, les humains, limités par leur lente évolution biologique, ne pourraient pas rivaliser”.

Avec Elon Musk et 700 autres scientifiques, Stephen Hawking a publié une lettre ouverte sur les dangers de l’I.A, qui se veut alarmiste : “en raison de son grand potentiel, il est important de se demander comment nous pourrons en profiter tout en évitant les pièges possibles”.

I.A. “superintelligente” et robots assistants

En 2014, le philosophe suédois Nick Bostrom, connu pour être un des penseurs du transhumanisme, a publié un ouvrage intitulé “Superintelligence”, dans lequel il analyse les bienfaits et les dangers de l’apparition d’une I.A. “superintelligente”.

Pour Nick Bostrom, si une telle entité venait à s’en prendre à l’homme, c’est surtout à cause de “l’orthogonalité” entre volonté et intelligence : pour poursuivre un but simple, une superintelligence choisira une solution simple.  “Imaginons par exemple que nous lui demandions de fabriquer le plus grand nombre de trombones possible. Obnubilée par sa tâche, elle en viendrait à considérer que l’humanité est un obstacle à la production de trombones puisqu’elle peut décider à un moment ou à un autre que le compte y est. Logiquement, la super-intelligence se dirait que les humains ne sont après tout qu’un amas d’atomes qui, reconfigurés autrement, permettraient d’obtenir d’excellents trombones”, écrit le philosophe.

Les recherches en robotique faisant des pas de géant, le pire est-il à craindre ? Nous sommes encore loin d’avoir chacun un robot assistant à la maison, mais peu à peu, les robots commencent à investir notre quotidien.

Au Japon, dans l’usine de la société Glory, en banlieue de Tokyo, des humanoïdes-ouvriers font leur gym le matin en même temps que leurs collègue humains. En Allemagne, le robot de service “Max” aide des personnes âgées dans des maisons de retraite, comme le montre le documentaire édifiant d’Arte, “Au coeur des robots”.

Dans le domaine civil, nous n’en sommes encore qu’aux prémices d’une société robotisée. Mais en ce qui concerne le secteur militaire, c’est une autre histoire.

Robots tueurs et machines “autonomes”

Certes, il n’existe pas encore de “robots tueurs” autonomes, capables de décider seuls s’ils doivent tirer ou pas. Mais les chercheurs des armées du monde entier, à commencer par la DARPA, l’agence de recherche de l’armée américaine, travaillent à créer des “armes semi-autonomes” : ces avions ou frégates sans pilote, ces robots et ces machines nouvelle génération analysent une situation donnée, décident de la réponse à apporter, et en dernier ressort, un humain valide ou non la suite à donner.

En Corée du Sud, les SGR-A1, des “robots sentinelles” armés de lance-grenades et de mitrailleuses, défendent les frontières. La décision finale dépend d’un opérateur humain, mais rien ne dit que cette situation ne changera pas un jour.

Alors que depuis deux ans, Human Rights Watch (HRW) mène une campagne pour stopper ces “robots létaux autonomes” (RLA), Elon Musk et Stephen Hawking ont publié cet été une autre lettre ouverte, pour réclamer l’interdiction des armes autonomes et stopper une potentielle “course à l’armement” dans ce domaine.

Ces machines autonomes, qui existeront “probablement d’ici quelques années”, seraient là encore, pour Elon Musk et Stephen Hawking, “plus dangereuses que les armes nucléaires”. Pour Hod Lipson, ingénieur en robotique et directeur du Creative Machines Lab de l’Université Cornell, à New-York, “combinée avec des robots physiques, l’I.A. pourrait effectivement être dangereuse”. D’où l’idée que nous devrions nous “préparer dès maintenant” à l’arrivée de l’I.A. forte, et penser aux moyens de la canaliser.

“Rendre une machine consciente, c’est de la pure science-fiction”

Jean-Gabriel Ganascia insiste : “il est facile de simuler l’intelligence et des émotions, mais rendre une machine consciente, c’est de la pure science-fiction”. Et de constater : “il y a derrière tout cela une croyance en la toute-puissance de la technologie, très proche d’une religion… peut être celle des transhumanistes”.

En revanche, l’expert estime que l’I.A. véritable, la “faible”, comporte des risques à ne pas négliger. “Comment réagira une voiture sans chauffeur confronté à un dilemme, comme choisir entre un carambolage et écraser un piéton ? Les machines demeurent imprévisibles, elles peuvent faire des erreurs”, explique-t-il.

Restent des risques “plus factuels”, comme l’utilisation de nos données par les fabricants des systèmes d’I.A. – en premier lieu, des robots de compagnie, qui en sauront beaucoup sur nous : “les données utilisées par les systèmes d’I.A. se propagent, se dupliquent, et sont forcément stockées quelque part pour être réutilisées.  Il ne faut pas oublier le scénario d’une utilisation à mauvais escient de ces nouveaux outils, par des personnes mal intentionnées”, remarque Jean-Gabriel Ganascia.

Au delà du scénario d’une intelligence artificielle inamicale façon Terminator, c’est bel et bien “l’impact de l’I.A. faible sur nos vies qui mérite d’être posé”, conclut-il. D’où son idée d’instaurer “un certain nombre de règles et principes éthiques” – pourquoi pas inspirés des lois d’Asimov.

Par Fabien Soyez, journaliste scientifique

La Finlande va enterrer ses déchets radioactifs

Le 12 novembre, le Gouvernement finlandais a annoncé la décision par voie de communiqué. L’entreprise retenue pour construire son centre de stockage des déchets radioactifs est Posiva, l’entreprise chargée de la gestion des déchets radioactifs finlandais. Le centre de stockage se situera vers 400 mètres de profondeur dans une couche de granit, au sud-ouest de la Finlande, sur l’île d’Olkiluoto, à proximité du site de construction du futur réacteur EPR construit par Areva pour l’électricien finlandais TVO.

« L’installation comprend deux parties: en surface, l’usine d’encapsulation du combustible usé dans les réservoirs de stockage définitif, et le stockage définitif en profondeur dans la roche, avec des tunnels dans lesquels le combustible usé sera placé », précise Posiva dans un communiqué. L’entreprise estime que les premiers colis de déchets arriveront à partir de 2020.

Ce centre de stockage accueillira les déchets hautement radioactifs à vie courte ou à vie longue et les déchets de moyenne activité à vie longue produits par les 4 réacteurs d’Olkiluoto et de Loviisa et du futur EPR. Il sera constitué de galeries souterraines menant à des puits en fonte recouverts d’une couche de cuivre. Ces puits, d’une dizaine de mètres de profondeur, accueilleront les colis de déchets. Ils seront scellés par de la bentonite, une variété d’argile fortement imperméable. Dès lors, le stockage sera irréversible et constituera une « solution de stockage sûre », selon Posiva. De son côté, Greenpeace signale les risques de corrosion du cuivre par l’eau, conteste l’imperméabilité totale de la bentonite et craint la contamination des nappes phréatiques.

Vers le deuxième site de stockage en France ?

La France projette la construction de Cigéo, un site de stockage similaire. A Bure, aux frontières de la Meuse et de la Haute-Marne, un laboratoire souterrain sert de lieu d’expérimentation depuis 2000. Exploité par l’Agence nationale pour la gestion des déchets nucléaires (Andra), il vérifie la résistance de la couche d’argile et évalue les techniques de construction. Le centre de stockage définitif sera situé à environ 3 kilomètres de ce laboratoire, sur une implantation de 30 km2. Le dépôt de la demande d’autorisation par l’Andra est prévue pour 2017. Cette demande sera alors instruite par l’Autorité de sûreté nucléaire (ASN) et l’Institut de radioprotection et de sûreté nucléaire (IRSN) pendant une durée maximale de 3 ans. Si le projet est autorisé, la construction devrait s’achever en 2025 et commencer par une phase industrielle pilote pour une durée allant de 5 à 10 ans.

Pendant la phase d’exploitation du centre, prévue pour une centaine d’années, le stockage devra être réversible pour laisser aux générations futures un maximum de possibilités pour permettre des adaptations. Ensuite, les galeries seront hermétiquement fermées le plus longtemps possible, soit entre plusieurs centaines de milliers d’années et quelques millions d’années. Avant la mise en route des travaux, la loi de 2006 prévoit le vote obligatoire d’une loi définissant la notion de réversibilité. Les députés ont essayé de placer un amendement dans la loi de transition énergétique, puis dans la loi Macron, sans succès.

Le 10 novembre, le député socialiste de Meurthe-et-Moselle, Jean-Yves le Déault, a déposé une nouvelle proposition de loi. L’article 1er prévoit notamment la définition suivante de la réversibilité : « La réversibilité est la capacité, pour les générations successives, à revenir sur des décisions prises lors de la mise en œuvre progressive dune installation de stockage. La réversibilité doit permettre de garantir la possibilité de récupérer des colis de déchets déjà stockés pendant une période donnée et dadapter linstallation initialement conçue en fonction de choix futurs. »

Par Matthieu Combe, journaliste scientifique

Comment Linky pourrait aider à économiser l’énergie

Linky compteur Nouvelle générationAprès plusieurs années d’expérimentation dans les régions de Lyon et de Tours, le compteur électrique et communicant Linky a débuté sa carrière officielle le 1er décembre. Son déploiement est assuré très majoritairement par ErDF, qui couvre 95% du territoire, et devrait se poursuivre jusque 2021. Objectif à cette date : le remplacement de 90% des compteurs existants dans quelque 35 millions de foyers français.

Selon l’Ademe, Linky et ses possibilités de communication seraient un atout pour économiser l’énergie, un thème d’actualité s’il en est. «Nous avons signé un accord avec ErDF pour accompagner le déploiement de ce compteur, confie Martin Régner, ingénieur Réseaux Electriques Intelligents à l’Ademe. Le but est de sensibiliser les particuliers et les collectivités locales à la maîtrise de la consommation électrique.» Toujours selon l’Ademe, les économies réalisées sur l’ensemble du réseau électrique pourraient se compter en milliards de kilowatts-heure (kWh) par an.

x-default

En pratique, délivrer une information plus régulière sur la consommation serait un premier moyen de sensibilisation, d’après les conclusions d’une étude menée par deux chercheurs du CNRS, à l’université de Nice Sophia Antipolis. Cette étude, commencée en 2012, a concerné une centaine de ménages volontaires dans les Alpes Maritimes, certains étant équipés d’outils de mesure de leur consommation électrique, d’autres non. Elle a indiqué entre autres que «la consommation électrique des groupes équipés (…) s’est révélée 23% moins élevée que la consommation initiale», selon le communiqué du CNRS.

Dans le cas de Linky, le relevé n’est plus effectué manuellement tous les 6 mois comme aujourd’hui. L’index de consommation du logement est transmis chaque nuit via CPL (courant porteur en ligne) à un concentrateur hébergé dans le poste de transformation électrique le plus proche. Ces données sont ensuite récupérées par le système d’information d’ErDF, puis accessibles sur un portail Internet, moyennant création d’un compte individuel. «L’historique permet un lecture journalière, hebdomadaire, mensuelle ou annuelle de la consommation électrique, précise Martin Régner de l’Ademe. Après souscription à un service gratuit, on obtient même des courbes de charge, c’est-à-dire la consommation par tranche de 10, 30 ou 60 minutes.» L’incitation à diminuer cette consommation s’en trouverait donc renforcée.

Donner la possibilité d’agir

Linky offre toujours la possibilité d’agir en partie sur cette consommation. «Il est équipé d’un contact sec à la manière du compteur bleu actuel, explique Martin Régner, et peut actionner l’interrupteur lié au ballon d’eau chaude en fonction de l’indice tarifaire du fournisseur d’énergie : heure creuse, heure pleine, voire heure de pointe.» La nouveauté, ce sont les 8 contacts virtuels supplémentaires à destination de ces mêmes fournisseurs. «Beaucoup d’entre eux nous demandaient de pouvoir gérer la mise en route et l’extinction d’autres appareils électriques, tels que les bornes de recharge de véhicules électriques» note Gladys Larose, en charge des relations externes au sein du projet Linky.

Dans le même ordre d’idée, Smart Electric Lyon et l’Ignes (Industries du Génie Numérique, Energétique et Sécuritaire) ont développé un émetteur radio qui se greffe à Linky et communique via Zigbee et KNX. Ce sont deux protocoles très répandus sur le marché de la domotique, il est vrai, mais la domotique elle-même est loin d’avoir conquis toutes les habitations. Quoi qu’il en soit, la mesure de la consommation électrique instantanée et la modulation du fonctionnement des appareils électriques en fonction du tarif font partie des applications.

Autre possibilité envisagée dans ce projet : l’effacement, c’est-à-dire l’arrêt de l’appareil en question afin de diminuer la quantité d’énergie ponctionnée sur le réseau électrique. L’enjeu consiste à réduire la demande pour l’adapter à l’offre, l’énergie électrique ne pouvant être stockée, et ainsi éviter de mettre en service des sites électrogènes parfois polluants, comme les centrales à charbon. La société Voltalis s’est positionnée sur ce marché il y a 8 ans et équipe gratuitement – elle se rémunère auprès de Réseau de Transport d’Electricité (RTE) – quelque 100 000 foyers qui ont en fait la demande. Son boîtier, posé dans le tableau électrique, interrompt de façon automatisée et temporaire le chauffage électrique et la production d’eau chaude quand le réseau est en déséquilibre. «C’est un modulation qui ne dure que quelques minutes, commente Arthur de Choulot, représentant de Voltalis. Il n’est pas question d’engendrer de l’inconfort chez nos adhérents.»

Par Frédéric Monflier

Découvrez l’ePub « Innovations marquantes » de Techniques de l’Ingénieur

celine_chartier

Céline Chartier, vous êtes éditrice chez Techniques de l’Ingénieur et responsable de la publication de l’ePub « Innovations marquantes ». Pouvez-vous nous en dire plus sur son contenu ?

Céline Chartier. Cette publication est une compilation de 18 innovations publiées au cours de ces dernières années dans notre collection. Elles représentent selon nous des avancées significatives dans les domaines de l’environnement, de la santé ou encore de l’énergie.  Ces innovations mettent en lumière le potentiel considérable de la R&D pour apporter des solutions viables et durables aux problématiques actuelles et à la nécessaire évolution de notre industrie vers un modèle plus sûr et plus responsable.

A qui s’adresse ce document ?

Céline Chartier. Cette publication est composée d’extraits d’articles, articles que nous avons sélectionnés parmi ceux de notre collection. Il s’agit donc d’un format court, synthétique et facilement accessible aux non spécialistes. Ce document s’adresse à tous ceux qui souhaitent se tenir au courant des grandes tendances technologiques et des orientations de recherche. Il permet au lecteur d’assurer une veille rapide et multisectorielle, en particulier dans d’autres domaines que le sien.V

Vous avez choisi de publier ce document en version numérique au format ePub. Pour quelle raison ?

Céline Chartier. Le format numérique, plus précisément le format ePub pour tablettes et smartphones, nous a paru idéal pour une lecture facile, mobile et confortable. Cette technologie permet plus d’interactivité et de dynamisme, ce qui est tout à fait approprié au contenu innovant et original de la publication.

Peut-on espérer que les futures publications seront aussi dans ce format ?  

Céline Chartier. Nous avons prévu de développer d’autres publications au format numérique ePub. Il s’agira de contenus nouveaux, adaptés à ce format original et interactif : synthèses, bases de données, annuaires, dictionnaires, traducteurs techniques… Notre objectif est d’être en phase avec l’évolution des usages et de répondre au mieux à la nécessaire évolution de notre métier d’éditeur ainsi qu’aux attentes de nos abonnés en termes d’innovations éditoriales.