Logo ETI Quitter la lecture facile

En ce moment

News informatique : Octobre 2013

Posté le par La rédaction dans Informatique et Numérique

Quelles sont les dernières actualités du secteur de l'informatique ? Big data, séquençage ADN, cloud...

Un logiciel détermine automatiquement l’espèce d’un échantillon grâce aux séquences d’ADN

Un groupe de chercheurs de l’école supérieure des études environnementales globales de l’Université de Kyoto a développé un logiciel de codage à barres de l’ADN pour prévenir l’étiquetage frauduleux des produits alimentaires et aider les enquêtes policières en identifiant l’origine des substances découvertes sur les scènes de crimes. Grâce à ce logiciel récemment mis au point, les utilisateurs peuvent facilement déterminer à quelle espèce appartiennent des objets vivants en s’appuyant sur les informations de leur séquence ADN. Le développement de ce logiciel a été annoncé le 18 octobre dans le journal de recherche scientifique américain Plos One.

« Les prix du thon jaune (albacore) et du thon rouge du Pacifique sont drastiquement différents. Il est néanmoins difficile même pour des experts de faire la distinction entre les deux une fois qu’ils ont été cuisinés. L’utilisation de ce logiciel permet de détecter facilement les erreurs d’étiquetage, » déclare Akifumi Tanabe qui a joué un rôle prépondérant dans le développement du logiciel. En permettant de mener ce genre de test de façon plus normalisée et abordable, sans passer par un débat d’experts, la lutte contre la fraude sera grandement facilitée. On peut ainsi penser à la fraude avec viande de cheval dans les plats cuisinés en Europe qui aurait pu être décelée plus tôt.

Le logiciel créé par les chercheurs est capable de comparer des séquences d’ADN de plantes, poissons et tout autre objet vivant avec les séquences contenues dans les bases de données d’ADN. En comparant le codage à barres de l’ADN, le logiciel détermine automatiquement de quelle espèce les objets vivants proviennent. S’il s’agit d’une nouvelle espèce ou d’une espèce non référencée, le logiciel est capable de déterminer la famille et le genre auxquels elle appartient et d’indiquer quelles espèces connues lui sont apparentées. L’accès aux banques de données d’ADN est possible au Japon, aux Etats-Unis et en Europe. Les banques rassemblent les séquences ADN de près de 288.000 espèces de tous types.

Jusqu’à ce jour, le travail qui consiste à déterminer l’espèce d’un échantillon d’être vivant dépendait en grande partie de la connaissance d’experts et de leur expérience. Compte tenu de ces limitations, des erreurs étaient possibles et les avis pouvaient diverger. Ce logiciel permet d’automatiser et de normaliser l’opération en bénéficiant des dernières connaissances scientifiques en matière de génétique.

Le Data Analytics : un enjeu stratégique pour les utilities de demain

Comme nous le décrivions dans notre Bulletin Electronique numéro 313 [1], la révolution du Big Data est en marche. La démocratisation d’internet ainsi que la multiplication des appareils connectés conduisent à un accroissement exponentiel du volume de données générées. Ainsi, 90% des données mondiales tous secteurs confondus ont été générées lors des deux dernières années [2]. Si le stockage de ce grand nombre de données et l’amélioration des réseaux de télécommunications pour faciliter leur transit constituent des défis majeurs, le véritable enjeu du Big Data réside dans l’analyse de données et dans l’identification d’actions visant à la création de valeur. Sans traitement ni analyse, les données générées et collectées par les nouvelles technologies de l’information et de la communication ne présentent que peu d’intérêt. Stocker des données, c’est bien. Mais être capable de les analyser et d’en tirer des conclusions menant à des prises de décision créatrices de valeur, c’est nettement mieux.

C’est dans cette logique qu’est apparue depuis quelques années une nouvelle discipline : le Data Analytics. Cependant, il ne s’agit pas d’une expertise scientifique totalement nouvelle. Dès l’antiquité les scientifiques grecs étudiaient les données qu’ils avaient à leur disposition (position des astres, etc.) En réalité, ce sont les technologies sous-jacentes qui ont fortement fait évoluer l’analyse de données : les technologies de stockage de données, les outils de communication, les super-ordinateurs ayant une puissance de calcul démultipliée, sans oublier les outils de visualisation.

L’analyse de données est actuellement en pleine expansion comme en témoignent les 11 milliards de dollars dépensés par IBM en acquisition d’entreprises dans ce secteur depuis 2005. La compagnie américaine fixe à 12 milliards de dollars ses objectifs de chiffre d’affaire dans ce secteur d’ici à 2015. IBM est loin d’être la seule entreprise américaine à se pencher sur la question : Oracle, SAS, Cisco proposent toutes aujourd’hui des services d’analyse de données à leurs clients [3].

Le Data Analytics est devenu une compétence stratégique permettant aux entreprises de maximiser la valeur des jeux de données qu’elles ont désormais à leur disposition. Ainsi, Aux Etats-Unis, le géant de la grande distribution, Target, est aujourd’hui en mesure, en se basant sur les paniers de consommation des femmes enceintes, d’évaluer la date de leur accouchement. Cet algorithme prédictif permet à Target de cibler les publicités à diffuser auprès ses clientes enceintes en fonction de leurs périodes de grossesse [4]. Si certains secteurs comme la vente ont déjà largement tiré partie du Data Analytics pour améliorer la profitabilité et l’efficacité de leurs activités, le secteur de l’électricité n’en est actuellement qu’à ses prémices.

Le Data Analytics s’invite dans le secteur électrique

Impulsé par une politique fédérale volontariste, le secteur électrique américain est en pleine métamorphose avec le développement du Smart Grid. Réseau électrique vieillissant ayant des impacts économiques significatifs (coupures, non qualité…), risques climatiques, lobbying des géants des NTIC, et crise économique, sont autant de facteurs qui ont incité le gouvernement Obama à investir dans la modernisation des infrastructures électriques américaines [5].

Dans le cadre de l’American Recovery and Reinvestment Act voté en 2009 par le Congrès (vaste plan de relance économique de 840 milliards de dollars faisant suite à la crise de 2008), le Département de l’Energie (U.S. DOE) a reçu une enveloppe de 4.5 milliards de dollars pour financer la rénovation du réseau électrique américain, avec un focus particulier sur le réseau de distribution [5].

Cet effort significatif a notamment servi à doter le pays de technologies d’automatisation du réseau et à déployer des infrastructures de comptage intelligent. Ainsi, 45 millions de compteurs électriques intelligents sont actuellement déployés sur le territoire américain (plusieurs Etats étant quasi totalement équipés). Tous les jours, ces compteurs génèrent à eux seuls plus d’1 milliard de données [6]. Si l’on ajoute à cela les nombreuses données créées par les différents instruments de mesure positionnés sur le réseau électrique (capteurs de tension, dispositifs d’évaluation de la sûreté du système électrique – WAMS [7], etc.), il ne fait aucun doute que le Big Data est aujourd’hui une problématique à laquelle sont quotidiennement confrontées les utilities. Pour preuve, PG&E collecte tous les mois 2 Tera-Bytes de données issues de son réseau électrique.

Ainsi, l’analyse de données est un sujet en pleine expansion dans le secteur de l’énergie : les investissements que lui consacrent les utilities affichent un taux de croissance annuel de 18%. Le nombre de conférences dédiées à cette thématique ainsi que le lobbying croissant des géants de l’IT autour du Data Analytics sont un autre indice probant de l’intérêt grandissant des utilities à son égard. A titre d’exemple, PG&E a accueilli la semaine dernière la conférence Softgrid, organisée par Green Tech Media [8].

Nous pouvons actuellement distinguer deux grandes catégories d’applications du Data Analytics : celles de type « réseau » et celles de type « client ».

Les applications les plus répandues sont notamment celles visant à rapidement détecter des coupures de clientèle dues à des incidents (courts circuits…) ou à des pannes du réseau de distribution. On peut ainsi combiner des informations provenant des compteurs intelligents (manque de tension, par exemple), avec des informations topologiques et géographiques sur le réseau électrique, pour en déduire très rapidement l’occurrence d’une coupure de courant dans une zone donnée.

Les applications dédiées à la gestion des actifs du réseau électrique (ce que l’on appelle communément ‘asset management’) sont également nombreuses : par exemple, évaluer la charge de transformateurs du réseau de distribution et leur état de santé, en utilisant des données issues de l’infrastructure de comptage intelligent (pour calculer le niveau de charge du transformateur alimentant une partie du réseau), mais également des capteurs dédiés mesurant par exemple la température de la cuve du transformateur, le niveau de ses vibrations…

D’autres applications concernent ce qu’il est convenu d’appeler le ‘revenue protection’, qui fait référence à l’évaluation de deux éléments : les défaillances techniques de la chaine de comptage de l’énergie (erreurs de mesure…) et les subtilisations d’énergie (raccordements illicites sur le réseau). Ces applications sont également basées sur des mesures de l’énergie qui transite entre différents points du réseau. L’application d’algorithmes permet donc d’isoler les pertes techniques (naturelles lorsqu’on transporte de l’énergie électrique dans un réseau), des pertes dites non-techniques (subtilisations, erreurs de mesure…) Il devient donc assez facile d’identifier les endroits où de l’énergie est subtilisée.

Mais les applications du data analytics pour les utilities ne s’arrêtent pas là et l’imagination est de mise chez certains vendors, chez les chercheurs et chez des utilities qui associent également aux données des compteurs intelligents des informations météorologiques ou la position géographique de leur équipes sur le terrain. De nombreux progrès sont également réalisés du côté des outils mobiles de visualisation pour les opérateurs de terrain (tablettes avec systèmes de réalité augmentée, par exemple), via l’utilisation de systèmes laser mobiles (LIDAR) équipant des véhicules et pouvant rapidement identifier la nature et la position des équipements du réseau de distribution, ou encore l’utilisation de drones pour évaluer les dégâts et réparations à effectuer sur le réseau après le passage d’une tempête. Certaines applications du Data Analytics permettent donc d’améliorer la résilience du réseau électrique.

De plus en plus de utilities américaines s’impliquent dans l’évaluation de ces techniques de Data Analytics, la plupart du temps en implémentant tout ou partie des solutions proposées par les nombreux vendors présents sur ce marché. On citera par exemple PG&E qui utilise le Data Analytics pour faire de l’asset management de ses ouvrages de distribution et qui évalue actuellement avec C3-Energy diverses autres fonctions d’optimisation de son système électrique, Exelon / PECO qui teste des techniques de contrôle de tension sur le réseau de distribution et de détection d’incidents en utilisant, entre autres, des données issues des infrastructures de comptage intelligent, SMUD, à Sacramento, qui évalue actuellement les bénéfices de technologies de revenue protection…

Les applications du data analytics pour la clientèle sont également nombreuses. Elles vont de la décomposition de courbes de charges (identification des différentes charges individuelles derrière un compteur en analysant la signature de la demande électrique), la personnalisation d’offres commerciales (la connaissance plus précise du profil de consommation du client permet de mieux cibler les offres qu’il peut recevoir de son fournisseur d’énergie), l’évaluation d’impact de mesures d’efficacité énergétique, ou encore l’évaluation du comportement des clients après mise en place (ou les tests) d’un nouveau tarif de fourniture d’énergie (la mesure des réponses peut donc devenir précise, et non plus agrégée). On notera que les investissements totaux des utilities américaines, cumulés d’ici à 2020, dédiés à l’exploitation des données clients sont chiffrés à 7 milliards de dollars.

Le data analytics est donc vu par un nombre croissant de utilities américaines comme une opportunité permettant l’optimisation du système électrique, la réduction de ses coûts, le management de certains risques, et le développement de la relation avec le client incluant l’émergence de nouveaux services.

Dans cette mouvance vers le Data Analytics, EPRI a lancé cette année un ambitieux programme de recherche et de démonstration sur ce thème. Ce programme vise à rassembler une quinzaine de utilities américaines, asiatiques et européennes, impliquées dans la conception et les tests de fonctions de Data Analytics, notamment pour des applications réseau. Ce programme permettra de partager résultats et retours d’expérience, en confirmant les utilisations présentant le plus d’intérêt pour les utilities et leurs clients.

Tout ne sera pas résolu en un jour car l’implémentation de technologies de Data Analytics nécessite un travail sur les données en elles-mêmes (précision, qualité, attributs particuliers : certaines données doivent être absolument sûres et non modifiables, car elles servent à des fonctions critiques pour l’exploitation du système électrique, etc). Le stockage de ces données nécessite aussi une attention toute particulière, ainsi que des technologies adaptées (data historian systems). Le traitement et la visualisation des données sont également des sujets en cours d’évolution.

Le Data Analytics peut être aussi affaire de spécialistes : des Data Architects pour concevoir les systèmes d’information, des Data Scientists pour exploiter ces données et révéler leur valeur, etc. En fait, le Data Analytics est en train de devenir un domaine stratégique pour les utilities, car il s’agit bien ici d’applications et de connaissances coeur de métier. Tout ceci doit donc être mené en ayant conscience que les utilities ont un rôle majeur à jouer dans ce domaine.

L’innovation et l’imagination sont de mise dans ce secteur en croissance rapide, et nul doute que les années qui viennent démontreront la valeur importante de plusieurs de ces applications pour le secteur électrique.

Lancement d’un projet sur la sécurité du cloud

Le Secrétaire d’Etat à l’économie Steffen Saebisch a remis, le 10 septembre 2013, un financement de 580.000 euros aux partenaires du projet CIRECS (« Center for Industrial Research in Cloud Security »). Mené par l’Institut Fraunhofer pour les technologies d’information sécurisées (SIT – Darmstadt, Hesse) et la « House of IT », ce projet nouvellement lancé vise à développer des solutions sécurisées pour le cloud et à soutenir sa mise en place dans les PME du Land de Hesse.
 
De manière générale, le principal argument formulé contre l’usage du cloud computing concerne la sécurité des données. Des doutes peuvent en effet exister sur la localisation du serveur de stockage des données, de la juridiction qui s’y applique alors, et de la possibilité éventuelle de fuites suite à des attaques extérieures. Ce projet va répondre aux besoins des PME, afin de leur permettre d’accéder à cet outil en leur proposant des produits adaptés. « Nous voyons déjà un changement radical du paysage des TIC avec l’arrivée du cloud computing », indique Michael Waidner, directeur du SIT. « Avec le projet CIRECS, nous souhaitons amener les entreprises du Land de Hesse à plus de flexibilité et à maintenir une position concurrentielle à long terme, et ce grâce aux services du cloud. »
 
Le SIT, fort de 160 employés, traite de recherche appliquée dans le domaine des technologies de la sécurité. La structure « House of IT » travaille au transfert de technologie et crée des ponts entre les acteurs des TIC en Hesse. « Notre structure est une sorte de médiateur entre la science et l’industrie. C’est ce rôle que nous allons également assumer dans le projet CIRECS, afin de contribuer à l’émergence du Land en tant que pôle majeur des TIC en Allemagne et en Europe », explique Gunther Ruppel, membre du bureau de « House of IT ».
 
Le projet a été cofinancé par le Land de Hesse et le Fonds européen de développement régional (FEDER).

Posté le par La rédaction


Réagissez à cet article

Commentaire sans connexion

Pour déposer un commentaire en mode invité (sans créer de compte ou sans vous connecter), c’est ici.

Captcha

Connectez-vous

Vous avez déjà un compte ? Connectez-vous et retrouvez plus tard tous vos commentaires dans votre espace personnel.

INSCRIVEZ-VOUS
AUX NEWSLETTERS GRATUITES !