Décryptage

L’avènement du Big Data: une (r)évolution ?

Posté le 10 janvier 2013
par La rédaction
dans Informatique et Numérique

Big Data. L'expression, fut sans nul doute le slogan des années 2011-2012 et sera celui de l'année 2013 dans la Silicon Valley.

Il est difficile de contester la complexification de nos sociétés modernes : mondialisation, croissance continue d’une population dont les besoins intrinsèques augmentent, amélioration globale des niveaux de vie et d’éducation. Dans ce paradigme évolutif, les organisations humaines (institutions, communautés, entreprises) sont aujourd’hui contraintes de s’appuyer sur des méthodes innovantes d’analyse des données pour rester réactives, adaptatives, rigoureuses et précises dans l’accomplissement des tâches qui leur sont affectées. Le volume de données produit et à traiter par ces acteurs ne cesse d’augmenter. Si le constat n’est pas récent, la multiplication des appareils interconnectés et l’accès à Internet à tous et à tout instant rend l’analyse de ces informations hétérogènes très complexe. Ainsi, une entreprise doit être capable de réagir rapidement aux besoins mouvants du marché, à ses signaux trompeurs, à ses évolutions comme à ses crises. Les milliards de données transitant par les consommateurs sont une formidable source d’information permettant de mieux cibler les segments de clientèle et les évolutions d’un secteur d’activité (par exemple, différencier un buzz d’une tendance de marché réelle à moyen terme), mais aussi de suivre l’évolution de ses concurrents. Dans un autre contexte, les pouvoirs publics sont aujourd’hui fortement sollicités pour fournir une information de qualité au plus grand nombre, tout en démultipliant les services rendus possibles par l’avènement des Technologies de l’Information et de la Communication (TIC) : bienvenue dans l’ère du Big Data !

Définition

Big Data. L’expression fut sans nul doute le slogan des années 2011-2012 et sera celui de l’année 2013 dans la Silicon Valley. Elle a été introduite par le cabinet d’études Gartner en 2008. Elle fait référence à l’augmentation sans précédent du volume de données échangées dans nos sociétés, à l’hétérogénéité de leur nature et de leur source. Dans ce contexte, la capture, le stockage, la recherche, le partage, l’analyse et la visualisation des données doivent être reconsidérés. Ainsi, depuis l’explosion des télécommunications à la fin des années 1990, la quantité d’informations échangées en continu n’a jamais cessé de croître, dépassant toutes les prévisions. Le développement massif du web (deux milliards d’internautes dans le monde en 2012) y a largement contribué. L’avènement plus récent de l’Internet des objets (appareils connectés aux réseaux de télécommunication tels que les smartphones, ordinateurs, tablettes, capteurs en tout genre) va fortement accentuer cette tendance. Aujourd’hui, la fusion des réseaux de télécommunication avec les réseaux énergétiques physiques (électriques notamment) dits « intelligents » ouvre la porte à de nombreuses applications : essor du véhicule électrique, appareils électroménagers connectés capable de demand response, intégration des énergies renouvelables, interface et offre de services clients, analyse des usages, etc.

Quels défis ?

Les challenges du Big Data pourraient se résumer en quatre V : Volume, Variété, Vélocité et Visualisation.

Deux défis complémentaires ont attrait à l’accessibilité et à la disponibilité de l’information. Les données sont souvent dispersées dans des silos et il est peut être difficile de les rassembler pour en avoir une vision claire, fiable et centralisée. Aussi performants que soient les algorithmes d’analyse, une déficience quantitative ou qualitative des données peut induire des résultats lacunaires voire erronés.

Quelle valeur ajoutée ?

Les organisations de toutes natures ont pris conscience de la valeur des données qu’elles possèdent, et comment leur utilisation peut les différencier, leur permettre d’approfondir leurs connaissances ou d’améliorer leur efficience structurelle. Par le biais d’outils d’analyse de plus en plus sophistiqués, l’idée centrale est bien le traitement de plusieurs milliards de données afin de dénicher l’information pertinente qui permettrait de prendre la bonne décision. Par exemple, les données générées par un consommateur sont une source précieuse pour les services marketing qui peuvent ensuite personnaliser leur publicité.

L’intérêt d’analyser ces données ne se cantonne pas au monde des affaires, où le souci de performance, de compétitivité et de rang sur les marchés est le principal moteur. Les données collectées par les organismes publics sont également au coeur du phénomène. Par souci de transparence envers ses citoyens, les pouvoirs publics sont encouragés à mettre à leur disposition l’information qu’ils détiennent. Les organismes étatiques trouvent un fort intérêt à ce partage, qui stimule par la même occasion la créativité et l’innovation. Les citoyens et les entreprises peuvent exploiter les données disponibles pour créer de nouveaux services (applications mobiles, web).

Quelques exemples :

Quel marché ?

L’information est un enjeu stratégique de premier ordre : la collecte et le traitement des données font l’objet de plus en plus d’investissements. Le marché de la gestion et de l’analyse de données est actuellement estimé à plus de 100 milliards de dollars et croît de près de 10% par an, soit environ deux fois plus vite que le marché global des logiciels. Selon Gartner Research, le Big Data sera à l’origine de la création de 4,4 millions de postes dans l’industrie des TICs à travers le monde d’ici à 2015, et plus de 1,9 million aux Etats-Unis. La thématique est souvent citée comme l’une des priorités par les investisseurs de la Silicon Valley. De ce fort potentiel économique est née une course sans précédent aux algorithmes de gestion les plus innovants et les plus efficaces : creusets d’innovation et de savoir (notamment mathématique et informatique), les universités californiennes comme UC Berkeley et Stanford s’attaquent à ces défis. En matière de possession de données et de potentiels d’investissements – notamment dans la recherche, les majors comme Amazon, Google ou Facebook sont de manière logique les acteurs principaux du Big Data. En parallèle, les startups fleurissent en proposant des logiciels, des plateformes et des services de gestion de données surfant sur cette philosophie. Dans la Silicon Valley, Platfora, Continuuity ou Metamarkets tirent par exemple leur épingle du jeu.

Le Cloud Computing

Cloud et Big Data sont deux éléments indissociables. Aujourd’hui, les majors IBM, Google, Yahoo ou AppNexus proposent tous des services de Cloud Computing. Le NIST (National Institute of Standards and Technology) définit le Cloud Computing comme un modèle permettant un accès réseau pratique et à la demande à une famille de ressources informatiques partagées par tous (par exemple, des serveurs, des réseaux, du stockage, des applications, etc.) qui peuvent être rapidement mobilisées ou libérées en utilisant des efforts minimaux de gestion ou d’interaction avec le fournisseur de service. Le Cloud Computing permet, entre autres, de développer des modèles de gestion et d’optimisation, de services par répartition (du type « Pay-as-you-Go »), des solutions de stockage et une offre dynamique. La disponibilité de la ressource est très élastique, les puissances de calcul disponibles et l’espace de stockage étant théoriquement infinis. Pas de Cloud sans transit des données, pas de Big Data sans Cloud !

Conclusion

Si le Big Data est souvent présenté comme un formidable outil, plusieurs dérives inquiètent cependant les citoyens et les pouvoirs publics : information personnelle difficile à gérer en matière de confidentialité, problématiques de sécurité des données financières et stratégiques. Les questions de cybersécurité accompagnent l’essor du concept : les débats publics, académiques et industriels se multiplient. Pike Research prévoit par exemple que le marché de la sécurité informatique estimé à 370 millions de dollars en 2012 atteindra les 610 millions en 2020. Ces défis mis à part, le potentiel offert par la disponibilité et l’accessibilité à cette foule de données – au moment où le monde se numérise à grande vitesse – reste un atout considérable pour le monde moderne.

Source : bulletins-electroniques.com

 

Découvrez les formations Techniques de l’Ingénieur :