#

Fouille de données

Fouille de données dans les livres blancs


Fouille de données dans les ressources documentaires

  • ARTICLE INTERACTIF
  • |
  • 10 févr. 2024
  • |
  • Réf : H6040

Introduction au Big-Data — stockage, analyse et fouille des mégadonnées

L’objet de cet article est de cerner le terme Big Data ou mégadonnées ainsi que les technologies et enjeux qui lui sont associées. Dans un premier temps, les mégadonnées sont caractérisées et des usages sont évoqués pour différents domaines. Ensuite, sont présentées les différentes solutions de stockage des mégadonnées, des bases de données SQL et NoSQL à l’informatique dans le nuage.  La deuxième partie est consacrée à l’analyse et la fouille des mégadonnées, notamment sous le prisme des dernières avancées de l’apprentissage machine et de l’intelligence artificielle.

  • Article de bases documentaires
  • |
  • 10 nov. 2016
  • |
  • Réf : H7270

Analyse automatique d’opinions

Le Web est devenu une source d’information incontournable grâce à la quantité et à la diversité des contenus textuels porteurs d’opinions générés par les internautes. Ces contenus sont multiples : blogs, commentaires, forums, réseaux sociaux, etc. Devant cette abondance de données, le développement d’outils pour extraire, synthétiser et comparer les opinions exprimées sur un sujet donné devient crucial. Cet article dresse un panorama des principales approches en analyse automatique d’opinions. Trois questions fondamentales sont abordées : comment reconnaître les portions de textes qui renseignent l’utilisateur sur l’opinion qu’il recherche ? Comment évaluer la polarité des opinions qui en ressortent ? Comment présenter le résultat de manière pertinente à l’utilisateur ?

  • ARTICLE INTERACTIF
  • |
  • 10 sept. 2021
  • |
  • Réf : H7422

Datavisualisation au service de la médiation homme-données

Dans le contexte d’essor des big datas, la Datavisualisation est un outil au service de la médiation homme-données. En fournissant un accès aux données, elle constitue un outil de communication, d’explication et d’exploration de données, avec des applications dans de nombreux domaines professionnels et scientifiques. De même, avec internet, elle s’étend à d’autres sources d’informations, pas ou peu appréhendés jusqu’ici. Le défi de la datavisualisation est de fournir un cadre méthodologique et des techniques pour analyser rapidement des données hétérogènes de plus en plus nombreuses, afin de faire émerger des connaissances nouvelles et signifiantes dans le contexte d’utilisation. Cet article présente la discipline pour une compréhension des enjeux, des objectifs et des méthodes couverts par la datavisualisation.

  • Article de bases documentaires : FICHE PRATIQUE
  • |
  • 09 déc. 2014
  • |
  • Réf : 1273

L’analyse sémantique des informations avec le moteur Noopsis

La simple mise à disposition de la connaissance, sans traitement particulier, rend cette dernière floue et inexploitable. Noopsis, outil de collecte développé par une entreprise normande, permet de collecter un grand volume d’information et interprète le sens grâce à son moteur de traitement sémantique. Il permet également de réaliser un premier traitement de l’information collectée avant que celle-ci ne soit analysée par le veilleur.

  • Comment Noopsis fonctionne-t-il ?
  • Quels types d’information peut-on collecter ?
  • À quoi peut servir ce traitement sémantique pour le veilleur ?

Cette fiche répondra à ces questions à travers des exemples.

  • Article de bases documentaires : FICHE PRATIQUE
  • |
  • 10 juin 2014
  • |
  • Réf : 1275

Le scraping, un nouvel outil au service de la veille

Le web est un gigantesque dépôt d’informations et de données destinées à être consultées, éventuellement partagées ou commentées sur un navigateur Web. Ce dépôt est changeant, impermanent, parcellaire. Ce qu’il contient ne répond pas toujours à nos besoins, parfois un peu plus ou un peu moins, et nécessite de temps à autre un coup de neuf. Le grattage Web peut être entendu et connu sous plusieurs termes ou technologies qui pourraient refléter ce que vous cherchez :

  • screen scraping ;
  • collecte de données et collecte de données automatisée ;
  • Data Mining
  • grattage de site Web ;
  • extraction des données ;
  • données Crawling ;
  • site Web Ripper.

  • Article de bases documentaires : FICHE PRATIQUE
  • |
  • 26 août 2014
  • |
  • Réf : 1350

Analyse de l’information documentaire structurée

Le recueil des nombreuses informations proposées par les bases de données scientifiques nécessite de s’appuyer sur des outils permettant l’analyse automatique de ces informations. La majorité des bases de données commerciales offrent un format de téléchargement qui structure l’information (même format pour toutes les références).

A partir de celui-ci, on peut combiner l’ensemble des données présentes dans les différents champs documentaires et créer des listes, des réseaux, des matrices. Cette information élaborée permettra de répondre aux questions « qui fait quoi », « où », « comment », « quand », « avec qui » et ainsi de définir de nouvelles orientations scientifiques, d’implémenter les processus d’innovation, de trouver des partenariats, de réaliser le « benchmarking » d’auteurs et d’institutions, etc.

Compte tenu du nombre croissant d’informations accessibles, cette méthode de travail est la seule qui permette d’avoir en un minimum de temps une information pertinente et stratégique sur un sujet donné.


INSCRIVEZ-VOUS AUX NEWSLETTERS GRATUITES !