#

Crawler web

Crawler web dans l'actualité

Toute l'actualité


Crawler web dans les ressources documentaires

  • Article de bases documentaires
  • |
  • 10 avr. 2014
  • |
  • Réf : H5135

Audits de sécurité et Web

du cycle d'amélioration continue. Dans un contexte Web, l'audit de sécurité doit vérifier que les phases... des audits de sécurité techniques dans le domaine des applications Web. Les applications Web... dans le domaine de la sécurité Web. Cet article aura pour tâche d'expliciter la majeure partie... de ces vulnérabilités qui seront décrites dans la section « Risques de sécurité Web ». La figure  1 décrit...

Les articles de référence permettent d'initier une étude bibliographique, rafraîchir ses connaissances fondamentales, se documenter en début de projet ou valider ses intuitions en cours d'étude.

  • ARTICLE INTERACTIF
  • |
  • 10 mars 2022
  • |
  • Réf : H7235

Optimisation d’un site web en vue de son référencement (SEO)

Les moteurs de recherche représentent près de la moitié du trafic sur un site web en général... génèrent plus d'un tiers des visites sur un site web, ce qui en fait une source de trafic impossible... , il est nécessaire de concevoir un site et des pages web qui soient réactifs aux critères de pertinence des moteurs... la notion de référencement de site web, il nous semble nécessaire de définir clairement les termes...

Les bases documentaires des Techniques de l'Ingénieur couvrent tous les grands domaines de l'ingénierie. Lancez votre recherche, affinez-là, obtenez vos réponses !

  • ARTICLE INTERACTIF
  • |
  • 10 avr. 2022
  • |
  • Réf : H7240

Moteurs de recherche web

comme Google ou Bing : crawl du Web, indexation des pages, analyse et utilisation de critères de pertinence in...  »), obtenus grâce au crawl du web et les liens sponsorisés, ou liens commerciaux (exemple : Google Ads... Les robots peuvent identifier les pages web d’un site pour leur futur crawl en cliquant sur des liens... sur le Web… Définitions Un moteur de recherche est un ensemble de logiciels visant à créer...

Les bases documentaires des Techniques de l'Ingénieur couvrent tous les grands domaines de l'ingénierie. Lancez votre recherche, affinez-là, obtenez vos réponses !

  • Article de bases documentaires : FICHE PRATIQUE
  • |
  • 20 nov. 2012
  • |
  • Réf : 1074

Surveiller des sites web avec WebSite-Watcher

Les logiciels de surveillance automatisée du web font partie du dispositif de la veille stratégique, qu’il s’agisse de veille technologique, concurrentielle ou du suivi de l’e-réputation. Ils prennent en charge cette tâche répétitive et sans grande valeur ajoutée qui consiste à surveiller les modifications sur tout type de site web, et à alerter l’utilisateur de ces changements.

Il existe dans ce domaine de nombreux outils, gratuits ou payants, et plus ou moins sophistiqués. WebSite-Watcher est l’un des logiciels les plus utilisés par les professionnels de la veille.

Cette fiche présente les principales caractéristiques de WebSite-Watcher, son mode de fonctionnement, ainsi que des conseils et astuces d’utilisation avancée. Nous verrons notamment comment ce logiciel peut répondre aux besoins des veilleurs grâce à ses nombreuses fonctionnalités, adaptées à la complexité et à l’hétérogénéité des contenus web (sites, flux, forums, contenus multimédias, etc.).

Toutes les clefs pour maîtriser la veille technologique

  • Article de bases documentaires : FICHE PRATIQUE
  • |
  • 09 juil. 2022
  • |
  • Réf : 1075

Connaître le fonctionnement des moteurs de recherche web

Nous utilisons quotidiennement les moteurs de recherche web, et pourtant leur fonctionnement est mal connu. Les moteurs classent les résultats selon des algorithmes peu transparents, et ont tendance à mettre en avant des sites souvent commerciaux et pas nécessairement pertinents.

Comment optimiser la qualité des résultats ? Comment mieux comprendre ces algorithmes de classement qui ne cessent d’évoluer ? Cette fiche fait le point sur le fonctionnement des moteurs web, notamment :

  • ce qu’ils interrogent réellement ;
  • ce qu’ils ignorent ;
  • les critères qu’ils utilisent pour classer les résultats.

Toutes les clefs pour maîtriser la veille technologique

  • Article de bases documentaires : FICHE PRATIQUE
  • |
  • 11 déc. 2012
  • |
  • Réf : 1120

KB Crawl

KB Crawl est un éditeur français de logiciels et solutions de veille, créé en 1995 et basé à Rueil-Malmaison.

KB Crawl propose une solution de veille à géométrie variable : de l’outil monoposte à la plate-forme collaborative d’entreprise, en mode Saas (Software as a service) ou en client/serveur. Elle est utilisée par 40 000 utilisateurs dans le monde sur plus de 350 projets. La société dispose d'un club utilisateurs. Budget d'un projet: à partir de 5 000 euros pour une version monoposte.

Tous les types de veille sur Internet sont possibles : concurrentielle, e-réputation, juridique, sectorielle, scientifique… Et tous les types de sources sont accessibles à la surveillance.

Des prestations d’accompagnement et de conseil sont également mises à disposition des clients.

KB Crawl a obtenu plusieurs récompenses : prix OSEO (2004), I-Expo (2006), et a été nominée au Trophée EuroCloud 2012.

Parmi ses clients significatifs dans l'industrie figurent : Legrand, Tarkett, Vallourec, Sodiaal, Knauf, Cargil, IFP-EN, Serda (portail SerdaLab).

IFPEN est utilisateur de l'outil de collecte KB Crawl depuis 2003 : d'abord en monoposte (mode qui n'est plus commercialisé pour les versions récentes), puis en mode client/serveur depuis 2010 (version 4 installée).

Cette fiche vous permet de découvrir KB Crawl décliné en deux solutions :

  • KB Crawl Premium Edition, outil de collecte d’informations, disponible en Saas ou en client/serveur ;
  • KB Crawl Professional Edition, plate-forme de veille intégrée, disponible en Saas.

Toutes les clefs pour maîtriser la veille technologique


INSCRIVEZ-VOUS AUX NEWSLETTERS GRATUITES !