#

Web invisible

Web invisible dans l'actualité

Toute l'actualité


Web invisible dans les ressources documentaires

  • Article de bases documentaires
  • |
  • 10 oct. 2009
  • |
  • Réf : H5335

Botnets, la menace invisible

de sites web, ver et virus... Parmi les dangers en forte progression, les botnets (roBOT NETwork) tiennent... ); g_cMainCtrl.m_cCommands.RegisterCommand(&m_cmdWebDav, "scan.webdav", "scans for iis/webdav exploit", this... « alléchante » ; en invitant la personne à visiter un site web « intéressant » qui tentera d... bien plus difficiles à filtrer comme, par exemple, l'utilisation de canaux Web (HTTP) ou P2P (par exemple Overnet...

Les articles de référence permettent d'initier une étude bibliographique, rafraîchir ses connaissances fondamentales, se documenter en début de projet ou valider ses intuitions en cours d'étude.

  • Article de bases documentaires
  • |
  • 10 mars 2022
  • |
  • Réf : H7235

Optimisation d’un site web en vue de son référencement (SEO)

Les moteurs de recherche représentent près de la moitié du trafic sur un site web en général... génèrent plus d'un tiers des visites sur un site web, ce qui en fait une source de trafic impossible... , il est nécessaire de concevoir un site et des pages web qui soient réactifs aux critères de pertinence des moteurs... la notion de référencement de site web, il nous semble nécessaire de définir clairement les termes...

Les articles de référence permettent d'initier une étude bibliographique, rafraîchir ses connaissances fondamentales, se documenter en début de projet ou valider ses intuitions en cours d'étude.

  • Article de bases documentaires
  • |
  • 10 avr. 2022
  • |
  • Réf : H7240

Moteurs de recherche web

comme Google ou Bing : crawl du Web, indexation des pages, analyse et utilisation de critères de pertinence in... sur le Web… Définitions Un moteur de recherche est un ensemble de logiciels visant à créer... de l’internaute. Ces logiciels parcourent le Web, indexent automatiquement les pages visitées puis les analysent...  »), obtenus grâce au crawl du web et les liens sponsorisés, ou liens commerciaux (exemple : Google Ads...

Les articles de référence permettent d'initier une étude bibliographique, rafraîchir ses connaissances fondamentales, se documenter en début de projet ou valider ses intuitions en cours d'étude.

  • Article de bases documentaires : FICHE PRATIQUE
  • |
  • 21 nov. 2012
  • |
  • Réf : 1074

Surveiller des sites web avec WebSite-Watcher

Les logiciels de surveillance automatisée du web font partie du dispositif de la veille stratégique, qu’il s’agisse de veille technologique, concurrentielle ou du suivi de l’e-réputation. Ils prennent en charge cette tâche répétitive et sans grande valeur ajoutée qui consiste à surveiller les modifications sur tout type de site web, et à alerter l’utilisateur de ces changements.

Il existe dans ce domaine de nombreux outils, gratuits ou payants, et plus ou moins sophistiqués. WebSite-Watcher est l’un des logiciels les plus utilisés par les professionnels de la veille.

Cette fiche présente les principales caractéristiques de WebSite-Watcher, son mode de fonctionnement, ainsi que des conseils et astuces d’utilisation avancée. Nous verrons notamment comment ce logiciel peut répondre aux besoins des veilleurs grâce à ses nombreuses fonctionnalités, adaptées à la complexité et à l’hétérogénéité des contenus web (sites, flux, forums, contenus multimédias, etc.).

Toutes les clefs pour maîtriser la veille technologique

  • Article de bases documentaires : FICHE PRATIQUE
  • |
  • 09 juil. 2022
  • |
  • Réf : 1075

Connaître le fonctionnement des moteurs de recherche web

Nous utilisons quotidiennement les moteurs de recherche web, et pourtant leur fonctionnement est mal connu. Les moteurs classent les résultats selon des algorithmes peu transparents, et ont tendance à mettre en avant des sites souvent commerciaux et pas nécessairement pertinents.

Comment optimiser la qualité des résultats ? Comment mieux comprendre ces algorithmes de classement qui ne cessent d’évoluer ? Cette fiche fait le point sur le fonctionnement des moteurs web, notamment :

  • ce qu’ils interrogent réellement ;
  • ce qu’ils ignorent ;
  • les critères qu’ils utilisent pour classer les résultats.

Toutes les clefs pour maîtriser la veille technologique

  • Article de bases documentaires : FICHE PRATIQUE
  • |
  • 12 déc. 2012
  • |
  • Réf : 1120

KB Crawl

KB Crawl est un éditeur français de logiciels et solutions de veille, créé en 1995 et basé à Rueil-Malmaison.

KB Crawl propose une solution de veille à géométrie variable : de l’outil monoposte à la plate-forme collaborative d’entreprise, en mode Saas (Software as a service) ou en client/serveur. Elle est utilisée par 40 000 utilisateurs dans le monde sur plus de 350 projets. La société dispose d'un club utilisateurs. Budget d'un projet: à partir de 5 000 euros pour une version monoposte.

Tous les types de veille sur Internet sont possibles : concurrentielle, e-réputation, juridique, sectorielle, scientifique… Et tous les types de sources sont accessibles à la surveillance.

Des prestations d’accompagnement et de conseil sont également mises à disposition des clients.

KB Crawl a obtenu plusieurs récompenses : prix OSEO (2004), I-Expo (2006), et a été nominée au Trophée EuroCloud 2012.

Parmi ses clients significatifs dans l'industrie figurent : Legrand, Tarkett, Vallourec, Sodiaal, Knauf, Cargil, IFP-EN, Serda (portail SerdaLab).

IFPEN est utilisateur de l'outil de collecte KB Crawl depuis 2003 : d'abord en monoposte (mode qui n'est plus commercialisé pour les versions récentes), puis en mode client/serveur depuis 2010 (version 4 installée).

Cette fiche vous permet de découvrir KB Crawl décliné en deux solutions :

  • KB Crawl Premium Edition, outil de collecte d’informations, disponible en Saas ou en client/serveur ;
  • KB Crawl Professional Edition, plate-forme de veille intégrée, disponible en Saas.

Toutes les clefs pour maîtriser la veille technologique


INSCRIVEZ-VOUS AUX NEWSLETTERS GRATUITES !