Les mesures traditionnellement utilisées pour analyser et évaluer l’usage de la production scientifique sont basées sur l’analyse des citations à partir de grands corpus de références de documents. Depuis quelques années, le contexte numérique permet le développement de nouvelles possibilités de mesure de l’activité scientifique en ligne. Ces nouvelles métriques portent sur à la fois sur de nouveaux objets scientifiques (ensembles de données, logiciels, vidéos, etc.) et de nouvelles sources de données, notamment celles des réseaux sociaux (Mendeley, Facebook, Twitter, etc.), d’où leur appellation originale d’« altmetrics » comme métriques alternatives à celles utilisées jusqu’alors.
Il est important de comprendre que la notion d’« alternatives » ne signifie pas qu’elles ont l’ambition de remplacer les métriques traditionnelles, mais plutôt d’apporter de nouveaux types d’informations sur de nouvelles formes d’activités en ligne (discussion, partage, recommandation, etc.) autour des productions de la recherche prises au sens large, c’est-à-dire plus seulement les articles de revues ou de conférences et les ouvrages, mais aussi toutes celles qui n’existaient pas auparavant ou qui n’étaient pas prises en compte par les métriques traditionnelles. Par ailleurs, au-delà de la dimension informationnelle de la mesure de l’attention, les outils et services développés autour de ces métriques peuvent également se révéler de véritables outils de filtrage et de navigation dans la masse des ressources scientifiques pour les chercheurs ou encore des instruments de veille stratégique pour les institutions et les organismes de financement de la recherche.
Le domaine des métriques alternatives étant encore jeune, ses développements font largement l’objet d’expérimentations variées et discontinuées pour certaines. Dans ce paysage particulièrement évolutif, un certain nombre d’acteurs se positionnent d’ores et déjà et se consolident autour de stratégies différenciées, tant au niveau économique que sur les services développés et les publics ciblés. Le potentiel d’évolution reste cependant encore particulièrement fort et il subsiste de nombreuses difficultés, autant sociales que techniques, à régler en ce qui concerne la collecte et la réutilisation des données. Les données compilées et les sources dont elles sont issues sont très hétérogènes et non stabilisées dans leur évolution, rendant difficiles, voire impossibles, les comparaisons à la fois synchroniques (des différents services et des mesures qu’ils proposent) et diachroniques (des sources et des données elles-mêmes). Les usages des réseaux sociaux sont également encore loin d’être communément répandus dans les communautés scientifiques et comportent de nombreux biais liés aux aires linguistiques et disciplinaires. De plus, l’audience ainsi mesurée ne se limite pas à ces seules communautés scientifiques, ce qui complique la différenciation entre l’impact scientifique et l’impact social, et augmente les risques de manipulation de cette audience. Enfin, il faut bien distinguer entre la mesure de l’impact ainsi proposée et celle de la qualité qui ne peut se définir par de seuls critères d’audience. L’avenir de ces nouvelles métriques reste donc encore largement à dessiner.