Attention, un #classement peut en cacher un autre !
L’autre jour, @lemonde a publié un article sur un classement alternatif au à celui de #Shanghai en utilisant les données de #Cairn, la plate-forme francophone de publication scientifique :
▻https://www.lemonde.fr/societe/article/2024/08/15/des-universites-francaises-loin-du-miroir-de-shanghai-un-autre-classement-es
On pourrait s’en féliciter, mais la route de l’enfer est pavée de bonnes intentions...
Le classement était établi à partir des données de consultations des publications en ligne sur #Cairn.
En fait, en allant sur la plate-forme, on remarque que cette dernière a été considérablement modifiée et qu’elle offre désormais des statistiques de consultation ... par auteur (voir par exemple : ▻https://shs.cairn.info/publications-de-gabriel-galvez-behar--64066)
Quelle drôle d’idée !
En 2020, dans un collectif consacré à l’édition en sciences humaines (▻https://shs.hal.science/halshs-02937110), j’avais attiré l’attention sur le rôle des #métriques alternatives dans l’ #édition numérique et sur leurs répercussions possible sur l’ #évaluation.
Il existait déjà des statistiques publiques de consultations ou de citations par article mais toutes les plate-formes ne le font pas. Publier de telles statistiques est donc un choix qui mérite d’être justifié ou, du moins, questionné.
Pourquoi publier de telles statistiques individuelles ? Qu’est-ce que cela apporte à la plate-forme ? Quels sont les usages pouvant être faits en aval ?
Ces questions mériteraient d’être posées par toute la communauté scientifique.
Par ailleurs, que nous disent de telles statistiques sur les différentes voies de diffusion des publications et notamment les archives ouvertes ?
Faisons une petite expérience à partir d’un article sur #Pasteur que j’ai publié dans @AnnalesHSS
L’article est présent sur :
– #Cairn et l’article a été vu 874 fois (▻https://shs.cairn.info/revue-annales-2018-3-page-629)
– #CambridgeCore et l’article a été vu 124 fois (1380 pour le résumé) (▻https://doi.org/10.1017/ahss.2019.46)
– #HAL-SHS en version pre-print : 977 consultations (mais 2402 téléchargements) (▻https://shs.hal.science/halshs-01267638)
Bien entendu, ces données ne sont probablement pas homogènes (même si Cairn et CambridgeCore suivent la « norme » COUNTER, j’y reviendrai).
Établir une analyse (et a fortiori un classement) sur la base d’une seule source statistique offre donc une vue complètement partielle. En toute rigueur, il faudrait obtenir une perspective consolidée. Mais selon quelle méthode ?
Du côté des chercheurs, la question se pose de savoir s’il ne faut pas mettre tous ses œufs dans le même panier pour gagner en #visibilité
Mais surtout, il faudrait se demander à quoi servent ces statistiques et pourquoi rendre publiques les données individuelles.
Pour engager le débat, il n’est pas inutile de regarder ce que dit l’organisation à but non-lucratif Counter Metrics (▻https://cop5.countermetrics.org/en/5.1/00-foreword.html) qui fournit une « norme » de mesure de recherche et d’usage des publications électroniques.
Il s’agit notamment de répondre au besoin des bibliothèques et des consortia pour évaluer leur retours sur #investissements (en matière d’acquisition d’abonnements à des ressources électroniques).
Que doivent faire les bibliothèques avec les revues qui ne suscitent pas assez de consultations ? Que doivent faire les revues avec les collègues qui ne génèrent pas assez de trafic ?
Dans les années 2000, lors des débats sur le classement des revues, l’idée d’un usage de la bibliométrie susceptible de distinguer les collègues était l’une des craintes les plus entendues. Avec la diffusion de la publication électronique et l’essor des métriques, il n’est même plus besoin de classer a priori les revues.
Les données des usages de la #recherche deviennent un élément du pilotage de cette dernière et donc des chercheurs. Elles nous concernent au plus haut point.
▻https://social.sciences.re/@ggalvezbehar/113028740594252235
#classement_de_Shanghai #alternatives #ESR #édition_scientifique