Un autre classement des universités, vraiment ?
Comme chaque année, au creux de l’été, le classement de Shanghai suscite les passions nationales (mollement quand même) et l’opposition des commentaires déclinistes ou autosatisfaits sur les bienfaits de la politique de “réforme” de l’enseignement supérieur depuis Valérie Pécresse.
Le Monde s’empare du sujet (▻https://www.lemonde.fr/campus/article/2024/08/15/classement-de-shanghai-2024-l-universite-paris-saclay-grimpe-encore-dans-le-) et fait un cocorico sur la “montée” de l’Université Paris Saclay, celle dont la ministre sortante de l’ESR a été la présidente. Elle doit se sentir bien…
Mais, ayant tenu compte sans doute des critiques lassées des universitaires quant à la validité plus que douteuse des #critères mis en avant et des instrumentalisations dont le classement fait l’objet, le journal de référence a pris l’initiative de proposer un #classement_alternatif, qui serait basé sur “la portée” des #articles de recherche en SHS en français. Une approche plutôt anticonformiste et qui retient l’attention. Les données sont issues de la plateforme #Cairn, qui diffuse 634 #revues essentiellement françaises, mais sous pavillon belge (sans doute pour optimiser sa fiscalité), qui a construit une infrastructure privée efficace, qui a incontestablement aidé à la structuration de la #publication_scientifique francophone. Beau coup de pub pour eux, bien joué. Mais attention quand même aux critères de mesure, à leur #biais, et à ce qu’ils nous apprennent vraiment : en distinguant l’université Paris Cité, c’est un autre masdodonte issu des réformes pécressiennes (plutôt la vague tardive fioraso-vidalienne, mais bon, l’inspiration est la même…). Quelques remarques donc sur les limites de l’exercice.
D’abord, que mesure t on ? Des “consultations”, en fait sans doute des #clics sur les liens des articles. On ne sait rien du temps de lecture : s’agit-il seulement de la lecture d’un résumé, d’une lecture plus approfondie ? On connait bien les limites de l’#impact_factor mais la prise en compte des #citations est quand même une mesure plus concrète de l’utilisation d’une référence scientifique (quand bien même le sens d’une citation peut être multiple : reconnaissance, critique, marque de complaisance ou d’appartenance à une chapelle scientifique).
Par ailleurs, les nombres de “consultations” cités et comparés, s’ils permettent de dégager des hiérarchies en termes d’#audience au sein de ce corpus entre auteurs, disciplines et universités (même si on fait complètement l’impasse sur les collaborations entre auteurs d’universités, voire de disciplines différentes), ne veulent pas dire grand chose sans comparaison avec les “consultations” d’autres corpus. C’est là qu’une comparaison avec des plateformes similaires, on n’ose pas dire concurrentes, comme #Openedition.org en France (qui diffuse 646 revues totalement en libre accès contrairement à Cairn, qui en diffuse 634), #Erudit au Canada, #Scielos en Amérique latine, et bien sûr les grandes plateformes des éditeurs scientifiques anglophones (Elsevier, Informa, etc.) serait utile pour jauger des ordres de grandeur des consultations qu’elles reçoivent… De même, une grande partie de la production scientifique est aussi consultable via les #archives_ouvertes et les réseaux sociaux académiques que sont #Academia, #ResearchGate ou autres, dont les clics et statistiques de consultation échappent à la mesure ici analysée (cf. ce post déjà ancien). On peut enfin se demander d’ailleurs si les chiffres de lecture cités pour mesurer l’audience internationale comprennent (ou pas) les lecteurs basés en France, auquel cas l’audience européenne de Cairn est elle si impressionnante ?
Concernant le classement des universités, on s’interroge sur la distinction proposée entre elles et le CNRS, qui est un établissement national qui compte de nombreuses unités de recherche dans les autres dites universités : comment les différencie-t-on ? Par ailleurs, si on reprend les chiffres cités pour les cinq premiers organismes de la liste, en comparant nombre de consultations et nombre d’auteurs, on obtient le tableau suivant :
Les variations de consultation s’expliquent principalement par l’effectif des établissements en question. Certes le ratio consultation/auteur montre une variation de l’ordre de 35%, mais il est vraisemblable que cela soit lié à la composition disciplinaire plus qu’à plus grande “qualité” de ces articles, et encore moins à une surperformance des universités en question… Est-on réellement dans une rupture avec la logique du classement de Shanghai ? On peut noter que Paris Cité est l’une de ces universités construite au forceps par le ministère de la Recherche et de l’enseignement supérieur pour atteindre une “taille critique”, tout comme d’ailleurs Lille, Sorbonne Université, Aix Marseille, Strasbourg, etc. . Le fait qu’y figurent Panthéon Sorbonne ou l’EHESS, des établissements spécialisés en SHS, n’a rien non plus pour étonner : cela semble refléter la présence d’un grande nombre d’enseignants-chercheurs et chercheurs. Difficile donc dans ces conditions de distinguer ce qui relèverait d’une “surperformance” d’un simple effet de masse. Plus fondamentalement, faut il individualiser les métriques à l’échelle des chercheurs individuels, alors que leur travail est en grande partie collectif ? sachant que les cultures disciplinaires s’y prêtent plus ou moins bien.
En réalité, le travail effectué par Le Monde, s’il montre bien que de la science (SHS) francophone se produit et se publie dans les universités – c’est toujours bien de le souligner – ne rompt pas vraiment avec la logique du classement et de la hiérarchisation propre au classement de Shanghai, aujourd’hui bien démodé et qui fait figure d’un marronnier aux feuilles qui justement brunissent en cette fin d’été : les médias friands des Jeux Olympiques cherchent à étendre la logique des médailles pour remplir les quelques semaines d’avant la rentrée…
Par ailleurs, si j’adhère totalement à l’idée de chercher à promouvoir des métriques alternatives de la circulation du travail scientifique francophone et plus largement dans les langues scientifiquement minoritaires, et de la mise en avant de manières différentes d’écrire les SHS et de produire une connaissance moins formatée et moins standardisée, il faut quand même se demander comment cette connaissance est appropriée dans le cadre de cette science et de ces SHS globalisées. Cette attente est explicite dans l’article du Monde.
De manière totalement fortuite, je suis tombé récemment sur la collection d’ouvrages Thinkers for Architects, éditée par Routledge. Il est notable de constater que sur les dix-huit titres publiés, 10 portent sur des auteurs français : Lefebvre, Virilio, Merleau-Ponty, Baudrillard, Bourdieu, Irrigaray, Foucault, Deleuze et Guattari, Derrida et Latour. Cela illustre la réalité de la circulation d’un ensemble de travaux universitaires français, ce qu’on appelle la “French theory” (à l’unité néanmoins problématique). Souvent dédaignée voire méprisée pour son jargon et les supposées dérives wokes qu’elle a suscitée, vue comme une sorte d’excentricité des campus “anglo-saxons”, cette “French theory” n’est pas toujours reconnue à sa juste valeur dans notre pays, comme une véritable contribution de l’université française au monde académique. Or, cette circulation a été rendue possible grâce à la traduction, aux circulations d’enseignement et au débat scientifique. On pourrait rétorquer que c’est un phénomène du passé : tous ces auteurs (dont une seule autrice) sont morts. Néanmoins qui peut dire si d’autres auteurs français ou francophones formés en France ne sont pas en train de connaître aujourd’hui le même destin : traduits, discutés, célébrés ? En passant, on pourrait aussi souligner que l’université de Vincennes, berceau d’une partie de ces auteurs, est exactement l’inverse de la standardisation de la production et de la transmission des connaissances que ce que promeut le classement de Shanghai, et son application stéréotypée par nos brillants énarques style V. Pécresse et consorts. La principale finalité de ce mécano académique semble être de produire des monstres bureaucratiques dont le principal critère d’évaluation est la “bonne signature” des chercheurs, afin que les logiciels compilent correctement les citations dans les bases de données de publications pour exceller dans ce type de classement.
Pour appréhender justement cette circulation en train de se faire, l’article aurait pu se pencher sur la plateforme internationale que Cairn tente de promouvoir depuis des années, et qui selon ma perception, est bien peu utile pour faciliter cette circulation de travaux francophones. Combien d’universités étrangères y sont abonnées ? Combien de “consultations” génère-t-elle ? A travers les revues auxquelles je participe comme membre de la rédaction ou comme auteur, et sur lesquelles j’ai publié des traductions anglaises, je peux témoigner d’un dispositif techniquement problématique, la même url étant par exemple utilisée pour le texte français et sa traduction anglaise, ce qui ne permet pas d’indexer correctement ces textes en anglais. Au contraire de la pratique chez Openedition.org où les traductions ont une url propre. Je doute que Cairn joue un rôle efficace sur ce plan…
Entendons-nous : réfléchir à d’autres critères d’objectivation du travail des chercheurs et chercheuses dans les universités, mettre en valeur un portail tel que Cairn, qui avec Openedition Journals a beaucoup fait pour diffuser largement, en France déjà, et au niveau international à un degré moindre, tout cela est très bien. Mais les classements proposés n’ont rien d’alternatifs en ce qu’ils reproduisent cette idée d’une hiérarchisation sur des critères simplistes, ici difficilement étalonnables et surtout reproduisant la logique de mise en concurrence au lieu de réfléchir à d’autres logiques qui font avancer la science, telles que la coopération, la formation, etc. C’est en cela que la proposition de cet article me semble manquer sa cible.
▻https://rumor.hypotheses.org/6142
#classement #université #ranking #ESR #alternative #consultations #facs #statistiques #édition_scientifique
–-
voir aussi :
Attention, un #classement peut en cacher un autre !
▻https://seenthis.net/messages/1067976