• « Pour un retour au débat scientifique et à l’intelligence collective »
    https://www.lemonde.fr/sciences/article/2020/09/30/pour-un-retour-au-debat-scientifique-et-a-l-intelligence-collective_6054272_

    Soumise à la pression de la publication, et donc de la compétition, la science connaît une crise de crédibilité majeure. L’échange entre chercheurs et le consensus qui s’en dégage sont la garantie des vérités scientifiques, rappelle un collectif dans une tribune au « Monde ».
    […]
    Comment en sommes-nous arrivés là ? Notre thèse est que le débat a peu à peu disparu car la logique de l’évaluation administrative des chercheurs les en dissuade. A partir des années 1960, avec la croissance de la recherche publique, les institutions scientifiques ont voulu se munir d’indicateurs quantitatifs de performance pour piloter leur activité. Il en a résulté un système, devenu mondial, où le but du chercheur, pour obtenir financements ou promotion, est de justifier de publications dans des journaux « prestigieu ». Le bien-fondé et les modalités de calcul de l’indicateur de prestige (le « facteur d’impact ») sont des problématiques bien connues. Cependant, selon nous, sa tare la plus nocive reste encore mal désignée : lorsque la valeur d’une production est conditionnée à la réputation du journal qui la publie, ce n’est plus le chercheur qui est créateur de valeur, mais celui qui décide de la publication : l’éditeur.

    la suite sous #paywall

    • OK, mais cela vaut aussi pour la #Sociologie alors...

      Tribune. L’épidémie de Covid-19 a mis en lumière des dysfonctionnements profonds de la science. On en attendait la connaissance fiable sur laquelle fonder les mesures efficaces et raisonnables d’une sortie de crise. Finalement, chacun aura pu trouver de quoi confirmer son préjugé au milieu d’un chaos de plus de 50 000 articles humainement impossibles à analyser, dans lequel le circuit de publication et les hommes providentiels auront failli à indiquer une direction sûre. Comment parle la science aujourd’hui ?

      La voix de la science est d’essence collective : elle est celle du consensus qui naît du débat au sein de la communauté scientifique. Aussi longtemps et passionnément que nécessaire, les chercheurs échangent arguments et expériences jusqu’à converger vers des énoncés débarrassés des préjugés des uns et des autres, en accord avec les faits observés et qui constituent la vérité scientifique du moment. Or, cette pratique fondamentale du débat a largement disparu du monde académique, au profit d’un succédané profondément différent, le « journal avec relecture par les pairs ». Ce « peer reviewing » est un processus local, interne à une publication, régie par un éditeur, où un chercheur doit se plier aux injonctions de quelques référents anonymes lors d’échanges confidentiels par mail dont le but est d’obtenir en temps compté une décision favorable d’imprimatur. Ainsi les vérités scientifiques ne sont plus des faits collectifs émergents, mais sont décrétées par un procédé analogue à un procès à huis clos. Sous l’effet délétère de ce processus de validation aléatoire, limité, conservateur, invérifiable et perméable aux conflits d’intérêt, la science dans son ensemble est entrée dans une crise existentielle majeure, dite de la reproductibilité : dans la plupart des domaines et dans une proportion alarmante, de nombreux résultats expérimentaux publiés ne peuvent pas être répliqués, et ce même par leurs auteurs.

      Comment en sommes-nous arrivés là ? Notre thèse est que le débat a peu à peu disparu car la logique de l’évaluation administrative des chercheurs les en dissuade. A partir des années 1960, avec la croissance de la recherche publique, les institutions scientifiques ont voulu se munir d’indicateurs quantitatifs de performance pour piloter leur activité. Il en a résulté un système, devenu mondial, où le but du chercheur, pour obtenir financements ou promotion, est de justifier de publications dans des journaux « prestigieux ». Le bien-fondé et les modalités de calcul de l’indicateur de prestige (le « facteur d’impact ») sont des problématiques bien connues. Cependant, selon nous, sa tare la plus nocive reste encore mal désignée : lorsque la valeur d’une production est conditionnée à la réputation du journal qui la publie, ce n’est plus le chercheur qui est créateur de valeur, mais celui qui décide de la publication : l’éditeur.

      Ce renversement engendre deux dysfonctionnements majeurs. D’une part, une minorité d’éditeurs peut contraindre la majorité à s’aligner sur sa vision et ses normes (et par exemple imposer un impératif permanent de nouveauté, faisant l’impasse sur la vérification de résultats déjà publiés ou sur le partage de résultats expérimentaux négatifs). D’autre part, la valeur scientifique devient une denrée rare, que les chercheurs souhaitent s’attribuer en publiant dans les journaux qui la dispensent. Un scientifique qui se distingue dans ce système le fait inévitablement au détriment de ses pairs. L’échange entre pairs, indispensable à la science, devient contraire aux intérêts personnels de ses agents, désormais artificiellement en concurrence. L’intelligence collective étant ainsi inhibée par une gouvernance verticale, la science tend alors à se développer horizontalement : on se cloisonne dans des sujets de niche sans concurrence, les erreurs s’accumulent sans être corrigées, les controverses stagnent, la voix de la science est celle du storytelling qui aura su séduire l’éditeur le plus prestigieux, sans confrontation avec ses détracteurs.

      Pour retrouver un développement vertical de la science, il est indispensable d’en promouvoir une gouvernance horizontale, communautaire, où le but premier du chercheur est de débattre avec ses pairs et de les convaincre. Au contraire de la compétition vide de sens induite par les règles actuelles, une gouvernance horizontale induit une « coopétition », où l’échange est dans l’intérêt de tous et produit naturellement ouverture, transparence et intelligence collective. Dans d’autres écrits, nous détaillons ses modalités concrètes, désormais techniquement possibles grâce à Internet. En résumé, nous avançons que les bonnes valeurs selon lesquelles apprécier une production scientifique sont sa validité et son importance. La validité d’une production s’établit qualitativement par le débat scientifique et peut être raisonnablement quantifiée par le degré de consensus qu’elle atteint à un moment donné. Nous proposons par ailleurs que chaque scientifique tienne librement une revue de presse de la littérature, exprimant sa vision et ses hiérarchies personnelles. L’importance d’une production en particulier se voit et se mesure alors à son degré de diffusion dans un tel écosystème.

      Ces deux mécanismes redonnent à la communauté scientifique la gestion intégrale de la science et peuvent offrir des indicateurs répondant aux besoins administratifs des institutions. Ainsi, une transition vers un tel mode d’évaluation, de plus très économe car sans intermédiaires, est principalement une question de volonté politique. Nous espérons que la France s’emparera assez tôt de ces idées et sera un moteur dans la régénération globale des processus collectifs de la science.

      Michaël Bon, chercheur et consultant ; Henri Orland, chercheur (CEA) ; Konrad Hinsen, chercheur (CNRS, CBM) ; Bernard Rentier, recteur émérite de l’université de Liège ; Jacques Lafait, directeur de recherche émérite (CNRS, Sorbonne Université) ; Tembine Hamidou, professeur assistant (université de New York) ; Jamal Atif, professeur (université Paris-Dauphine-PSL) ; Alexandre Coutte, maître de conférences (université Paris-Nanterre) ; Nicolas Morgado, maître de conférences (université Paris-Nanterre) ; Patrice Koehl, professeur (université de Californie, Davis) ; Stéphane Vautier, professeur (université de Toulouse-Jean-Jaurès) ; Jean-Paul Allouche, directeur de recherche émérite (CNRS) ; Gilles Niel, chargé de recherche (CNRS, ICGM) ; Christine Fleury, conservatrice de bibliothèques (ABES) ; Clément Stahl, chercheur (université de Paris)

      #Science #coronavirus