• Un autre classement des universités, vraiment ?

    Comme chaque année, au creux de l’été, le classement de Shanghai suscite les passions nationales (mollement quand même) et l’opposition des commentaires déclinistes ou autosatisfaits sur les bienfaits de la politique de “réforme” de l’enseignement supérieur depuis Valérie Pécresse.

    Le Monde s’empare du sujet (https://www.lemonde.fr/campus/article/2024/08/15/classement-de-shanghai-2024-l-universite-paris-saclay-grimpe-encore-dans-le-) et fait un cocorico sur la “montée” de l’Université Paris Saclay, celle dont la ministre sortante de l’ESR a été la présidente. Elle doit se sentir bien…

    Mais, ayant tenu compte sans doute des critiques lassées des universitaires quant à la validité plus que douteuse des #critères mis en avant et des instrumentalisations dont le classement fait l’objet, le journal de référence a pris l’initiative de proposer un #classement_alternatif, qui serait basé sur “la portée” des #articles de recherche en SHS en français. Une approche plutôt anticonformiste et qui retient l’attention. Les données sont issues de la plateforme #Cairn, qui diffuse 634 #revues essentiellement françaises, mais sous pavillon belge (sans doute pour optimiser sa fiscalité), qui a construit une infrastructure privée efficace, qui a incontestablement aidé à la structuration de la #publication_scientifique francophone. Beau coup de pub pour eux, bien joué. Mais attention quand même aux critères de mesure, à leur #biais, et à ce qu’ils nous apprennent vraiment : en distinguant l’université Paris Cité, c’est un autre masdodonte issu des réformes pécressiennes (plutôt la vague tardive fioraso-vidalienne, mais bon, l’inspiration est la même…). Quelques remarques donc sur les limites de l’exercice.

    D’abord, que mesure t on ? Des “consultations”, en fait sans doute des #clics sur les liens des articles. On ne sait rien du temps de lecture : s’agit-il seulement de la lecture d’un résumé, d’une lecture plus approfondie ? On connait bien les limites de l’#impact_factor mais la prise en compte des #citations est quand même une mesure plus concrète de l’utilisation d’une référence scientifique (quand bien même le sens d’une citation peut être multiple : reconnaissance, critique, marque de complaisance ou d’appartenance à une chapelle scientifique).

    Par ailleurs, les nombres de “consultations” cités et comparés, s’ils permettent de dégager des hiérarchies en termes d’#audience au sein de ce corpus entre auteurs, disciplines et universités (même si on fait complètement l’impasse sur les collaborations entre auteurs d’universités, voire de disciplines différentes), ne veulent pas dire grand chose sans comparaison avec les “consultations” d’autres corpus. C’est là qu’une comparaison avec des plateformes similaires, on n’ose pas dire concurrentes, comme #Openedition.org en France (qui diffuse 646 revues totalement en libre accès contrairement à Cairn, qui en diffuse 634), #Erudit au Canada, #Scielos en Amérique latine, et bien sûr les grandes plateformes des éditeurs scientifiques anglophones (Elsevier, Informa, etc.) serait utile pour jauger des ordres de grandeur des consultations qu’elles reçoivent… De même, une grande partie de la production scientifique est aussi consultable via les #archives_ouvertes et les réseaux sociaux académiques que sont #Academia, #ResearchGate ou autres, dont les clics et statistiques de consultation échappent à la mesure ici analysée (cf. ce post déjà ancien). On peut enfin se demander d’ailleurs si les chiffres de lecture cités pour mesurer l’audience internationale comprennent (ou pas) les lecteurs basés en France, auquel cas l’audience européenne de Cairn est elle si impressionnante ?

    Concernant le classement des universités, on s’interroge sur la distinction proposée entre elles et le CNRS, qui est un établissement national qui compte de nombreuses unités de recherche dans les autres dites universités : comment les différencie-t-on ? Par ailleurs, si on reprend les chiffres cités pour les cinq premiers organismes de la liste, en comparant nombre de consultations et nombre d’auteurs, on obtient le tableau suivant :

    Les variations de consultation s’expliquent principalement par l’effectif des établissements en question. Certes le ratio consultation/auteur montre une variation de l’ordre de 35%, mais il est vraisemblable que cela soit lié à la composition disciplinaire plus qu’à plus grande “qualité” de ces articles, et encore moins à une surperformance des universités en question… Est-on réellement dans une rupture avec la logique du classement de Shanghai ? On peut noter que Paris Cité est l’une de ces universités construite au forceps par le ministère de la Recherche et de l’enseignement supérieur pour atteindre une “taille critique”, tout comme d’ailleurs Lille, Sorbonne Université, Aix Marseille, Strasbourg, etc. . Le fait qu’y figurent Panthéon Sorbonne ou l’EHESS, des établissements spécialisés en SHS, n’a rien non plus pour étonner : cela semble refléter la présence d’un grande nombre d’enseignants-chercheurs et chercheurs. Difficile donc dans ces conditions de distinguer ce qui relèverait d’une “surperformance” d’un simple effet de masse. Plus fondamentalement, faut il individualiser les métriques à l’échelle des chercheurs individuels, alors que leur travail est en grande partie collectif ? sachant que les cultures disciplinaires s’y prêtent plus ou moins bien.

    En réalité, le travail effectué par Le Monde, s’il montre bien que de la science (SHS) francophone se produit et se publie dans les universités – c’est toujours bien de le souligner – ne rompt pas vraiment avec la logique du classement et de la hiérarchisation propre au classement de Shanghai, aujourd’hui bien démodé et qui fait figure d’un marronnier aux feuilles qui justement brunissent en cette fin d’été : les médias friands des Jeux Olympiques cherchent à étendre la logique des médailles pour remplir les quelques semaines d’avant la rentrée…

    Par ailleurs, si j’adhère totalement à l’idée de chercher à promouvoir des métriques alternatives de la circulation du travail scientifique francophone et plus largement dans les langues scientifiquement minoritaires, et de la mise en avant de manières différentes d’écrire les SHS et de produire une connaissance moins formatée et moins standardisée, il faut quand même se demander comment cette connaissance est appropriée dans le cadre de cette science et de ces SHS globalisées. Cette attente est explicite dans l’article du Monde.

    De manière totalement fortuite, je suis tombé récemment sur la collection d’ouvrages Thinkers for Architects, éditée par Routledge. Il est notable de constater que sur les dix-huit titres publiés, 10 portent sur des auteurs français : Lefebvre, Virilio, Merleau-Ponty, Baudrillard, Bourdieu, Irrigaray, Foucault, Deleuze et Guattari, Derrida et Latour. Cela illustre la réalité de la circulation d’un ensemble de travaux universitaires français, ce qu’on appelle la “French theory” (à l’unité néanmoins problématique). Souvent dédaignée voire méprisée pour son jargon et les supposées dérives wokes qu’elle a suscitée, vue comme une sorte d’excentricité des campus “anglo-saxons”, cette “French theory” n’est pas toujours reconnue à sa juste valeur dans notre pays, comme une véritable contribution de l’université française au monde académique. Or, cette circulation a été rendue possible grâce à la traduction, aux circulations d’enseignement et au débat scientifique. On pourrait rétorquer que c’est un phénomène du passé : tous ces auteurs (dont une seule autrice) sont morts. Néanmoins qui peut dire si d’autres auteurs français ou francophones formés en France ne sont pas en train de connaître aujourd’hui le même destin : traduits, discutés, célébrés ? En passant, on pourrait aussi souligner que l’université de Vincennes, berceau d’une partie de ces auteurs, est exactement l’inverse de la standardisation de la production et de la transmission des connaissances que ce que promeut le classement de Shanghai, et son application stéréotypée par nos brillants énarques style V. Pécresse et consorts. La principale finalité de ce mécano académique semble être de produire des monstres bureaucratiques dont le principal critère d’évaluation est la “bonne signature” des chercheurs, afin que les logiciels compilent correctement les citations dans les bases de données de publications pour exceller dans ce type de classement.

    Pour appréhender justement cette circulation en train de se faire, l’article aurait pu se pencher sur la plateforme internationale que Cairn tente de promouvoir depuis des années, et qui selon ma perception, est bien peu utile pour faciliter cette circulation de travaux francophones. Combien d’universités étrangères y sont abonnées ? Combien de “consultations” génère-t-elle ? A travers les revues auxquelles je participe comme membre de la rédaction ou comme auteur, et sur lesquelles j’ai publié des traductions anglaises, je peux témoigner d’un dispositif techniquement problématique, la même url étant par exemple utilisée pour le texte français et sa traduction anglaise, ce qui ne permet pas d’indexer correctement ces textes en anglais. Au contraire de la pratique chez Openedition.org où les traductions ont une url propre. Je doute que Cairn joue un rôle efficace sur ce plan…

    Entendons-nous : réfléchir à d’autres critères d’objectivation du travail des chercheurs et chercheuses dans les universités, mettre en valeur un portail tel que Cairn, qui avec Openedition Journals a beaucoup fait pour diffuser largement, en France déjà, et au niveau international à un degré moindre, tout cela est très bien. Mais les classements proposés n’ont rien d’alternatifs en ce qu’ils reproduisent cette idée d’une hiérarchisation sur des critères simplistes, ici difficilement étalonnables et surtout reproduisant la logique de mise en concurrence au lieu de réfléchir à d’autres logiques qui font avancer la science, telles que la coopération, la formation, etc. C’est en cela que la proposition de cet article me semble manquer sa cible.

    https://rumor.hypotheses.org/6142
    #classement #université #ranking #ESR #alternative #consultations #facs #statistiques #édition_scientifique

    –-

    voir aussi :
    Attention, un #classement peut en cacher un autre !
    https://seenthis.net/messages/1067976

  • #Typst

    Typst est un #logiciel d’#écriture et d’#édition_scientifique créé par Martin Haug et Laurenz Mädje. Il existe sous la forme d’un éditeur collaboratif en ligne avec un accès gratuit et des fonctionnalités payantes (un peu comme #Authorea), ainsi que sous la forme d’un programme en ligne de commande, pour un usage local. On peut trouver en ligne le code et une documentation détaillée.

    Je suis frappé par la vitesse avec laquelle les deux créateurs ont transformé leur projet de fin d’études en entreprise. Le marketing est plutôt malin, on situe tout de suite Typst par rapport à #Word, #Google_Docs et #LaTeX. À noter que Pandoc a très vite développé une compatibilité avec ce nouvel outil. Typst suscite clairement de l’enthousiasme dans une communauté fatiguée par des outils mal adaptés à ses besoins. Un sentiment d’efficacité se dégage de l’ensemble du projet, et on sait combien c’est important quand il s’agit de convaincre les gens de transformer leurs pratiques. Mais il reste à tenir certaines promesses, en premier lieu sur l’accessibilité des PDF : Typst a été présenté comme une amélioration possible à TeX sur ce point, or deux ans après ce n’est toujours pas le cas.

    Je n’ai pas encore essayé l’outil. Mais pour les curieux, le mémoire de Laurenz Mädje décrit la genèse de Typst, et j’y ai relevé plusieurs éléments que je partage ci-dessous.

    Pour justifier d’investir des efforts dans la création d’un nouvel outil d’écriture et d’édition scientifique, Mädje analyse les défauts de #TeX avec des mots qui frappent juste :

    « La conception datée de TeX entrave fondamentalement l’expérience utilisateur » (p. 7) […] « la compilation est lente, l’accessibilité est mauvaise, et les possibilités de mise en page sont limitées » (p. 13).

    Les deux logiciels appelés Typst – l’éditeur en ligne et le compilateur en ligne de commande – reposent sur un langage de programmation du même nom, qui s’écrit en partie comme un langage de balisage léger, proche de #Markdown :

    « Typst, c’est à la fois un langage de balisage léger et un langage de programmation complet, réunis en une seule syntaxe, au format texte » (p. 7) […] « Intégrer stylage et programmation rend la mise en forme plus simple et plus souple » (p. 68).

    C’est donc un vrai système de #programmation_éditoriale, ce qui me rappelle #Pollen, sur lequel j’avais publié une note de veille. L’intégration entre balisage et programmation existait déjà dans l’écosystème TeX avec #LuaTeX mais l’avantage de Typst est d’avoir repris la conception du système à zéro : en théorie, cela devrait permettre de développer rapidement un catalogue de fonctionnalités modulaires, comme les paquets de TeX, sur une base plus saine.

    J’ai aussi relevé quelques concepts utiles, comme le couple balisage procédural – qui indique à l’ordinateur comment procéder – et balisage descriptif – qui décrit à l’ordinateur la structure du document. Mädje souligne que le #balisage_descriptif convient particulièrement à l’édition multiformats car il permet de changer de styles sans modifier le contenu. Il distingue trois catégories de langages de balisage descriptif, suivant qu’ils sont basés sur des tags, des macros ou des caractères. La phrase “The line between data and markup is fuzzy” (p. 16) a particulièrement retenu mon attention : elle suggère que le texte, c’est de la donnée  ; et surtout, que le balisage, c’est déjà un peu de la sérialisation.

    Enfin, j’ai relevé cet argument pro-balisage (ou #anti-WYSIWYG, comme on veut) dans la conclusion :

    « Les langages de balisage ont un avantage concret sur les systèmes de composition #WYSIWYG : ils permettent aux auteurs de définir la structure du document indépendamment de son apparence et de passer automatiquement de l’une à l’autre  ; cela donne une meilleure expérience d’écriture, avec moins de travail répétitif » (p. 71).

    https://www.arthurperret.fr/veille/2024-08-29-typst.html

    #alternative

    • l’exemple de maths me fait demander pourquoi avoir redéfini tout un langage de description de formules, celui de TeX/LaTeX étant assez complet, surtout en conservant les marques ’$’ pour délimiter les formules mathématiques ! Là on se retrouve avec un truc qui ressemble mais n’est pas pareil, je pige pas l’intérêt.

      Pour le reste ça a l’air propre et bien pensé. (ah merdre, pas de paquets debian ça ça fait chier…).

      En même temps après presque 30 ans de LaTeX, quand t’as ton jeu de macros toutes prêtes pour composer à peu près n’importe quoi, des maths aux figures Tikz, se lancer dans un nouveau truc comme ça, pfffff, ça me fatigue d’avance !

    • Rédiger la thèse avec #Zettlr

      Depuis janvier, ça y est, je suis passée en mode rédaction de la #thèse. Grande étape tout court, moment crucial aussi par rapport à l’organisation de mon travail — et notamment par rapport à la question de mon outil de travail. Je travaille avec Ubuntu (plutôt qu’avec Windows ou Mac)  ; au début de la thèse, j’ai fait ce choix sans trop savoir ce qu’il allait impliquer exactement — est-ce que j’aurais les fichiers au bon format  ? est-ce que les relectures et renvois de fichiers, d’un·e collègue à un·e autre, allaient se faire sans encombre  ? est-ce que les formats disponibles sous Ubuntu étaient appropriés pour un travail aussi long et lourd que la thèse  ?

      Comme je le disais à la fin de l’article où j’explique ces hésitations, j’ai eu quelques déconvenues  : d’un côté, je me suis vraiment attachée au fonctionnement sous Ubuntu et je n’ai plus du tout envie de repasser à Windows, de l’autre je suis forcée de constater que LibreOffice Writer, que j’utilisais pour remplacer Word, a des défaillances vraiment rédhibitoires pour la rédaction de gros fichiers de thèse. Les feuilles de style créent des bugs, les révisions de texte sont mal traduites d’un ordinateur à l’autre, bref  : pour un article ça passe, pour une thèse non. J’ai eu peur de devoir laisser tomber Ubuntu  ; et puis, finalement, non  ! Je me suis enfin penchée sur ce logiciel libre dont j’entendais parler sur Twitter depuis à peu près un an, Zettlr, et il est devenu mon outil de rédaction principal  : quelques explications donc.

      [Update février 2023] Ça, c’est ma problématique perso. Mais plus j’avance dans l’usage de Zettlr, plus je pense qu’il est vraiment une option à considérer pour tout le monde, rien à voir en fait avec utilisation ou pas d’Ubuntu. Dans l’absolu, Zettlr a des vrais avantages pour la rédaction : fluidité de l’écriture, structuration argumentative du texte, stylages, gestion des bibliographies, indexations… Il faut partir de l’idée qu’il y aura quelques bidouilles informatiques à prévoir, mais elles restent de l’ordre du raisonnable, ça vaut le coup.

      https://engagees.hypotheses.org/2948

    • Je dois déjà en avoir parlé.
      On rédige tous nos compte-rendus et documents d’analyse en markdown avec Zettlr, sur Linux et Windows. On exporte en PDF avec notre propre modèle pandoc intégré dans Zettlr. On ne connaissait pas Latex, et on s’y est mis. On est tombé sur un certain nombre de limites liées à la chaîne zettlr>pandoc>latex, mais on a un résultat qui nous permet de limiter l’usage de Word à quelques derniers bidules que markdown ne peut pas gérer, parce que c’est pas fait pour.

  • Attention, un #classement peut en cacher un autre !

    L’autre jour, @lemonde a publié un article sur un classement alternatif au à celui de #Shanghai en utilisant les données de #Cairn, la plate-forme francophone de publication scientifique :

    https://www.lemonde.fr/societe/article/2024/08/15/des-universites-francaises-loin-du-miroir-de-shanghai-un-autre-classement-es

    On pourrait s’en féliciter, mais la route de l’enfer est pavée de bonnes intentions...

    Le classement était établi à partir des données de consultations des publications en ligne sur #Cairn.

    En fait, en allant sur la plate-forme, on remarque que cette dernière a été considérablement modifiée et qu’elle offre désormais des statistiques de consultation ... par auteur (voir par exemple : https://shs.cairn.info/publications-de-gabriel-galvez-behar--64066)

    Quelle drôle d’idée !

    En 2020, dans un collectif consacré à l’édition en sciences humaines (https://shs.hal.science/halshs-02937110), j’avais attiré l’attention sur le rôle des #métriques alternatives dans l’ #édition numérique et sur leurs répercussions possible sur l’ #évaluation.

    Il existait déjà des statistiques publiques de consultations ou de citations par article mais toutes les plate-formes ne le font pas. Publier de telles statistiques est donc un choix qui mérite d’être justifié ou, du moins, questionné.

    Pourquoi publier de telles statistiques individuelles ? Qu’est-ce que cela apporte à la plate-forme ? Quels sont les usages pouvant être faits en aval ?

    Ces questions mériteraient d’être posées par toute la communauté scientifique.

    Par ailleurs, que nous disent de telles statistiques sur les différentes voies de diffusion des publications et notamment les archives ouvertes ?

    Faisons une petite expérience à partir d’un article sur #Pasteur que j’ai publié dans @AnnalesHSS

    L’article est présent sur :

    #Cairn et l’article a été vu 874 fois (https://shs.cairn.info/revue-annales-2018-3-page-629)
    #CambridgeCore et l’article a été vu 124 fois (1380 pour le résumé) (https://doi.org/10.1017/ahss.2019.46)
    #HAL-SHS en version pre-print : 977 consultations (mais 2402 téléchargements) (https://shs.hal.science/halshs-01267638)

    Bien entendu, ces données ne sont probablement pas homogènes (même si Cairn et CambridgeCore suivent la « norme » COUNTER, j’y reviendrai).

    Établir une analyse (et a fortiori un classement) sur la base d’une seule source statistique offre donc une vue complètement partielle. En toute rigueur, il faudrait obtenir une perspective consolidée. Mais selon quelle méthode ?

    Du côté des chercheurs, la question se pose de savoir s’il ne faut pas mettre tous ses œufs dans le même panier pour gagner en #visibilité

    Mais surtout, il faudrait se demander à quoi servent ces statistiques et pourquoi rendre publiques les données individuelles.

    Pour engager le débat, il n’est pas inutile de regarder ce que dit l’organisation à but non-lucratif Counter Metrics (https://cop5.countermetrics.org/en/5.1/00-foreword.html) qui fournit une « norme » de mesure de recherche et d’usage des publications électroniques.

    Il s’agit notamment de répondre au besoin des bibliothèques et des consortia pour évaluer leur retours sur #investissements (en matière d’acquisition d’abonnements à des ressources électroniques).

    Que doivent faire les bibliothèques avec les revues qui ne suscitent pas assez de consultations ? Que doivent faire les revues avec les collègues qui ne génèrent pas assez de trafic ?

    Dans les années 2000, lors des débats sur le classement des revues, l’idée d’un usage de la bibliométrie susceptible de distinguer les collègues était l’une des craintes les plus entendues. Avec la diffusion de la publication électronique et l’essor des métriques, il n’est même plus besoin de classer a priori les revues.

    Les données des usages de la #recherche deviennent un élément du pilotage de cette dernière et donc des chercheurs. Elles nous concernent au plus haut point.

    https://social.sciences.re/@ggalvezbehar/113028740594252235

    #classement_de_Shanghai #alternatives #ESR #édition_scientifique

  • Comme si tout le reste n’était pas déjà suffisant (pour un petit aperçu, vous pouvez rester sur seenthis : https://seenthis.net/tag/elsevier), voici que je découvre que :
    Scientists : Elsevier has a shocking amount of data about you.
    https://fediscience.org/@ct_bergstrom/113010261685808797

    –—

    Welcome to Hotel Elsevier : you can check-out any time you like … not

    In December 2021, Robin Kok wrote a series of tweets about his Elsevier data access request. I did the same a few days later. This here is the resulting collaborative blog post, summarizing our journey in trying to understand what data Elsevier collects; what data Elsevier has collected on us two specifically; and trying to get this data deleted. A PDF version of this blog post is also available.

    Elsevier, data kraken

    Everybody in academia knows Elsevier. Even if you think you don’t, you probably do. Not only do they publish over 2,500 scientific journals, but they also own the citation database Scopus, as well as the ScienceDirect collection of electronic journals from which you get your papers. That nifty PURE system your university wants you to use to keep track of your publications and projects? You guessed it: Elsevier. And what about that marvelous reference manager, Mendeley? Elsevier bought it in 2013. The list goes on and on.

    But what exactly is Elsevier? We follow the advice of an Elsevier spokesperson: “if you think that information should be free of charge, go to Wikipedia”. Let’s do that! Wikipedia, in their core summary section, introduces Elsevier as “a Netherlands-based academic publishing company specializing in scientific, technical, and medical content.”

    The intro continues:

    And it’s not just rent-seeking. Elsevier admitted to writing “sponsored article compilation publications, on behalf of pharmaceutical clients, that were made to look like journals and lacked the proper disclosures“; offered Amazon vouchers to a select group of researchers to submit five star reviews on Amazon for certain products; manipulated citation reports; and is one of the leading lobbyists against open access and open science efforts. For this, Elsevier’s parent company, RELX, even employs two full-time lobbyists in the European Parliament, feeding “advice” into the highest levels of legislation and science organization. Here is a good summary of Elsevier’s problematic practices—suffice it to say that they’re very good at making profits.

    As described by Wikipedia, one way to make profits is Elsevier’s business as an academic publisher. Academics write articles for Elsevier journals for free and hand over copyright; other academics review and edit these papers for free; and Elsevier then sells these papers back to academics. Much of the labor that goes into Elsevier products is funded by public money, only for Elsevier to sell the finished products back e.g. to university libraries, using up even more public money.

    But in the 2020s—and now we come to the main topic of this piece—there is a second way of making money: selling data. Elsevier’s parent company RELX bills itself as “a global provider of information-based analytics and decision tools for professional and business customers”. And Elsevier itself has been busy with rebranding, too:

    This may sound irrelevant to you as a researcher, but here we show how Elsevier helps them to monetize your data; the amount of data they have on you; and why it will require major steps to change this troubling situation.
    Data access request

    Luckily, folks over at Elsevier “take your privacy and trust in [them] very seriously”, so we used the Elsevier Privacy Support Hub to start an “access to personal information” request. Being in the EU, we are legally entitled under the European General Data Protection Regulation (GDPR) to ask Elsevier what data they have on us, and submitting this request was easy and quick.

    After a few weeks, we both received responses by email. We had been assigned numbers 0000034 and 0000272 respectively, perhaps implying that relatively few people have made use of this system yet. The emails contained several files with a wide range of our data, in different formats. One of the attached excel files had over 700,000 cells of data, going back many years, exceeding 5mb in file size. We want to talk you through a few examples of what Elsevier knows about us.
    They have your data

    To start with, of course they have information we have provided them with in our interactions with Elsevier journals: full names, academic affiliations, university e-mail addresses, completed reviews and corresponding journals, times when we declined review requests, and so on.

    Apart from this, there was a list of IP addresses. Checking these IP addresses identified one of us in the small city we live in, rather than where our university is located. We also found several personal user IDs, which is likely how Elsevier connects our data across platforms and accounts. We were also surprised to see multiple (correct) private mobile phone numbers and e-mail addresses included.

    And there is more. Elsevier tracks which emails you open, the number of links per email clicked, and so on.

    We also found our personal address and bank account details, probably because we had received a small payment for serving as a statistical reviewer1. These €55 sure came with a privacy cost larger than anticipated.

    Data called “Web Traffic via Adobe Analytics” appears to list which websites we visited, when, and from which IP address. “ScienceDirect Usage Data” contains information on when we looked at which papers, and what we did on the corresponding website. Elsevier appears to distinguish between downloading or looking at the full paper and other types of access, such as looking at a particular image (e.g. “ArticleURLrequestPage”, “MiamiImageURLrequestPage”, and “MiamiImageURLreadPDF”), although it’s not entirely clear from the data export. This leads to a general issue that will come up more often in this piece: while Elsevier shared what data they have on us, and while they know what the data mean, it was often unclear for us navigating the data export what the data mean. In that sense, the usefulness of the current data export is, at least in part, questionable. In the extreme, it’s a bit like asking google what they know about you and they send you a file full of special characters that have no meaning to you.

    Going back to what data they have, next up: Mendeley. Like many, both of us have used this reference manager for years. For one of us, the corresponding tab in the excel file from Elsevier contained a whopping 213,000 lines of data, from 2016 to 2022. For the other, although he also used Mendeley extensively for years, the data export contained no information on Mendeley data whatsoever, a discrepancy for which we could not find an explanation. Elsevier appears to log every time you open Mendeley, and many other things you do with the software—we found field codes such as “OpenPdfIn InternalViewer”, “UserDocument Created”, “DocumentAnnotation Created”, “UserDocument Updated”, “FileDownloaded”, and so on.

    They use your data

    Although many of these data points seem relatively innocent at first, they can easily be monetized, because you can extrapolate core working hours, vacation times, and other patterns of a person’s life. This can be understood as detailed information about the workflow of academics – exactly the thing we would want to know if, like Elsevier, our goal was to be a pervasive element in the entire academic lifecycle.

    This interest in academic lifecycle data is not surprising, given the role of Elsevier’s parent company RELX as a global provider of information-based analytics and decision tools, as well as Elsevier’s rebranding towards an Information Analytics Business. Collecting data comes at a cost for a company, and it is safe to assume that they wouldn’t gather data if they didn’t intend to do something with it.

    One of the ways to monetize your data is painfully obvious: oldschool spam email tactics such as trying to get you to use more Elsevier services by signing you up for newsletters. Many academics receive unending floods of unsolicited emails and newsletters by Elsevier, which prompted one of us to do the subject access request in the first place. In the data export, we found a huge list of highly irrelevant newsletters we were unknowingly subscribed to—for one of us, the corresponding part of the data on “communications” has over 5000 rows.

    You agreed to all of this?

    Well, actually, now that you ask, we don’t quite recall consenting to Mendeley collecting data that could be used to infer information on our working hours and vacation time. After all, with this kind of data, it is entirely possible that Elsevier knows our work schedule better than our employers. And what about the unsolicited emails that we received even after unsubscribing? For most of these, it’s implausible that we would have consented. As you can see in the screenshot above, during one day (sorry, night!), at 3:20am, within a single minute, one of us “signed up” to no fewer than 50 newsletters at the same time – nearly all unrelated to our academic discipline.

    Does Elsevier really have our consent for these and other types of data they collected? The data export seems to answers this question, too, with aptly named columns such as “no consent” and “unknown consent”, the 0s and 1s probably marking “yes” or “no”.

    You can check-out any time you like…?

    Elsevier knows a lot about us, and the data they sent us in response to our access request may only scratch the surface. Although they sent a large volume of data, inconsistencies we found (like missing Mendeley data from one of us) make us doubt whether it is truly all the data they have. What to do? The answer seems straightforward: we can just stop donating our unpaid time and our personal and professional data, right? Indeed, more than 20,000 researchers have already taken a stand against Elsevier’s business practices, by openly refusing to publish in (or review / do editorial work for) Elsevier.

    But that does not really solve the problem we’re dealing with here. A lot of your data Elsevier might monetize is data you cannot really avoid to provide as an academic. For example, many of you will access full texts of papers through the ScienceDirect website, which often requires an institutional login. Given that the login is uniquely identifiable, they know exactly which papers you’ve looked at, and when. This also pertains to all of the other Elsevier products, some of which we briefly mentioned above, as well as emails. Many emails may be crucial for you (e.g. from an important journal), and Elsevier logs what emails you open and whether you click on links. Sure, this is probably standard marketing practice and Elsevier is not the only company doing it, but it doesn’t change the fact that as an active academic, you basically cannot avoid giving them data they can sell. In fact, just nominating someone for peer review can be enough to get them on their list. Did you ever realize that for most reviews you’re invited to, you actually never consented to being approached by the given journal?

    Elsevier has created a system where it seems impossible to avoid giving them your data. Dominating or at least co-dominating the market of academic publishing, they exploited free labor of researchers, and charged universities very high amounts of money so researchers could access scientific papers (which, in part, they wrote, reviewed and edited themselves). This pseudo-monopoly made Elsevier non-substitutable, which now allows their transition into a company selling your data.

    Worse, they say that “personal information that is integral to editorial history will be retained for as long as the articles are being made available”, as they write in their supporting information document on data collection and processing we received as part of the access request. What data exactly are integral to editorial history remains unclear.

    If not interacting with Elsevier is not a sustainable solution in the current infrastructure, maybe some more drastic measures are required. So one of us took the most drastic step available on Elsevier’s privacy hub: a deletion of personal information request.

    This was also promptly handled, but leaves two core concerns. First, it is not entirely clear to us what information was retained by Elsevier, for example, because they consider it “integral to editorial history”. And second, how sustainable is data deletion if all it takes to be sucked back into the Elsevier data ecosystem again is one of your colleagues recommending you as a reviewer for one of the 600,000 articles Elsevier publishes per year?

    Conclusion

    Some of the issues mentioned here, such as lack of consent, seem problematic to us from the perspective of e.g. European data protection laws. Is it ok for companies to sign us up to newsletters without consent? Is it ok to collect and retain personal data indefinitely because Elsevier argues it is necessary?

    And when Elsevier writes in the supporting information that they do “not undertake any automated decision making in relation to your personal information” (which may violate European laws), can that be true when they write, in the same document, that they are using personal information to tailoring experiences? “We are using your personal data for […] enhancing your experience of those products, for example by providing personalized recommendations based on your use of the products.”

    We are not legal scholars, and maybe there is no fire here. But from where we stand, there seems to be an awful lot of smoke. We hope that legal and privacy experts can bring clarity to the questions we raise above—because we simply don’t know what to do about a situation that is becoming increasingly alarming.

    https://eiko-fried.com/welcome-to-hotel-elsevier-you-can-check-out-any-time-you-like-not

    #données #édition_scientifique #Scopus #ScienceDirect #RELX #information_analytics #business

  • More academic publishers are doing AI deals

    A week after #Taylor_&_Francis sold authors’ work to #Microsoft AI for $10 million without asking or paying them, the Bookseller surveyed other academic publishers to see if they were cutting similar deals in the name of “AI research.” And, of course, they are. [The Bookseller, archive]

    #Wiley and #Oxford_University_Press confirmed AI partnerships. But they’re in completely noble causes! (And a big bag of cash.)

    Wiley said “it is in the public interest for these emerging technologies to be trained on high-quality, reliable information.” Oxford University Press wants to “champion the vital role that researchers have in an AI-enabled world.”

    Cambridge University Press said it’s talking to authors before making deals, so that’s nice.

    Pearson declined to comment. But CEO Omar Abbosh has called AI “an important driver of growth.” So have a guess. [The Bookseller, archive]

    Pan Macmillan, Hachette, and HarperCollins confirmed that they have not yet poured authors’ work into the AI shredders.

    Some publishers promise authors opt-ins and remuneration. But we suspect that feeding academic work to AI will not go so well. It likely means a loss of citations — authors won’t get credited — and original work will get taken out of context or otherwise mangled, because LLMs process words the way a blender processes food.

    https://pivot-to-ai.com/2024/08/04/more-academic-publishers-are-doing-ai-deals
    #édition_scientifique #AI #IA #intelligence_artificielle #recherche #ESR #Cambridge_University_Press #droits_d'auteur

  • Academic journals are a lucrative scam – and we’re determined to change that | Peer review and scientific publishing | The Guardian
    https://amp-theguardian-com.cdn.ampproject.org/c/s/amp.theguardian.com/commentisfree/article/2024/jul/16/academic-journal-publishers-universities-price-s

    Cet article est très bien car il fait un résumé de la situation actuelle de l’édition de revues scientifiques.
    Le problème est que j’ai écrit grosso modo la même chose il y a plus de 20 ans, qu’avant moi Stevan Harnad, Jean-Claude Guédon ou Peter Suber ont écrit déjà la même chose.
    Et si peu change en ce domaine...
    Il y a un paragraphe dans cet article qui dit peut être le pourquoi. Je le remets ici. Mais ça vaut le coup de lire tout l’article.

    academics still face a massive collective action problem: we want a new arrangement but each of us, individually, is strongly incentivised to stick with the status quo. Career advancement depends heavily on publishing in journals with established name recognition and prestige, and these journals are often owned by commercial publishers. Many academics – particularly early-career researchers trying to secure long-term employment in an extremely difficult job market – cannot afford to take a chance on new, untested journals on their own.

    On en est là :
    Restriction des crédits à l’embauche = déversement des crédits à des entreprises prédatrices de la recherche.
    Insécurité des chercheurs et chercheuses = moindre innovation scientifique.

    Giant publishers are bleeding universities dry, with profit margins that rival Google’s. So we decided to start our own

    Arash Abizadeh is a philosopher and the Angus professor of political science at McGill University, Canada

    Tue 16 Jul 2024 08.00 EDT

    Share on Facebook

    Share on Twitter
    Share via Email

    If you’ve ever read an academic article, the chances are that you were unwittingly paying tribute to a vast profit-generating machine that exploits the free labour of researchers and siphons off public funds.

    The annual revenues of the “big five” commercial publishers – Elsevier, Wiley, Taylor & Francis, Springer Nature, and SAGE – are each in the billions, and some have staggering profit margins approaching 40%, surpassing even the likes of Google. Meanwhile, academics do almost all of the substantive work to produce these articles free of charge: we do the research, write the articles, vet them for quality and edit the journals.

    Not only do these publishers not pay us for our work; they then sell access to these journals to the very same universities and institutions that fund the research and editorial labour in the first place. Universities need access to journals because these are where most cutting-edge research is disseminated. But the cost of subscribing to these journals has become so exorbitantly expensive that some universities are struggling to afford them. Consequently, many researchers (not to mention the general public) remain blocked by paywalls, unable to access the information they need. If your university or library doesn’t subscribe to the main journals, downloading a single paywalled article on philosophy or politics can cost between £30 and £40.

    The commercial stranglehold on academic publishing is doing considerable damage to our intellectual and scientific culture. As disinformation and propaganda spread freely online, genuine research and scholarship remains gated and prohibitively expensive. For the past couple of years, I worked as an editor of Philosophy & Public Affairs, one of the leading journals in political philosophy. It was founded in 1972, and it has published research from renowned philosophers such as John Rawls, Judith Jarvis Thomson and Peter Singer. Many of the most influential ideas in our field, on topics from abortion and democracy to famine and colonialism, started out in the pages of this journal. But earlier this year, my co-editors and I and our editorial board decided we’d had enough, and resigned en masse.
    Is it the beginning of the end for scientific publishing? – podcast

    We were sick of the academic publishing racket and had decided to try something different. We wanted to launch a journal that would be truly open access, ensuring anyone could read our articles. This will be published by the Open Library of Humanities, a not-for-profit publisher funded by a consortium of libraries and other institutions. When academic publishing is run on a not-for-profit basis, it works reasonably well. These publishers provide a real service and typically sell the final product at a reasonable price to their own community. So why aren’t there more of them?

    To answer this, we have to go back a few decades, when commercial publishers began buying up journals from university presses. Exploiting their monopoly position, they then sharply raised prices. Today, a library subscription to a single journal in the humanities or social sciences typically costs more than £1,000 a year. Worse still, publishers often “bundle” journals together, forcing libraries to buy ones they don’t want in order to have access to ones they do. Between 2010 and 2019, UK universities paid more than £1bn in journal subscriptions and other publishing charges. More than 90% of these fees went to the big five commercial publishers (UCL and Manchester shelled out over £4m each). It’s worth remembering that the universities funded this research, paid the salaries of the academics who produced it and then had to pay millions of pounds to commercial publishers in order to access the end product.

    Even more astonishing is the fact these publishers often charge authors for the privilege of publishing in their journals. In recent years, large publishers have begun offering so-called “open access” articles that are free to read. On the surface, this might sound like a welcome improvement. But for-profit publishers provide open access to readers only by charging authors, often thousands of pounds, to publish their own articles. Who ends up paying these substantial author fees? Once again, universities. In 2022 alone, UK institutions of higher education paid more than £112m to the big five to secure open-access publication for their authors.

    This trend is having an insidious impact on knowledge production. Commercial publishers are incentivised to try to publish as many articles and journals as possible, because each additional article brings in more profit. This has led to a proliferation of junk journals that publish fake research, and has increased the pressure on rigorous journals to weaken their quality controls. It’s never been more evident that for-profit publishing simply does not align with the aims of scholarly inquiry.

    There is an obvious alternative: universities, libraries, and academic funding agencies can cut out the intermediary and directly fund journals themselves, at a far lower cost. This would remove commercial pressures from the editorial process, preserve editorial integrity and make research accessible to all. The term for this is “diamond” open access, which means the publishers charge neither authors, editors, nor readers (this is how our new journal will operate). Librarians have been urging this for years. So why haven’t academics already migrated to diamond journals?
    ‘Too greedy’: mass walkout at global science journal over ‘unethical’ fees

    The reason is that such journals require alternative funding sources, and even if such funding were in place, academics still face a massive collective action problem: we want a new arrangement but each of us, individually, is strongly incentivised to stick with the status quo. Career advancement depends heavily on publishing in journals with established name recognition and prestige, and these journals are often owned by commercial publishers. Many academics – particularly early-career researchers trying to secure long-term employment in an extremely difficult job market – cannot afford to take a chance on new, untested journals on their own.

    This is why, as editors of one of our field’s leading journals, we feel a strong responsibility to help build collective momentum towards a better arrangement: a publishing model that no longer wastes massive amounts of public resources feeding profits to private corporations, secures editorial independence against the pressures of profit-making and makes research available to everyone, free of charge. This isn’t just an academic problem. A revolution in the publishing landscape could also help stem the tide of disinformation and propaganda in the public sphere. Such an alternative is available, but it’s hard to get there. We want to change that.

    Arash Abizadeh is a philosopher and the Angus Professor of Political Science at McGill University, Canada

    #Open_access #Revues_scientifiques #Edition_scientifique #Accès_libre #Communs_connaissance

  • Si stanno dimettendo in blocco molte redazioni di riviste scientifiche. L’ultima è «Philosophy & Public Affairs». Tra i dimissionari c’è il premio Nobel Amartya Sen. Sta esplodendo il conflitto tra editoria for profit e open access: o l’uno o l’altra.

    https://twitter.com/andcapocci/status/1795336420204372301

    Editors at Philosophy & Public Affairs Resign ; Will Launch New OA Journal

    The executive, associate, and advisory editors and all of the editorial board members of one of the most influential journals in moral and political philosophy, Philosophy & Public Affairs, have resigned en masse.

    According to their statement (below), crucial aims of scholarly journals are “not well-served by commercial publishing.” Philosophy & Public Affairs is published by Wiley, the sixth largest publishing corporation in the world by revenue (over $2 billion annually).

    The outgoing editors and editorial board members will be launching a new diamond open-access journal to be published by Open Library of Humanities (OLH), and will be occupying at the new journal the same positions they held at Philosophy & Public Affairs. (Current editor-in-chief of Philosophy & Public Affairs, Anna Stilz, is not among the statement’s signatories. In answer to an inquiry about that, she replied, “I cannot comment on this at this time.” That said, it is worth noting that Stilz has been publicly critical of Wiley in the past—see, for example, the updates on this post.)

    Readers may recall the similar resignation last year of the editorial team at the Journal of Political Philosophy, another Wiley journal, and that team’s creation of Political Philosophy, also a diamond open-access journal published by OLH. At least 11 Wiley journals have seen mass editorial resignations since 2018, according to Retraction Watch.

    The as-of-yet-unnamed new journal will be open for submissions beginning in September.

    In the statement below, the editors and editorial board members announce their resignation, explain their reasons for it and for their creation of an open-access journal, and discuss issues related to submissions currently under review at Philosophy & Public Affairs.

    The following is a statement from the executive, associate, and advisory editors and all the members of the editorial board of Philosophy & Public Affairs.

    We are unanimously resigning from our editorial roles at Philosophy & Public Affairs, published by Wiley, and launching a new diamond open-access journal published by Open Library of Humanities (OLH). All of us will play the same editorial roles in the new journal and will retain the aim of publishing the best philosophical work touching on matters of public importance.

    We take this step because we believe that scholarly journals—including our own—serve important purposes, and that these purposes are not well-served by commercial publishing. For three decades now, academic journals have suffered from their ownership by for-profit publishers, who have exploited their monopoly position to sharply raise prices, unduly burdening subscribing libraries and shutting out other institutions and individuals from access to research. The recent rise of the author-funded “open access” model has only reinforced academic inequality, since scholars with access to fewer resources are unable to pay the fees that make their work freely accessible; it has also incentivized commercial publishers to try to publish as many articles as possible and so to pressure rigorous journals to weaken or abandon their quality controls.

    Faced with this conflict between purpose and business model, we have decided to embrace the purpose and move to an alternative model.

    The alternative—which our librarian colleagues have been urging for some time—is for libraries, universities, and other academic institutions to offer direct support for the publication of open-access journals, which are guided by independent scholarly judgment and freely available for authors and readers. We are delighted to have found precisely this model at OLH, an award-winning diamond open-access publisher supported by a consortium of libraries and funding agencies.

    If diamond open-access journals are so good, why are they not already dominant? Partly because we all have day jobs and transitions take time. In addition, our careers depend on publishing in journals with name recognition, reputation, and high impact factors. These publications are now typically owned by commercial publishers. Colleagues often cannot afford to take a chance on untested journals. This is why, as editors of one of the leading journals in our field, we feel a strong responsibility to move toward a new, better, arrangement.

    Our plan, if Wiley permits it, is to complete the reviews for all revised submissions received prior to this announcement. We apologize to authors who recently submitted manuscripts to Philosophy & Public Affairs, and we recognize the especially high cost to authors who have been revising their manuscripts, but who have not yet resubmitted. We very much regret these costs but saw no realistic way to avoid them. We hope to make the new journal worthy of these costs.

    We plan to launch the new journal (whose name will be announced shortly) and begin accepting submissions in September 2024. Please send us your best work in moral and political philosophy and adjacent fields, take note of our migration in your hiring, tenure, and promotion decisions, and encourage your colleagues to do the same.

    We are excited to embark on this new adventure. We hope you share our excitement and join us in making this new venture a great success.

    Signed,

    Outgoing Executive Editors

    Jonathan Quong, University of Southern California, USA
    Patrick Tomlin, University of Warwick, UK

    Outgoing Associate Editors

    Arash Abizadeh, McGill University, Canada
    Nico Cornell, University of Michigan, USA
    Garrett Cullity, Australian National University
    Marc Fleurbaey, Paris School of Economics, France
    Johann Frick, University of California, Berkeley, USA
    Joe Horton, University College London, UK
    Sophia Moreau, University of Toronto, Canada
    Kristi Olson, Bowdoin College, USA
    Japa Pallikkathayil, University of Pittsburgh, USA
    Gina Schouten, Harvard University, USA
    Zofia Stemplowska, University of Oxford, UK
    Adam Swift, University College London, UK

    Outgoing Advisory Editors

    Charles R. Beitz, Princeton University, USA
    Joshua Cohen, Apple University, University of California, Berkeley, USA
    Alan Patten, Princeton University, USA
    Arthur Ripstein, University of Toronto, Canada
    Seana Shiffrin, University of California, Los Angeles, USA
    R. Jay Wallace, University of California, Berkeley, USA

    Outgoing Editorial Board

    Elizabeth Anderson, University of Michigan, USA
    Cheshire Calhoun, Arizona State University, USA
    David Estlund, Brown University, USA
    Archon Fung, Harvard Kennedy School, USA
    Barbara Herman, University of California, Los Angeles, USA
    Pamela Hieronymi, University of California, Los Angeles, USA
    Frances Myrna Kamm, Rutgers University, USA
    Niko Kolodny, University of California, Berkeley, USA
    Jeff McMahan, Oxford University, UK
    Liam Murphy, New York University, USA
    Debra Satz, Stanford University, USA
    Samuel Scheffler, New York University, USA
    Amartya Sen, Harvard University, USA
    Tommie Shelby, Harvard University, USA
    Amia Srinivasan, Oxford University, UK
    Jeremy Waldron, New York University, USA
    Stuart White, Oxford University, UK
    Gideon Yaffe, Yale University, USA

    https://dailynous.com/2024/05/22/editors-at-philosophy-will-launch-new-oa-journal

    #édition_scientifique #revues_scientifiques #revues_prédatrices #recherche #université #ESR #résistance #démission #Wiley

    –-

    ajouté à la métaliste sur la #publication_scientifique :
    https://seenthis.net/messages/1036396

  • #Édition_scientifique : #accord national de 33 M€ annuels avec #Elsevier (#Abes, #Couperin, #MESR)

    L’Abes, Couperin et le MESR annoncent l’attribution d’un marché national à l’éditeur Elsevier d’un montant annuel de 33 M€, le 30/04/2024. L’accord, négocié par Couperin et porté par l’Abes, est signé pour quatre ans…

    (#paywall)

    https://education.newstank.fr/article/view/323526/edition-scientifique-accord-national-33-annuels-elsevier-abes-cou
    #France #budget #recherche #revues_scientifiques #revues_prédatrices #ESR #université #publication_scientifique

    –-

    ajouté à la une métaliste sur la #publication_scientifique :
    https://seenthis.net/messages/1036396

    • Signature d’un #accord global de lecture et de publication avec l’éditeur #Elsevier

      L’Agence bibliographique de l’enseignement supérieur (Abes) a signé un marché de portée nationale avec l’éditeur Elsevier, dans le cadre de la négociation menée par le consortium des établissements d’enseignement supérieur et de recherche Couperin (marché notifié le 30 avril 2024).

      Cet accord, d’un montant annuel à hauteur de 33 millions d’euros, ouvre pour l’ensemble des établissements à mission d’enseignement supérieur et de recherche le service de publication en accès ouvert sans frais supplémentaires pour les auteurs dans la majorité des revues Elsevier hybrides ou entièrement en accès ouvert. Le marché porté par l’Abes compte 241 établissements abonnés, parmi lesquels 44 à titre gratuit, chiffre en hausse depuis la mise en place de la licence nationale. Cet accord est soutenu par le ministère de l’Enseignement supérieur et de la Recherche (MESR).

      L’accord est signé pour une période de 4 ans (2024-2027), sans évolution tarifaire du prix de l’abonnement en 2024, et avec une hausse limitée à 1 % les années suivantes, et comprend trois volets :

      - Service de lecture, pour tous les articles publiés dans les revues de la Complete Freedom Collection (incluant quatre titres Lancet), la collection Bibliothèque Médicale Française, les 5 titres Journal of the American College of Cardiology (JACC) et, pour certaines institutions ayant pris l’option, des titres Cell Press et des titres-à-titres sélectionnés par ces mêmes institutions ;
      - Service de publication en accès ouvert immédiat sans frais pour les auteurs de correspondance des membres de l’accord, dans une liste de près de 2 500 titres éligibles, dont 676 entièrement en accès ouvert. Les droits à publication sans frais supplémentaires s’élèvent à plus de 11 000 articles par an et ont été calculés pour couvrir la totalité de la publication française ;
      - Service d’archivage sécurisant les droits d’accès perpétuels sur le contenu souscrit 2024-2027 sur la plateforme d’archivage national PANIST, et enrichissant la plateforme Istex avec les articles publiés jusqu’en 2023 en autorisant la fouille de textes.

      Cet accord s’inscrit dans le cadre des activités menées par le consortium en faveur du développement de la science ouverte et de la maîtrise des dépenses de publication des établissements. En intégrant les frais de publication (APC) et en supprimant les factures associées, cet accord facilite, pour les établissements qui le souhaitent, l’accès à la publication en libre accès immédiat.

      Le consortium Couperin a déjà négocié des accords de lecture et de publication avec d’autres éditeurs, comme EDP Sciences en 2018 et 2022 et Wiley en 2022. Afin de favoriser la « bibliodiversité », des négociations sont également en cours avec des éditeurs entièrement en accès ouvert tels que PLOS et Copernicus.

      Retrouvez plus d’informations ici : https://www.couperin.org/category/negociations/accords-specifiques-so

      https://www.enseignementsup-recherche.gouv.fr/fr/signature-d-un-accord-global-de-lecture-et-de-publica

  • #Elisabeth_Bik, expert in scientific integrity: ‘We need to slow down scientific publishing’

    The Dutch microbiologist has been voluntarily searching for duplicate, erroneous or retouched academic images for more than 10 years and warning universities and scientific journals about it.

    Elisabeth Bik, 57, does the work of a detective. She spends hours reading and rereading documents, delving into pages, making notes, asking questions and solving cases. But her cases have nothing to do with murders, scams, robberies, infidelities or state secrets, but rather science. A microbiologist by profession, she has been a scientific integrity consultant since 2019 and has revealed academic errors in thousands of scientific articles. Her analyses focus on images that accompany a research paper that may have been retouched or duplicated by the authors, either by mistake or for fraudulent purposes. Bik, who speaks to EL PAÍS by video call, believes that the publication of scientific articles has become an unstoppable and accelerated wheel and that it must be slowed down to prevent a rise in falsehoods and manipulations.

    Question. What led you to your interest in fraud in scientific literature?

    Answer. One day I read about plagiarism, I took a sentence from an article I had written and put it in quotes in Google Scholar. The result was not only my own paper, but there were two other hits: one was in another article and the other was in a book chapter. The authors, who were from Italy, had taken two of my paragraphs and also paragraphs from other authors and built a new article by stealing a paragraph here and a paragraph there. That made me very angry, so I started searching for more examples of plagiarism. It was like a hairball, you find one thing and you start pulling and you find more.

    Q. And the manipulated images?

    A. By accident, I found in a PhD thesis not only plagiarized text, but also duplicated images. There were three photos and they were all the same, but one was mirrored, it was a mirror image but recognizable. I thought, I’ve seen this before. Then I switched from looking for plagiarized articles to looking for image duplication because it’s faster. Plagiarism took time, you have to put each sentence in Google Scholar and it was very slow.

    Q. How many articles have you analyzed?

    A. I searched 20,000 papers and found around 800 of them to contain these duplications. By now, about half of them have been corrected or retracted. I reported them in 2015, nine years ago, although I did not report them all at once. After five years, about 30% had been corrected or retracted and now it is about 50%. Many of these articles are still being corrected or retracted.

    It’s not always clear whether problems in images are fraud or an honest error

    Q. Do you consider this a high or low number of corrections?

    A. Now it is approximately half, but the fact that before most of these articles had not been acted up was very surprising and a disturbingly low [correction] number. I was frustrated by the lack of responses from the journals. These numbers are still going up because I’m sending reminders and calling them out on Twitter: “Hey, this paper I reported in 2015, you still haven’t done anything.”

    Q. What do you think the reason for this is?

    A. There could be a multitude of reasons. Sometimes an editor, especially if it’s from a smaller journal, might have never had to deal with suspicions of misconduct or a correction. And they just don’t know what to do. They might contact the author, but maybe that person moved to another university or they have a very common name and they are not sure if the person is the same person who wrote the paper 10 years ago. Or the author may send a reply and say, “Oh yeah, sorry, here are some new images.” And then the editor thinks: “Well, case closed.” But they don’t really address it. They feel that the case has been closed, but they don’t report it to me, for example.

    Q. What is considered a fraudulent scientific image?

    A. It is not always clear if problems in images are fraudulent or an honest error. I have three categories of duplications that I look at. One is when the exact same photo has been used to represent figure one and figure three. It’s the same photo, but they are representing different experiments. That could be an honest error, somebody grabs the wrong photo. The second is whether the images overlap or are rotated or shifted or stretched. It’s a little more likely that that was done on purpose, with the intent to mislead, especially when it’s a rotated photo. That usually doesn’t happen by accident. And the third type is when within a photo you see duplicated bands or cells or tissues. That is done intentionally, the cells don’t use Photoshop.

    Q. Why does someone duplicate the image of a cell with Photoshop?

    A. Sometimes it is to hide a crack or a hair or some dust on the lens. But it could also be intentionally to make it look like there are more cells or fewer cells. So they copy the background over some cells, for example. You never [fully] know why it was done or if it was fraud. We may have an idea if something was done intentionally, but there could be an innocent reason behind it. For me, it’s hard to know. Some cases are very obvious that it was misconduct, but in most, you’re not quite sure.

    Q. What happens next?

    A. The editor needs to ask the author and the author needs to produce the original photos. I’ve seen cases where the author says there was a crack in a corner and they patched it up with some background tissues. In most cases, only the institution can do an investigation. They need to investigate the author or the research group and they need to compare the lab books to what has been published. That can obviously take a long time. That’s another reason why these papers aren’t retracted. In some cases, the institution claims to be investigating, but they don’t really want to investigate because it’s their star professor.

    Q. How do you know if an article may contain these types of images?

    A. I get tips from people, but I’m still working off my initial research of 20,000 articles. I found 800 papers with problems, I can follow leads. For example, I found a problem in such and such an article, I can look at other articles by the same authors and see if there is a problem associated with a particular person, moving from one lab to another, or if it is a problem in that lab where maybe there’s sloppiness or a culture of misconduct. I follow all these leads and I get a daily stream of people saying, can you look at this paper?

    In some cases, the institution claims to be investigating, but they really don’t want to investigate because it is their star professor

    Q. What is the process for identifying manipulated images?

    A. I download the article or look at it online. I look at figures that are photos, or a bar graph or a line graph or something similar. I look for things like missing error bars or weird bars or axes numbering that doesn’t make sense, or repetitive features on a spectrum. I scan by eye, but I also use software: ImageTwin and Proofic. The first one has a lot of false positives, because a lot of photos look similar, and you have to work through them and de-click them. But it has a database of photos from other papers that are open access and compares all the photos in a particular article against that big database. It’s like a Google image search, but focused on scientific papers.

    Q. On more than one occasion you have mentioned that your inquiries, especially at the beginning, were not always taken seriously.

    A. In the beginning, many people did not believe what I was finding. They thought it was something only I saw. Imagine you’ve written a bunch of articles and someone comes back and says, “some of the articles you wrote five years ago contain a typo and I want that to be corrected.” You think, “Who cares?” They just didn’t pay attention. Even my collaborators didn’t believe me at first either. After we published the article where we showed that this happens, that you can find errors in one in every 25 articles, they saw that it was a real problem and took us a little more seriously. I have gained credit that I don’t make wrong accusations, but it takes time.

    Q. Years later, you continue to encounter resistance and not very positive reactions from the scientific community.

    A. No one likes to be criticized for the work they produce. If someone finds and points out an error in your work, you may feel annoyed, angry and defensive. They say things like, “Yes, but I wasn’t feeling well,” or “we just moved labs and made some mistakes.” They try to find excuses or claim that it was someone else’s fault. Most of them become a little defensive, but some are even aggressive and start attacking me, digging into my past, they find out where I live, who my family is. Then they lash out on Twitter or write weird articles about me, about how I’m an evil person. But there is no evidence that I was wrong. For now I have not been sued, they’re just threats. I’ve been extremely lucky, but at some point I’ll run out of luck.

    Q. Has the use of manipulated images increased, decreased or stayed the same in recent years?

    A. It has increased and it has also decreased. It grew from 2010 to 2018-2019 and is now declining because people simply do a better Photoshop job and they know that we can screen for these things. There are many ways to cheat that leave no trace and are becoming harder to see because the fraudsters are getting smarter. Also because of the rise in the [use] of artificial intelligence. Now we can create images that are completely unique and fairly realistic that, with my techniques and software, I cannot detect as a problem.

    Q. Are you worried about artificial intelligence?

    A. Very much. It’s true that it can be used to do good things, obviously, but it can also be used by the fraudsters to create fake images, fake data, fake text. I’m not completely worried about fake text; scientific data fraud worries me more than text generation. You can ask it to generate a fake set of patients, split them into two groups and do some experiment with them. It is so good that we can no longer distinguish those sets from real data sets. We’re only going to catch the really dumb fraudsters because they leave traces for us to find. There are smart fraudsters who will be very thankful for AI that can help them generate even more fake papers.

    Q. Do you think part of the problem has to do with how quickly scientific publications are supposed to be produced?

    A. Definitely. We focus on metrics to evaluate a scientist’s career: how many articles they have published, how many times they were cited, what was the impact factor of all these articles. These are numbers you can look at and it’s easy to rank your candidates according to these metrics. People are going to try to fake these metrics, they’re going to cite themselves a lot, or they’re going to buy a paper from a paper mill or slice their papers into little pieces and publish all of them. There are universities that have strict requirements. For example, if you want to get your PhD, you need to publish two or three papers before you can get it. That’s not completely fair, because you can be a brilliant scientist, but the experiments might not work and you may not have published any papers.

    Q. How do you think scientific journals are responding to the detection and prevention of image manipulation?

    A. Now they are realizing it, but I think it’s too late. They have not been very vigilant in finding these problems, especially for paper mills. It’s not just individual labs that are cheating, it’s a criminal organization that is pumping out paper after paper. And those have not been picked up by journals, they’ve been picked up by volunteers. We’ve been alerting the journals that they need to set safeguards a little higher and not let this crap go through. After they are published, it’s very obvious that it’s fake.

    Journals are starting to set up safeguards like image duplication detection by screening for #ChatGPT -generated language, and in the meantime, fraudsters know we’re going to screen for these things. It’s a rat race where the fraudsters will always win, but we can make it harder for them. We need to slow down scientific publishing.

    https://english.elpais.com/science-tech/2024-04-26/elisabeth-bik-expert-in-scientific-integrity-we-need-to-slow-down-sc
    #édition_scientifique #recherche #publication #ESR #revues_scientifiques

    • Excessive use of words like ‘commendable’ and ‘meticulous’ suggests ChatGPT has been used in thousands of scientific studies

      A London librarian has analyzed millions of articles in search of uncommon terms abused by artificial intelligence programs.

      Librarian Andrew Gray has made a “very surprising” discovery. He analyzed five million scientific studies published last year and detected a sudden rise in the use of certain words, such as meticulously (up 137%), intricate (117%), commendable (83%) and meticulous (59%). The librarian from the University College London can only find one explanation for this rise: tens of thousands of researchers are using ChatGPT — or other similar Large Language Model tools with artificial intelligence — to write their studies or at least “polish” them.

      There are blatant examples. A team of Chinese scientists published a study on lithium batteries on February 17. The work — published in a specialized magazine from the Elsevier publishing house — begins like this: “Certainly, here is a possible introduction for your topic:Lithium-metal batteries are promising candidates for….” The authors apparently asked ChatGPT for an introduction and accidentally copied it as is. A separate article in a different Elsevier journal, published by Israeli researchers on March 8, includes the text: “In summary, the management of bilateral iatrogenic I’m very sorry, but I don’t have access to real-time information or patient-specific data, as I am an AI language model.” And, a couple of months ago, three Chinese scientists published a crazy drawing of a rat with a kind of giant penis, an image generated with artificial intelligence for a study on sperm precursor cells.

      Andrew Gray estimates that at least 60,000 scientific studies (more than 1% of those analyzed in 2023) were written with the help of ChatGPT — a tool launched at the end of 2022 — or similar. “I think extreme cases of someone writing an entire study with ChatGPT are rare,” says Gray, a 41-year-old Scottish librarian. In his opinion, in most cases artificial intelligence is used appropriately to “polish” the text — identify typos or facilitate translation into English — but there is a large gray area, in which some scientists take the assistance of ChatGPT even further, without verifying the results. “Right now it is impossible to know how big this gray area is, because scientific journals do not require authors to declare the use of ChatGPT, there is very little transparency,” he laments.

      Artificial intelligence language models use certain words disproportionately, as demonstrated by James Zou’s team at Stanford University. These tend to be terms with positive connotations, such as commendable, meticulous, intricate, innovative and versatile. Zou and his colleagues warned in March that the reviewers of scientific studies themselves are using these programs to write their evaluations, prior to the publication of the works. The Stanford group analyzed peer reviews of studies presented at two international artificial intelligence conferences and found that the probability of the word meticulous appearing had increased by 35-fold.

      Zou’s team, on the other hand, did not detect significant traces of ChatGPT in the corrections made in the prestigious journals of the Nature group. The use of ChatGPT was associated with lower quality peer reviews. “I find it really worrying,” explains Gray. “If we know that using these tools to write reviews produces lower quality results, we must reflect on how they are being used to write studies and what that implies,” says the librarian at University College London. A year after the launch of ChatGPT, one in three scientists acknowledged that they used the tool to write their studies, according to a survey in the journal Nature.

      Gray’s analysis shows that the word “intricate” appeared in 109,000 studies in 2023, more than double the average of 50,000 in previous years. The term “meticulously” went from appearing in about 12,300 studies in 2022 to more than 28,000 in 2023. While instances of “commendable“ rose from 6,500 to almost 12,000. The researcher jokes that his colleagues have congratulated him on the meticulousness of his report, still a draft pending publication in a specialized journal.

      Very few studies report if they have used artificial intelligence. Gray warns of the danger of “a vicious circle,” in which subsequent versions of ChatGPT are trained with scientific articles written by the old versions, giving rise to increasingly commendable, intricate, meticulous and, above all, insubstantial studies.

      Documentation professor Ángel María Delgado Vázquez highlights that the new analysis is focused on English-language studies. “Researchers who do not speak native English are using ChatGPT a lot, as an aid to writing and to improve the English language,” says Delgado Vázquez, a researcher from the Pablo de Olavide University, in Seville, Spain. “In my environment, people are using ChatGPT mainly for a first translation, or even to keep that translation directly,” he says. The Spanish professor says he would like to see an analysis on the origin of the authors who use the unusual terms.

      Another one of AI’s favorite words is “delve.” Researcher Jeremy Nguyen, from the Swinburne University of Technology (Australia), has calculated that “delve” appears in more than 0.5% of medical studies, where before ChatGPT it was less than 0.04 %. Thousands of researchers are suddenly delving.

      Librarian Andrew Gray warns there is a risk of broader society becoming infected with this meticulously artificial new language. Nguyen himself admitted on the social network X that it happens to him: “I actually find myself using “delve” lately in my own language—probably because I spend so much time talking to GPT.” On April 8, the official ChatGPT account on X chimed in: “I just love delving what can I say?”

      https://english.elpais.com/science-tech/2024-04-25/excessive-use-of-words-like-commendable-and-meticulous-suggest-chatg

  • Arrêter les abonnements aux revues scientifiques prédatrices...

    University of Lorraine (France), cutting ‘big deals’ with large commercial publishers & reinvesting the money saved in various open science / open access initiatives

    https://mastodon.social/@rmounce/112336634935584026
    #édition_scientifique #revues_prédatrices #abonnement #arrêt #ESR #recherche #universités #facs #coût #budget #université_de_Lorraine #Elsevier #Wiley #Springer

    –—

    ajouté à la métaliste sur la #publication_scientifique :
    https://seenthis.net/messages/1036396

  • La marge opérationnelle d’ #Elsevier a atteint les 38 % en 2023 !

    Elsevier, branche « Scientific, Technical & Medical » du groupe #RELX maintenant, a augmenté cette marge de 3 % entre 2022 et 2023 (à monnaie constante)

    https://piaille.fr/@mart1oeil/112212400218066703

    Source :
    RELX, the global provider of information-based analytics and decision tools, reports results for 2023.


    https://www.relx.com/media/press-releases/year-2024/relx-2023-results

    #édition_scientifique #business #recherche #marché #résultats

    Pour donner suite à la discussion sur sci-hub... ping @ericw @freakonometrics @ant1

  • Une collègue vient de m’annoncer que #SciHub n’est plus mis à jour... donc impossible de trouver via ce canal les #articles_scientifiques récents...
    C’est une très mauvaise nouvelle... est-ce que des @seenthis·ien·nes en savent quelque chose ? Des alternatives se dessinent ?

    Sur #Z-library et #Libgen plutôt #livres qu’articles...

    Announcement : Sci-Hub has been paused, NO NEW ARTICLES will be downloadable via Sci-Hub until further notice
    https://www.reddit.com/r/scihub/comments/lofj0r/announcement_scihub_has_been_paused_no_new

    #édition_scientifique #scihub

    • Non, pas plus de nouvelles que ça de mon côté sur le devenir de scihub. Et oui, zlib ça ne remplace pas. Et trop peu de collègues jouent le jeu de déposer leurs articles acceptés sur les plateformes du type HAL. Dans mon labo, un mail a encore été envoyé il y a peu pour rappeler qu’on avait parfaitement le droit de faire ces dépôts, et que les clauses d’exclusivité édictées par les revues étaient du bullshit.

    • Les collègues qui ne mettent pas leurs texte sur #HAL, je ne comprends pas non plus...
      Mais cela ne résoudrait pas le problème... et, de manière plus radicale, je ne comprends pas comment les collègues peuvent continuer à publier dans des revues prédatrices... mais ça... c’est un combat encore plus difficile à mener... surtout vu la tournure que prennent (et que beaucoup ont déjà pris depuis bien lurettes) les universités...

    • le bot télégram : scihubot est toujours dispo (mais nécessite l’installation de l’appli)

      il suffit de poster un message avec le lien du papier et il donne un pdf en réponse...

      après les papiers très récents sont toujours difficile à dégôter

    • merci à vous toustes... je comprends la « radicalité » de @freakonometrics, mais ceci dit il y a des articles qui méritent d’être lus, même si ils faut les trouver derrière paywall (et même quand les chercheur·es mettent sur HAL ou similaires, parfois iels ne mentionnent pas les numéros de page... ce qui fait que c’est plus compliqué de les citer)...
      @ant1 le problème n’est pas l’accès à sci-hub en tant que tel, mais que sci-hub a arrêter de mettre des nouveaux articles... mais je vais peut-être essayer le bot télégram (vu que j’ai l’appli déjà).
      Toujours aussi une alternative : écrire aux auteur·es... généralement ça marche bien :-)

    • @freakonometrics , j’entends bien ton point de vue, mais pour moi il y a un hic, et même deux : déjà utiliser la notion de « mérite » pour faire un tri dans les papiers, je m’en garderais bien, terrain glissant.

      Par ailleurs, si j’ai besoin d’utiliser un résultat existant dans un papier, genre un théorème démontré par bidule, publié dans une revue prédatrice et non partagé sur HAL ou autre, je fais quoi ? Si je ne cite pas, sûr que je vais me faire reprendre par les relecteur·ices du papier. Et là je leur dit quoi ? Non désolé je ne vais pas citer bidule car iel n’a pas mis son papier en open access ? Ça m’étonnerait que ça passe.

      Et oui @cdb_77 , on oublie souvent qu’il petit mail aux auteur·es suffit souvent (et peut permettre éventuellement d’engager la discussion sur le problème de l’accès aux articles).

  • Enquête sur les #dérives du #business très lucratif des #revues_scientifiques

    Des éditeurs de revues scientifiques profitent de leur rôle central dans la diffusion du savoir pour s’enrichir, au détriment des universités et laboratoires, à bout de souffle. Les dérives se multiplient et menacent tant la confiance accordée à la science que la recherche elle-même.

    « C’est juste du racket », « ça me rend fou », s’insurge l’économiste de la décroissance, Timothée Parrique, sur X (ex-Twitter), début novembre. Pour consulter l’étude scientifique qu’il convoite, ce chercheur doit débourser pas moins de 30 euros. « Impossible d’accéder aux textes parce qu’ils sont soumis à des paywalls, par des éditeurs qui ne contribuent en rien à leur production », proteste-t-il.

    De fait, les éditeurs de revues scientifiques ne financent pas l’activité de recherche, pas plus qu’ils ne rétribuent les auteurs. Les scientifiques sont payés par les structures qui les emploient et le budget de la recherche est principalement supporté par l’Etat.

    Même l’étape de la « relecture par les pairs », phase essentielle au cours de laquelle des scientifiques contrôlent la pertinence et la rigueur d’une recherche avant publication, ne coûte rien aux éditeurs : les « pairs » travaillent pour les revues sur la base du volontariat.

    Les universités produisent la recherche… et paient ensuite des sommes colossales pour accéder aux publications. Rien qu’en 2020, les institutions françaises ont déboursé 87,5 millions d’euros en abonnement aux revues scientifiques.

    « Leur coût a explosé depuis les années 1980, c’est ce qu’on a appelé la crise des périodiques : les grands éditeurs ont augmenté les prix des abonnements de façon bien supérieure à l’inflation [entre 1986 et 2004, le prix des revues a augmenté 2,5 fois plus vite que le coût de la vie], explique Margaux Larre-Perrez, consultante science ouverte pour datactivist, société coopérative spécialisée dans l’ouverture des données. Ces journaux se le permettent car ils ont un prestige et ils répondent à un besoin. Donc les universités paient. »

    Ce fonctionnement permet au marché de l’édition scientifique, dominé par une poignée de sociétés, d’être particulièrement lucratif. Les six premiers éditeurs à l’échelle mondiale – Elsevier, Springer Nature, Wiley, Wolters Kluwer, Thomson Reuters et Taylor & Francis – ont présenté en 2015 un chiffre d’affaires cumulé de 7,5 milliards d’euros. Elsevier et Springer Nature ont réalisé des marges hors normes, frôlant les 40 %, soit plus qu’Apple (35 %).

    De l’autre côté, le monde académique étouffe. En juin 2023, le directeur général délégué à la science du Centre national de la recherche scientifique (CNRS), Alain Schuhl, alertait sur le fait que le CNRS était « au bord du gouffre ».
    Paye ta publication

    Alain Schuhl dénonce un autre système, celui des frais de publications, ou APC (Article Processing Charges). Ceux-ci sont payés par les auteurs pour permettre une publication en accès libre immédiat. Les APC peuvent être importants : jusqu’à 9 750 euros par article pour les revues du prestigieux groupe Nature.

    « Les APC se sont développés dans les années 2000, ils étaient une alternative de financement pour les revues créées en opposition aux journaux classiques sur abonnement, développe Margaux Larre-Perrez. L’objectif était de construire un autre modèle économique : tous les articles sont accessibles gratuitement, et les auteurs prennent en charge les frais d’édition. »

    Flairant la bonne affaire, l’oligopole a progressivement intégré cette alternative dans son propre modèle économique, en développant notamment des revues « hybrides », fonctionnant à la fois sur abonnement et sur APC pour les articles en libre accès. « C’est devenu le modèle dominant dans les revues prestigieuses, comme Nature. Ces journaux récoltent de l’argent des deux côtés : les universités paient pour avoir accès aux revues, et paient des APC. »

    A l’échelle mondiale, les institutions ont donné plus d’un milliard de dollars en frais de publication à l’oligopole – aujourd’hui constitué d’Elsevier, Sage, Springer Nature, Taylor & Francis et Wiley – entre 2015 et 2018. Le montant payé pour les APC en France a triplé entre 2013 et 2020, passant de 11,3 millions d’euros par an à plus de 30 millions. La facture pourrait atteindre 50 millions d’euros en 2030 si la tendance se poursuit, voire 68 millions si elle s’accélère.

    En cause, la multiplication des APC, mais aussi l’explosion de leur coût : le CNRS a par exemple observé une hausse de 139 % des frais de publication chez Frontiers Media et de 746 % chez Mdpi entre 2017 et 2020.
    Publier ou mourir

    Si les éditeurs s’offrent tant de libertés, c’est parce que les scientifiques leur sont pieds et mains liés : dans le monde de la recherche, nul n’ignore la maxime « publier ou mourir ». Le mérite d’un chercheur – et donc l’avancée de sa carrière – est principalement déterminé à partir de la quantité d’articles qu’il publie, et du prestige des revues dans lesquelles il le fait.

    Les universités ont elles aussi tout intérêt à encourager leurs chercheurs à publier beaucoup, et dans des revues reconnues : elles sont hiérarchisées à partir de ces critères, notamment dans le cadre du prestigieux classement annuel des meilleures universités, réalisé par l’Université de Shanghai.

    Répondre à ces exigences permet parallèlement aux établissements de débloquer de précieux fonds pour la recherche. Les plans d’investissement d’avenir (PIA), lancés en 2009 par l’Etat et dotés de 20 milliards d’euros en 2020, réservent une enveloppe pour les « initiatives d’excellence » portées par des universités.

    « Les dotations sont accordées par le ministère selon les dossiers déposés. Dans les critères, se trouve l’"excellence" de la recherche, précisent Claire Calvel et Victor Chareyron, normaliens de l’ENS Cachan et auteurs d’une synthèse sur le financement de l’Enseignement supérieur en France. Ainsi, la présence de chercheurs reconnus dans leur champ est un atout indéniable. Le nombre de publications et le prestige des revues jouent donc un rôle dans l’attribution de ces financements. »

    Les laboratoires de recherche sont soumis à la même logique de prestige quand ils cherchent des financements « sur projet », un mode de fonctionnement de plus en plus fréquent.
    Trottinette et hydroxycloroquine

    D’un côté, il y a donc des scientifiques contraints de publier, des Universités et des laboratoires sommés de prouver leur excellence, et de l’autre, des éditeurs qui s’enrichissent grâce à leurs poules aux œufs d’or. De quoi attirer le renard dans le poulailler.

    En 2020, une étude se fait remarquer parmi les nombreuses recherches sur l’épidémie de Covid-19. Un manuscrit affirme que la prise d’hydroxychloroquine – alors envisagée comme remède contre le Covid-19 – permet de prévenir les accidents… de trottinette.

    Parmi les auteurs : Didier Lembrouille, Otter F. Hantome (« auteur fantôme ») et Nemo Macron, en honneur au chien du Président. L’étude est une succession de farces, et pourtant, elle est publiée dans l’Asian Journal of Medicine and Health, après un paiement de 55 dollars.

    Les (vrais) chercheurs derrière ce canular ont un objectif : sensibiliser le grand public aux revues « prédatrices ». Ces journaux frauduleux ont l’apparence de revues scientifiques sérieuses, mais n’en respectent pas la déontologie. La relecture par les pairs y est par exemple partielle ou inexistante.

    Ces journaux sollicitent souvent directement les scientifiques pour les inciter à soumettre leurs recherches. Des mails de revues prédatrices ? « J’en ai plein, idem pour mes collègues, confirme Paule-Emily Ruy, doctorante à l’Atlantic Technological University, à Galway, en Irlande. J’ai commencé à en recevoir quand j’ai publié pour la première fois. Plus tu publies, plus elles te contactent. »

    Parmi les mails que Paule-Emilie Ruy n’a pas encore supprimés, figure une proposition de Mdpi. « Il est évident que certaines revues sont totalement frauduleuses, mais d’autres se situent dans une zone grise, comme Mdpi, atteste Margaux Larre-Perrez. Cet éditeur possède quelques dizaines de journaux avec une relecture par les pairs classique et publie parallèlement des milliers de numéros spéciaux, qui ne sont pas relus de façon rigoureuse, mais qui génèrent beaucoup d’APC. »
    Des usines à articles

    Attirés par ce marché lucratif, sont nés dans l’ombre de la production scientifique les paper mills, ou usines à articles. Ces entreprises produisent de faux manuscrits et proposent aux chercheurs d’acheter une place d’auteur – sans participer à l’élaboration de l’étude. La Science Publisher Company propose par exemple d’endosser le rôle de premier auteur de l’article « Obésité chez les hommes en âge de travailler : facteurs, risques hormonaux, métaboliques et hémodynamique d’arythmies cardiaques », pour 2 150 dollars.

    « Ces entreprises sont nées de la pression qui pèse sur les chercheurs, en particulier dans certains pays. Un doctorant chinois en médecine doit par exemple publier un article dans un journal reconnu pour obtenir son diplôme, explique Marie Soulière, senior manager chez l’éditeur Frontiers et membre du Comité d’éthique des publications (COPE). Vu cette "demande", des entreprises ont commencé à offrir la possibilité de payer pour ajouter son nom à un article. Avec la technologie, elles ont évolué pour vendre des articles complètement factices, bien plus rapides à produire. »

    Les paper mills œuvrent surtout en Chine, en Inde, en Russie, en Ukraine ou en Iran. L’impact de ces usines à papiers n’est pas anecdotique. Selon une étude publiée en 2022 par COPE et le syndicat des éditeurs scientifiques, STM, à partir d’une analyse de 53 000 articles scientifiques, les revues reçoivent entre 2 % et 46 % d’articles frauduleux. Au total, 457 faux articles sont passés entre les mailles du filet et ont été publiés.
    Changer les règles de l’édition

    Ces dérives prolifèrent au détriment de la confiance du public envers la science, et de la recherche elle-même, qui s’appuie sur les publications antérieures pour avancer. Des structures, comme le CNRS, appellent à faire bouger les choses. En 2021, il a modifié les critères d’évaluation de ses scientifiques, qui reposent désormais sur la qualité des résultats et non plus sur le nombre de publications et le prestige des revues.

    La structure a aussi conseillé à ses chercheurs de ne plus payer d’APC. La législation française permet de déposer son manuscrit dans les archives ouvertes 6 à 12 mois après publication, quel que soit le contrat passé avec l’éditeur.

    La loi de programmation de la re­cherche fixe parallèlement un objectif de 100 % de publications en accès ouvert en 2030. Pour y parvenir, un plan du ministère de l’Enseignement supérieur appelle notamment à développer les revues dites « diamant », en libre accès immédiat et sans frais pour les chercheurs.

    Celles-ci sont prises en charge par les universités et organismes de recherche. Si elles représentent 73 % des revues en libre accès dans le monde aujourd’hui, elles ne produisent que 44 % des articles en open access, en raison de leurs moyens limités.

    https://www.alternatives-economiques.fr/enquete-derives-business-tres-lucratif-revues-scientifiques/00109325
    #édition_scientifique #publish_or_perish

    –-

    ajouté à la métaliste sur l’éditions scientifique :
    https://seenthis.net/messages/1036396

  • Comment faire face aux revues scientifiques prédatrices ?

    Le système de publication scientifique est sous tension : l’accès aux publications doit être libre et gratuit, mais publier a un coût. Historiquement, ce coût revenait aux lecteurs. Désormais, il incombe souvent aux auteurs, permettant un accès gratuit aux lecteurs, avec en 2019 31 % de tous les articles scientifiques publiés qui étaient accessibles à tous. La note, souvent réglée avec de l’#argent_public, peut atteindre plus de 10 000 euros par article. Ce #marché juteux, avec des marges bénéficiaires pouvant atteindre 40 %, a conduit nombre de scientifiques à ne plus accepter que des maisons d’édition profitent d’un travail intellectuel qu’elles ne financent et ne rémunèrent pas.

    Simultanément, le système d’évaluation conventionnel des scientifiques, fondé notamment sur le nombre de publications en général et dans des périodiques à haut facteur d’impact (IF, correspondant au nombre moyen annuel de citations des articles d’un périodique parus les deux années précédentes) en particulier, est remis en question depuis la Déclaration sur l’évaluation de la recherche de San Francisco (#DORA). DORA est une déclaration collective internationale, initialement élaborée lors d’une réunion annuelle de la Société américaine de biologie cellulaire en 2012, et qui a été progressivement ratifiée par nombre d’universités et d’organismes de recherche, par exemple en France le CNRS et le CEA.

    La collision de ces deux changements débouche sur de nouveaux questionnements :

    - Quels impacts ces transformations ont-elles sur la qualité de la science ?

    – Peut-on raisonner l’usage fait de l’argent public dans la #publication_académique ?

    L’émergence des revues prédatrices

    La transition actuelle du système lecteur-payeur vers le système auteur-payeur s’est accompagnée de l’émergence de maisons d’édition scientifique qualifiées « de prédatrices ». Développant des démarches commerciales agressives, notamment via quantité de numéros spéciaux, leur objectif principal étant de « faire du #profit » en imposant des coûts de publication démesurés (#article-processing_charges ou #APC), et non de promouvoir une #science de qualité.

    En effet, le processus d’évaluation des articles y est souvent médiocre (brefs délais d’évaluation, évaluateurs peu compétents), parfois inexistant, conduisant à une pollution massive de la littérature par des résultats mal, voire pas vérifiés. En 2015, déjà un cinquième de la production scientifique mondiale paraissait dans des maisons d’édition prédatrices.

    Un effet secondaire est l’érosion de la confiance des scientifiques dans le processus d’évaluation par les pairs, pourtant robuste et éprouvé depuis plus d’un siècle.

    À la racine du problème, un cercle vicieux : les chercheurs sont engagés dans une course frénétique à la publication et les évaluateurs disponibles, non rémunérés pour ce travail d’évaluation et devant eux-mêmes publier, deviennent une ressource limitante.

    Quand des périodiques traditionnels s’échinent à dénicher des évaluateurs compétents et disponibles, les prédateurs se contentent d’évaluateurs peu compétents qui, contre des rabais sur des APC futurs, écriront de brefs rapports justifiant d’accepter au plus vite un article. Couper le robinet des évaluateurs et refuser d’y soumettre ses travaux, soit par décision personnelle, soit collectivement, permettrait de contrer l’émergence et le développement de ces maisons d’édition prédatrices.

    Mais la volonté d’aller dans ce sens est-elle là ? Reconnaître les travers de ce système prédateur est nécessairement lent, en particulier lorsqu’on y a largement contribué.

    Il est difficile de définir le caractère prédateur d’un éditeur et certaines revues vont donc se situer dans une zone grise, à la limite de la prédation. De plus, si l’objectif des revues prédatrices est avant tout le profit, le montant des APC n’est pas une condition suffisante pour qualifier un périodique de prédateur – les APC de revues liées à des sociétés savantes (à but non lucratif) sont parfois élevés, mais tout ou partie de ces APC leur sert à développer leur mission dont l’utilité sociale est avérée.

    Couper les ailes de l’édition prédatrice passe aussi par une évaluation différente de l’activité des scientifiques, en s’écartant d’une évaluation actuellement trop quantitative, car largement fondée sur le nombre d’articles et sur l’IF des revues (une métrique mesurant leur audience et non leur qualité).

    Un appel collectif pour de meilleures pratiques

    DORA et l’appel de Paris vont dans ce sens en proposant la fin de l’utilisation de l’IF, mais aussi du nombre de publications, comme métriques centrales de l’évaluation. Ainsi, des institutions françaises, dont le CNRS, INRAE, l’ANR et l’Hcéres, demandent non pas la liste exhaustive des productions, mais une sélection que la personne évaluée souhaite mettre en avant, avec une explication détaillant les qualités, la signification et la portée de cette sélection dans son projet. Ce changement d’évaluation, simple à mettre en œuvre, permet de limiter une course aux publications faciles et coûteuses. Ces initiatives de réforme du système d’évaluation académique fleurissent dans d’autres pays, par exemple aux Pays-Bas et au Canada, ou encore au niveau européen avec la coalition CoARA.

    Bien entendu, il est peu probable que les chercheurs évaluateurs des dossiers ou des projets de collègues jettent les indicateurs aux orties, IF ou autres, surtout quand l’évaluation, qui prend un temps considérable lorsqu’elle est menée sérieusement, est si mal valorisée en tant qu’activité dans l’évaluation des chercheurs. Mais combiner évaluation quantitative et qualitative à d’autres critères tels le prix des APC, les profits et leurs usages, la durabilité numérique, la transparence des évaluations ou la reproductibilité des résultats publiés, est souhaitable.

    Les comités d’évaluation des chercheurs, par exemple au niveau national le Conseil national des universités et au Comité national de la recherche scientifique, doivent se saisir de ces nouveaux critères, les expliciter et les rendre publics. Il serait aussi souhaitable qu’ils statuent sur les maisons d’édition prédatrices ou semi-prédatrices, ou à la manière de la conférence des Doyens des facultés de médecine, sur les maisons d’édition non prédatrices.

    Ils doivent se saisir au plus vite de la question de l’articulation entre modèles de publication et évaluation des chercheurs, pour ne pas se faire devancer par les maisons d’édition susceptibles de proposer elles-mêmes des outils d’évaluation ou de faire changer les règles du jeu.

    Dans le contexte actuel de pénurie d’évaluateurs, les périodiques à IF élevé et coûteux jouent sur le prestige supposé d’être évaluateur. Un levier permettant d’attaquer cette situation serait l’assurance que les « lignes de CV » concernant l’évaluation des manuscrits ne soient pas appréciées à l’aune du prestige de périodique coûteux par les comités d’évaluation de l’activité des chercheurs. De cette manière, un scientifique aurait a priori autant intérêt à évaluer pour tout périodique qu’il estime de qualité, et non pas prioritairement pour le peloton de tête de l’IF.

    Ainsi, on tarirait l’offre en évaluateurs pour ces périodiques ; ces évaluateurs seraient alors plus disponibles pour des périodiques aussi sérieux, mais moins onéreux. De plus, un processus d’évaluation transparent (c’est-à-dire public) permettrait la valorisation des évaluations, et aux comités de jauger qualitativement l’implication des scientifiques dans ce processus.

    Contre la monétarisation de la publication scientifique, il faut séparer l’impératif de l’accès libre et le système de publications en accès libre avec APC obligatoires : les scientifiques doivent rendre leurs publications accessibles, mais sans payer pour cela. L’utilisation de plates-formes de textes non évalués pour rendre accessibles les travaux est une option possible. Cela permettrait de piéger les éditeurs prédateurs au jeu de leur argument de choc (« rendre accessible une publication sans restriction »). Reste alors à imaginer des modèles alternatifs, tel que Peer Community In, proposant un système d’évaluation transparent, exigeant et gratuit à partir d’articles déposés sur des serveurs en accès libre.

    Nos actions, via le choix d’un support de publication ou de notre modèle d’évaluation, s’inscrivent dans un contexte politique national et européen parfois contradictoire : certains établissements suggèrent aux chercheurs d’éviter les APC tout en prônant l’accès libre à toutes les publications sortant de leurs laboratoires. D’autres initiatives, comme la création de Open Research Europe par l’Union européenne, révèlent en creux le poids de certains lobbys puisque les projets européens pourront de ce fait publier en accès libre tous leurs résultats dans des périodiques ad hoc et financés par l’UE. L’injonction à une « science ouverte » devrait plutôt encourager à l’utilisation des plates-formes de textes non évalués. Elle ne doit pas être un argument pour justifier la publication dans des revues avec APC, souvent prédatrices. Autrement dit : ne sacrifions pas la qualité sur l’autel de l’accès libre, et les plates-formes de textes non évalués sont là pour ça.

    À nous, chercheurs, de retourner le jugement d’Yves Gingras pour démontrer que nous sommes capables d’actions collectives. Avec quelques règles, de la pédagogie et un système de valorisation pluriel de la qualité des périodiques scientifiques, nous pouvons endiguer le phénomène des maisons prédatrices.

    https://theconversation.com/comment-faire-face-aux-revues-scientifiques-predatrices-206639

    #ESR #recherche #université #résistance #revues_prédatrices #édition_scientifique #impact_factor

  • Violences académiques ordinaires

    Violences et souffrances académiques : atteintes au #service_public et à la #santé_au_travail

    Ce troisième numéro de Mouvements consacré au champ académique, après ceux de 2008 (« Que faire pour l’Université ? ») et 2012 (« Qui veut la peau de la recherche publique ? »), trouve sa genèse dans un colloque consacré aux violences ordinaires dans les organisations académiques en juin 2022[1]. Lors des deux journées de discussion, les communications ont permis de mesurer à quel point, depuis ces quinze dernières années, le champ de l’enseignement supérieur et la recherche (ESR) a été profondément bouleversé par toute une série de réformes, depuis la #loi_LRU (Liberté et responsabilité des universités) en 2007 jusqu’à la #Loi_de_programmation_de_la_recherche (#LPR) votée en 2020. #Fusions, #précarisation, raréfaction des #postes – alors que les effectifs étudiants progressent –, #managérialisation, #sous-traitance, multiplication des #évaluations (des établissements, des formations, des professionnel·les comme des équipes) et de leurs instances, induisent #pression_psychique et dégradation des conditions de travail et rendent davantage visible et légitime la question de la #souffrance_au_travail.

    Qu’en est-il du #quotidien bouleversé de ces organisations en transformation et de celles et ceux qui y travaillent ? Comment cela se traduit-il sur le plan des décisions, des dispositifs, des activités, des interactions, des engagements et des subjectivités ? C’est cette attention aux « violences ordinaires » dans les #institutions_académiques qui constitue le cœur de ce numéro de Mouvements. Par #violence_ordinaire, nous entendons tout type de #contrainte verbale, morale, psychologique ou symbolique exercée sur les #corps au travail et ressentie comme telle par celles et ceux qui les vivent (et qui essaient – ou non – de s’en défendre). Comme y insiste l’article de Stéphane Le Lay et Olivia Chambard, quelle que soit la forme de ces violences, il importe d’essayer de comprendre leurs liens avec les #rapports_de_domination et d’interroger leur inscription – et la nature de cette inscription – dans des configurations organisationnelles ou des structures sociales ou culturelles propres à l’ESR.

    Ceci est d’autant plus important que se sont multipliées récemment les critiques à l’encontre d’enseignant·es-chercheur·euses supposé·es déconnecté·es du monde réel dans leurs enseignements (en inadéquation avec le marché du travail), et dans leurs recherches (insuffisamment en prise avec les « défis sociétaux » et la « demande sociale »). À celles-ci s’ajoutent désormais des #attaques, internes ou externes au champ académique, contre certaines disciplines et certains travaux suspectés d’être disculpants, politisés, voire contraires aux valeurs de la République[2]. L’université et la liberté consubstantielle à ses activités intellectuelles – l’#indépendance des chercheur·euses et enseignant·es-chercheur·euses étant inscrite dans la loi – sont mises à mal de manière plurielle par manque de moyens, mise au pas organisationnelle et #condamnation_morale. Si des travaux analysent les effets de ces réformes néolibérales sur le travail des chercheur·euses et enseignant·es-chercheur·euses, à l’image des articles de Frédérique Debout, d’Ambre Guichard-Ménard et de l’Observatoire des Conditions de Travail à l’Université de Caen Normandie, ils sont plus rares, voire inexistants, sur les conditions de travail des personnels administratifs ou techniques de l’ESR ou des salarié·es en sous-traitance exerçant dans les établissements académiques. Dans ce numéro, l’article d’Hugo Bret sur le #personnel_de_nettoyage d’une université et celui du collectif C. Noûs-Aussi consacré à l’#édition_scientifique permettent justement de jeter un regard incisif sur ces zones d’ombre.

    Les rapports de domination entre les statuts, les corps et les disciplines constituent de fait une clé d’entrée pour comprendre la spécificité des types de violence dans les organisations universitaires et académiques et leur analyse est ancienne. Plus récemment, des auteur·rices ont néanmoins renouvelé la perspective en s’emparant en particulier de la question des #violences_sexistes_et_sexuelles (#VSS) à l’université, sur lesquelles reviennent trois articles. L’un provient d’une chercheuse militante, sous la forme d’un témoignage anonyme. L’autrice prend appui sur son expérience en tant qu’étudiante, victime et témoin de violences, dans une grande école et évoque les actions collectives qui s’en sont suivies. De son côté, à partir du cas espagnol, Verónica Cala analyse finement les interrelations entre pensée féministe et action militante, expliquant en quoi l’université peut être aussi bien un terreau fertile qu’un système nuisant aux avancées pourtant nécessaires au développement de la pensée transformatrice féministe. Enfin, l’article d’Armelle Andro se penche sur les modalités de prise en charge des VSS spécifiques au monde académique, qui ont notamment fait suite à des médiatisations et des mobilisations importantes. Apportant un cadrage complémentaire, il expose les avancées et les freins au traitement institutionnel des VSS depuis vingt ans, pointant les spécificités et l’hétérogénéité des situations rencontrées dans le champ académique. Traitant aussi, mais de manière différente, la question des #rapports_sociaux (de sexe, hiérarchiques et de race), Morgane Le Guyader se penche sur le concept de #violence_épistémique. Celui-ci s’avère utile pour pointer ce qui, à l’intérieur même des critères de scientificité, vient discréditer certains points de vue indigènes ou subordonnés. Ce texte élabore une critique qui a l’intérêt de proposer d’autres manières de rendre compte de l’expérience sensible qui traverse les enquêté·es aussi bien que les enquêteurs et enquêtrices.

    Plusieurs articles de ce numéro, à l’image de celui de Marina Pietri consacré à une #animalerie_scientifique, cherchent ainsi à rendre compte de la manière dont la #division_du_travail au sein des organisations académiques est productrice de formes de violence, examinées comme étant propres à une activité et un rôle spécifiques, aussi bien que dans leur dimension transversale, lorsqu’elles affectent différentes catégories de personnels (chercheur·euses et enseignant·es-chercheur·euses, doctorant·es, personnels administratifs, techniques, etc.). Ce faisant, peut être interrogée la place des stratégies défensives liées aux cultures de métier et érigées pour lutter contre la souffrance. Plusieurs articles abordent également les manières dont les #inégalités et #discriminations s’activent et se reproduisent, dans des configurations où la hiérarchie bureaucratique peut se superposer aux formes de #domination_académique. Se donne alors à voir en quoi ces inégalités permettent de révéler des formes de #mépris plus ou moins visibles, qui peuvent aller de la délégation systématique du « sale boulot » à l’invisibilisation ou l’appropriation du travail d’autrui, en passant par l’empêchement de travailler et le #harcèlement.

    Pour faire face à l’aggravation de la situation en matière de santé physique et mentale, les établissements du supérieur ont obligation, depuis 2012, de mettre en place un Comité d’hygiène, de sécurité et de conditions de travail (#CHSCT). Très variables selon les établissements, les modalités déployées en faveur de la prise en charge des « #risques_psychosociaux » (#RPS) se font régulièrement timides… ou inexistantes. Dans certains établissements, les fonctions de référent « Égalité, RPS, Handicap » ne sont pas pourvues, tardent à l’être ou encore ne sont dotées d’aucun moyens significatifs pour leur action, qui demeure parfois lettre morte. Nombre d’actrices et d’acteurs de terrain sont pourtant en première ligne et certain·es particulièrement actif·ves pour lutter contre les violences et réguler les dérives : préventeur·rices, médecins du travail, représentant·es du personnel siégeant ou non dans les CHSCT, associations féministes et de personnels précaires, sans oublier les juristes, certain·es cadres administratif·ves et personnes en responsabilité dans les composantes et les laboratoires. L’article de Gwenaël Delaval, Emmanuelle Puissant et Samira Saïdoune, consacré à un « #dispositif_RPS » dans une université, aborde les enjeux de cette prise en charge institutionnelle.

    On le voit, les chantiers ouverts sont nombreux et délicats à mener pour rendre visibles et pour lutter efficacement contre les différentes formes de violence, en desserrant l’étau des rapports de domination. Gageons que les contributions de ce numéro de Mouvements œuvreront dans ce sens, grâce à la réflexion individuelle et aux discussions collectives qu’elles susciteront dans le champ académique, et aux pistes d’action qu’elles ouvrent ainsi.

    https://mouvements.info/edito/violences-et-souffrances-academiques-atteintes-au-service-public-et-a-l
    #ESR #université #violence #violences_ordinaires #souffrance #conditions_de_travail #travail #recherche

    ping @karine4 @_kg_

  • ‘Too greedy’ : mass walkout at global science journal over ‘unethical’ fees

    Entire board resigns over actions of academic publisher whose profit margins outstrip even Google and Amazon.

    More than 40 leading scientists have resigned en masse from the editorial board of a top science journal in protest at what they describe as the “greed” of publishing giant Elsevier.

    The entire academic board of the journal #Neuroimage, including professors from Oxford University, King’s College London and Cardiff University resigned after Elsevier refused to reduce publication charges.

    Academics around the world have applauded what many hope is the start of a rebellion against the huge profit margins in academic publishing, which outstrip those made by Apple, Google and Amazon.

    Neuroimage, the leading publication globally for brain-imaging research, is one of many journals that are now “open access” rather than sitting behind a subscription paywall. But its charges to authors reflect its prestige, and academics now pay over £2,700 for a research paper to be published. The former editors say this is “unethical” and bears no relation to the costs involved.

    Professor Chris Chambers, head of brain stimulation at Cardiff University and one of the resigning team, said: “Elsevier preys on the academic community, claiming huge profits while adding little value to science.”

    He has urged fellow scientists to turn their backs on the Elsevier journal and submit papers to a nonprofit open-access journal which the team is setting up instead.

    He told the Observer: “All Elsevier cares about is money and this will cost them a lot of money. They just got too greedy. The academic community can withdraw our consent to be exploited at any time. That time is now.”

    Elsevier, a Dutch company that claims to publish 25% of the world’s scientific papers, reported a 10% increase in its revenue to £2.9bn last year. But it’s the profit margins, nearing 40%, according to its 2019 accounts, which anger academics most. The big scientific publishers keep costs low because academics write up their research – typically funded by charities and the public purse – for free. They “peer review” each other’s work to verify it is worth publishing for free, and academic editors collate it for free or for a small stipend. Academics are then often charged thousands of pounds to have their work published in open-access journals, or universities will pay very high subscription charges.

    Stephen Smith, professor of biomedical engineering at Oxford University and formerly editor-in-chief at Neuroimage, said: “Academics really don’t like the way things are, but individuals feel powerless to get the huge publishers to start behaving more ethically.”

    Researchers put up with it because they want to publish in established journals that will be widely read, he added.

    But he warned publishers: “Enough is enough. By taking the entire set of editors across to start the new journal, we are taking the reputation with us.”

    A spokesperson for Elsevier said: “We value our editors very highly and are disappointed [with the resignations], especially as we have been engaging constructively with them over the last couple of years.”

    He said the company was “committed to advancing open-access research” and its article publishing charges were “below the market average relative to quality. The fee for NeuroImage is below that of the nearest comparable journal in its field.”

    Meanwhile, university libraries are angry about the cost of the online textbooks they say students now overwhelmingly want to read – often many times more expensive than their paper equivalent. Professor Chris Pressler, director of Manchester University Library, said: “We are facing a sustained onslaught of exploitative price models in both teaching and research.”

    According to a spreadsheet of costs quoted to university librarians, Manchester University gave a recent example of being quoted £75 for a popular plant biology textbook in print, but £975 for a three-user ebook licence. Meanwhile Learning to Read Mathematics in the Secondary School, a textbook for trainee teachers published by Routledge, was £35.99 in print and £560 for a single user ebook.

    A spokesperson for Taylor and Francis, which owns Routledge, said: “We strive to ensure that book prices are both affordable and a fair representation of their value.” He said a print book could be checked out for weeks at a time whereas ebooks could be checked in and out rapidly and had a much wider distribution.

    He added: “Academic publishers provide services that are essential to a well-functioning research and scholarly communication ecosystem, and most researchers recognise this is a valuable service worth paying for. “

    Caroline Ball, librarian at Derby University and co-founder of the academic campaign EbookSOS, said: “This is creating a digital hierarchy of haves and have-nots. There are institutions that just can’t afford these prices for texts.”

    https://www.theguardian.com/science/2023/may/07/too-greedy-mass-walkout-at-global-science-journal-over-unethical-fees

    #démission #Elsevier #édition_scientifique #recherche #résistance

    –-

    ajouté à la métaliste sur l’éditions scientifique :
    https://seenthis.net/messages/1036396

  • Pierre Jacquel sur Twitter : « Rappel pour nos amis chercheurs et étudiants : il est INTERDIT d’utiliser ce site qui permet d’accéder à tous les articles de recherche gratuitement ! Ce site est souvent bloqué par les fournisseurs internet, il est aussi interdit de contourner le blocage avec cette méthode. 🧵 » / Twitter
    https://twitter.com/pierre_jacquel2/status/1648633158047260672

  • Sci-Hub downloads show countries where pirate paper site is most used
    https://www.nature.com/articles/d41586-022-00556-y

    Sci-Hub downloads show countries where #pirate_paper_site is most used

    La France se classe juste derrière la Chine et les Etats-Unis dans un classement international significatif : le nombre de téléchargements sur le site russe Sci-Hub :

    https://www.nature.com/articles/d41586-022-00556-y

    Le nombre de #téléchargements témoigne de l’emprise des #éditeurs privés sur leur #clientèle_captive, qui se trouve être aussi celle qui produit leur richesse : nous. Si l’on rapporte le nombre de téléchargements sur Sci-Hub au nombre de chercheurs, la #France est encore 4ème, derrière la Colombie, les Philippines et la Malaisie, et juste avant l’Indonésie et le Brésil. Il y a 7 fois plus d’articles téléchargés par chercheur en France qu’en Allemagne…
    Cet engouement pour Sci-Hub témoigne évidemment du caractère dysfonctionnel des #bibliothèques_numériques_françaises, surtout pour les accès à distance. L’association #Couperin, en charge de la contractualisation avec les éditeurs, négocie un accès différencié pour les différents établissements et, à l’intérieur de ceux-ci, pour les différentes disciplines. Toute recherche multidisciplinaire se transforme ainsi en cauchemar… sauf à utiliser #Sci-Hub.

    via #Rogue : https://rogueesr.fr

  • The giant plan to track diversity in research journals
    https://www.nature.com/articles/d41586-022-00426-7

    In the next year, researchers should expect to face a sensitive set of questions whenever they send their papers to journals, and when they review or edit manuscripts. More than 50 publishers representing over 15,000 journals globally are preparing to ask scientists about their race or ethnicity — as well as their gender — in an initiative that’s part of a growing effort to analyse researcher diversity around the world. Publishers say that this information, gathered and stored securely, will help to analyse who is represented in journals, and to identify whether there are biases in editing or review that sway which findings get published. Pilot testing suggests that many scientists support the idea, although not all.

    The effort comes amid a push for a wider acknowledgement of racism and structural racism in science and publishing — and the need to gather more information about it.

  • Antivax - Les marchands de doute

    Comment se propagent le refus de la vaccination contre le Covid-19 et les théories aussi fantaisistes que complotistes qui l’accompagnent ? Une incursion éclairante au coeur de la galaxie antivax, auprès de ses adeptes et de ses réseaux d’influence.

    Alors que se déroule la plus grande campagne de vaccination de l’histoire, la contestation enfle partout dans le monde. Suscitant espoir mais aussi crainte et colère, les injections anti-Covid fracturent l’opinion. Victime de ses succès, qui rendent le danger moins tangible, critiquée pour ses effets secondaires, la vaccination, qui engage de manière intime la confiance des citoyens dans les institutions, s’est toujours attiré des adversaires. Reste que le mouvement antivax, ultraminoritaire, mais très actif, prospère aussi sous l’influence de personnalités parfaitement intéressées à qui la pandémie actuelle offre un tremplin. Figure de proue du mouvement, Andrew Wakefield, un gastro-entérologue britannique radié en 2010, s’est fait connaître par une étude frauduleuse, publiée dans « The Lancet » en 1998, établissant un lien entre le vaccin ROR (rougeole, oreillons, rubéole) et l’autisme. Le scandale qui a suivi va paradoxalement lui donner des ailes. Il quitte l’Angleterre pour les États-Unis, où il monte un business en exploitant les peurs liées à la vaccination. Aujourd’hui, Wakefield, devenu prospère jet-setteur, et ses pairs, comme le producteur Del Bigtree, surfent sur l’épidémie de Covid-19 et sèment la désinformation en propageant des théories complotistes sur les réseaux sociaux afin de faire basculer les hésitants dans le camp de l’opposition vaccinale systématique.

    Propagande et récupération
    Cette enquête au cœur du mouvement antivax, tournée entre les États-Unis, le Royaume-Uni, la France et l’Allemagne, lève le voile sur le commerce lucratif de traitements alternatifs dangereux, des levées de fonds au profit de causes douteuses, une redoutable machine de propagande et des partis extrémistes en embuscade. Un aréopage de scientifiques, lanceurs d’alerte ou journalistes, parmi lesquels Fiona Godlee, la rédactrice en chef du "British Medical Journal "qui a révélé l’imposture de Wakefield, apporte un regard critique sur ce mouvement. Le film fait aussi entendre les doutes de ceux qui, sans être complotistes, rejettent les vaccins, les accusant de causer plus de dommages qu’ils ne permettent d’en éviter, avec, en contrepoint, le témoignage d’une jeune femme restée paraplégique après une rougeole contre laquelle elle n’avait pas été vaccinée. Sans exprimer de ressentiment vis-à-vis de ses parents, elle indique néanmoins que « c’est trop bête de laisser le hasard choisir quand il y a des solutions ».

    https://www.arte.tv/fr/videos/103025-000-A/antivax-les-marchands-de-doute

    signalé aussi par @odilon ici :
    https://seenthis.net/messages/940747

    #vaccinations #vaccins #vaccin #anti-vax #anti-vaxx #doutes #confiance #Andew_Wakefield #publications_scientifiques #édition_scientifique #business #manipulation #The_Lancet #Thoughtful_house #Jane_Johnson #Lisa_Selz #Strategic_Autism_Initiative #Mark_Geier #sentiments #émotions #autisme #Andew_Hall_Cutler #Mark_Grenon #Jenny_McCarthy #Robert_De_Niro #Vaxxed #Donald_Trump #Trump #rougeole #Ardèche #Evee #justiceforevee #multi-level_marketing #Elle_Macpherson #Ethan_Lindenburger #Facebook #réseaux_sociaux #complotisme #Querdenke #liberté #Louis_Fouché #Réinfocovid #Les_Patriotes #extrême_droite #Florian_Philippot

  • Le site pirate #Sci-Hub : menace ou bénédiction pour la science ?
    https://actualitte.com/article/104041/legislation/le-site-pirate-sci-hub-menace-ou-benediction-pour-la-science

    Le site pirate Sci-Hub : menace ou bénédiction pour la science ?

    Vit-on les derniers instants du site Sci-Hub ? Un procès est en tout cas engagé par Elsevier et d’autres éditeurs universitaires en Inde pour permettre de bloquer enfin le site pirate. Ces entreprises considèrent le site Sci-Hub comme une menace majeure pour la science, par corollaire, leur propre industrie florissante. Un avis que ne partage pas la fondatrice du site, Alexandra Elbakyan, pour qui les éditeurs sont la véritable menace pour le progrès de la science, décidant ainsi de contre-attaquer.

    #open_source

  • #Publications_scientifiques : à Lille comme ailleurs on paie le prix fort

    Trois millions d’euros. C’est le coût de l’#abonnement annuel aux #revues_scientifiques, rien que pour l’#Université_de_Lille. C’est dans ces revues, aux mains de « grands éditeurs », que sont publiés les travaux des chercheurs des universités ou des laboratoires. Un système que beaucoup d’universités qualifient de « monopolistique ». À Lille comme ailleurs, on tente de faire émerger des solutions.

    (#paywall)
    https://www.lavoixdunord.fr/1120519/article/2021-12-29/publications-scientifiques-lille-comme-ailleurs-paie-le-prix-fort

    #édition_scientifique #prix #université #facs