• L’#édition_scientifique, entre #prédateurs et #profiteurs

    Les #revues_scientifiques sont au cœur de la diffusion des savoirs et de l’évaluation des chercheurs. Face à la captation du #marché par de grandes entreprises, des résistances s’organisent. Entretien croisé avec #Hervé_Maisonneuve et #Frédéric_Hélein.
    Pour un chercheur, publier ses résultats dans des revues spécialisées est une activité cruciale, lors de laquelle se joue sa renommée. Ces revues, initialement fondées par des sociétés savantes, sont de plus en plus contrôlées par un #oligopole de #multinationales de l’édition, qui accumulent des #profits phénoménaux. Depuis une décennie, le modèle économique de l’édition scientifique bascule vers une logique d’accès libre aux articles, les frais de publication étant couverts par les chercheurs. Mais des groupes peu recommandables ont développé des revues dites « prédatrices », publiant n’importe quoi dans le seul but d’encaisser le paiement des chercheurs.
    Où va l’édition scientifique ? Comment les scientifiques peuvent-ils reprendre le contrôle de ce maillon essentiel à la diffusion de leurs recherches ? Entretien croisé avec Hervé Maisonneuve, médecin de santé publique, et Frédéric Hélein, professeur de mathématiques à l’université Paris VII.

    https://www.youtube.com/watch?time_continue=4&v=abvhkMsNn58


    https://www.mediapart.fr/journal/culture-idees/130119/l-edition-scientifique-entre-predateurs-et-profiteurs
    #prédation #profit #université #business #savoir #recherche #science

    signalé par @marty

    • #Déclaration_de_San_Francisco sur l’#évaluation de la recherche

      Il est urgent d’améliorer les méthodes d’évaluation des résultats de la recherche scientifique par les agences de financement, les établissements d’enseignement et de recherche et d’autres parties. Pour régler cette question, un groupe de rédacteurs en chef et d’éditeurs de revues savantes s’est réuni à San Francisco en Californie le 16 décembre 2012, dans le cadre du congrès annuel de l’American Society for Cell Biology (ASCB). Ce groupe a élaboré un ensemble de recommandations, désormais appelé « Déclaration de San Francisco sur l’évaluation de la recherche ». Nous invitons les parties intéressées de toutes les disciplines scientifiques à manifester leur soutien en ajoutant leur nom à la présente Déclaration.

      Les apports de la recherche sont nombreux et variés : articles contenant de nouvelles connaissances, données, réactifs, logiciels ainsi que propriété intellectuelle et jeunes scientifiques hautement qualifiés. Les agences de financement, les établissements qui emploient des chercheurs et ces scientifiques eux-mêmes éprouvent tous le désir et le besoin d’évaluer la qualité et l’impact de la production scientifique. Il est donc impératif que la production scientifique soit mesurée rigoureusement et évaluée avec discernement.

      Le facteur d’impact des revues est souvent utilisé comme principal paramètre pour comparer la production scientifique individuelle et celle des établissements. Ce facteur d’impact, tel que calculé par Thomson Reuters*, a été créé à l’origine comme un outil d’aide pour les bibliothécaires servant à identifier les revues à acheter, et non pour mesurer la qualité scientifique de la recherche exposée dans un article. Dans cette optique, il est essentiel de comprendre que le facteur d’impact présente un certain nombre d’insuffisances bien documentées en tant qu’outil d’évaluation de la recherche. Ces limitations sont les suivantes : A) les distributions des citations dans les revues sont très asymétriques [1-3] ; B) les propriétés du facteur d’impact sont propres à chaque domaine : il s’agit d’un agrégat de types d’articles multiples et très divers, avec des articles primaires comme de synthèse [1, 4] ; C) les facteurs d’impact peuvent être manipulés (ou « instrumentalisés ») par une politique éditoriale [5] ; et D) les données utilisées pour calculer les facteurs d’impact ne sont ni transparentes ni ouvertement accessibles au public [4, 6, 7]. Ce qui suit formule des recommandations visant à améliorer la façon dont la qualité des résultats de la recherche est évaluée. D’autres éléments de production scientifique que les articles prendront une importance accrue dans l’évaluation de l’efficacité des travaux de recherche à l’avenir, mais l’article, contrôlé par des pairs, demeurera une production scientifique essentielle entrant dans l’évaluation de la recherche. Par conséquent, nos recommandations portent au premier chef sur les pratiques relatives aux articles publiés dans des revues à comité de lecture, mais elles peuvent et devraient s’étendre à d’autres productions, comme les jeux de données, en tant que résultantes importantes de la recherche. Ces recommandations s’adressent aux agences de financement, aux établissements d’enseignement et de recherche, aux revues, aux organismes pourvoyeurs d’indicateurs et à chaque chercheur.

      Ces recommandations s’articulent autour d’un certain nombre de sujets :

      la nécessité de mettre un terme à l’utilisation d’indicateurs basés sur les revues, comme les facteurs d’impact, dans le financement, les nominations et les promotions ;
      celle d’évaluer la recherche sur sa valeur intrinsèque plutôt qu’en fonction de la revue où elle est publiée ; et
      celle encore d’exploiter au mieux les possibilités offertes par la publication en ligne (comme la levée de restrictions inutiles sur le nombre de mots, de figures et de références dans les articles et l’exploration de nouveaux indicateurs d’importance et d’impact).

      Nous reconnaissons que de nombreuses agences de financement, établissements, éditeurs et chercheurs encouragent déjà l’amélioration des pratiques d’évaluation de la recherche. De telles démarches commencent à donner de nouvelles perspectives à des approches d’évaluation de la recherche plus élaborées et plus pertinentes sur lesquelles il est possible de s’appuyer et qui puissent être adoptées par toutes les parties impliquées au premier chef.

      Les signataires de la Déclaration de San Francisco sur l’évaluation de la recherche soutiennent l’adoption des pratiques suivantes pour l’évaluation de la recherche.

      Recommandation générale

      Ne pas utiliser les indicateurs basés sur les revues, tels que les facteurs d’impact, comme succédané d’appréciation de la qualité des articles de recherche individuels, pour évaluer les contributions d’un scientifique en particulier ou pour prendre des décisions en matière de recrutement, de promotion ou de financement.

      Pour les agences de financement

      Indiquer explicitement les critères utilisés pour évaluer la productivité scientifique des porteurs de projet et souligner clairement, surtout pour les chercheurs débutants, que le contenu scientifique d’un article est beaucoup plus important que les indicateurs de publication ou l’image de marque de la revue dans laquelle il a été publié.

      Aux fins de l’évaluation de la recherche, tenir compte de la valeur et de l’impact de tous les résultats de travaux de recherche (y compris les jeux de données et les logiciels) en plus des publications scientifiques, et envisager un large éventail de mesures d’impact, y compris des indicateurs qualitatifs sur les retombées des travaux, comme leur influence sur les politiques et les pratiques.

      Pour les établissements

      Afficher explicitement les critères utilisés dans les décisions de recrutement, de titularisation et de promotion, en soulignant clairement, surtout pour les chercheurs débutants, que le contenu scientifique d’un article est beaucoup plus important que les indicateurs de publication ou l’image de marque de la revue dans laquelle il a été publié.

      Aux fins de l’évaluation de la recherche, tenir compte de la valeur et de l’impact de tous les résultats de travaux de recherche (y compris les jeux de données et les logiciels) en plus des publications scientifiques, et envisager un large éventail de mesures d’impact, y compris des indicateurs qualitatifs sur les retombées des travaux, comme leur influence sur les politiques et les pratiques.

      Pour les éditeurs

      Réduire considérablement l’importance accordée au facteur d’impact comme outil de promotion, idéalement en cessant de le promouvoir ou en présentant ce paramètre dans le contexte d’une variété d’indicateurs basés sur les revues (p. ex. facteur d’impact sur 5 ans, EigenFactor [8], SCImago [9], indice h, temps de traitement éditorial et de publication, etc.) qui offrent une vision plus riche de la performance d’une revue.

      Proposer une série d’indicateurs à l’échelle de l’article pour encourager le passage à une évaluation qui soit fondée sur le contenu scientifique d’un article plutôt que sur les indicateurs de publication de la revue dans laquelle il a été publié.

      Encourager des pratiques responsables en matière de paternité d’auteur et la fourniture d’informations sur les contributions spécifiques de chaque auteur.

      Qu’une revue soit en libre accès ou sur abonnement, supprimer toutes les restrictions de réutilisation des listes de références dans les articles et les mettre à disposition dans le cadre du Creative Commons Public Domain Dedication [10].

      Éliminer ou réduire les contraintes sur le nombre de références dans les articles et, le cas échéant, exiger la citation de la littérature primaire plutôt que celle des articles de synthèse afin de reconnaître le mérite du ou des groupes qui ont rapporté en premier une découverte.

      Pour les organismes pourvoyeurs d’indicateurs

      Faire preuve d’ouverture et de transparence en fournissant les données et les méthodes utilisées pour calculer tous les indicateurs.

      Fournir les données en vertu d’une licence qui permette une réutilisation sans restriction et permettre un accès informatique aux données, dans la mesure du possible.

      Préciser clairement que la manipulation inconsidérée des indicateurs ne sera pas tolérée ; désigner explicitement ce qui constitue une manipulation inconsidérée et les mesures qui seront prises pour y remédier.

      Tenir compte de la diversité des types d’articles (p. ex., articles de synthèse par rapport aux articles de recherche) et des différents domaines lorsque les indicateurs sont utilisés, agrégés ou comparés.

      Pour les chercheurs

      Lors d’une participation à des commissions exerçant des décisions de financement, d’embauche, de titularisation ou de promotion, produire des évaluations fondées sur le contenu scientifique plutôt qu’en fonction des indicateurs de publication.

      Le cas échéant, citer la littérature primaire dans laquelle les observations ont été rapportées en premier plutôt que les articles de synthèse afin d’en attribuer le mérite à bon escient.

      Utiliser une gamme de paramètres et d’indicateurs d’articles sur les déclarations personnelles/de soutien, comme preuve de l’impact d’articles individuels publiés et d’autres résultats de recherche [11].

      Remettre en question les pratiques d’évaluation de la recherche qui s’appuient inconsidérément sur les facteurs d’impact. Promouvoir et enseigner les bonnes pratiques qui mettent l’accent sur la valeur et l’influence des résultats spécifiques de la recherche.

      https://sfdora.org/read/fr
      #recommandations


  • Qu’est-ce qu’une revue scientifique ? Et… qu’est-ce qu’elle devrait être ?
    https://theconversation.com/quest-ce-quune-revue-scientifique-et-quest-ce-quelle-devrait-etre-7

    L’idée selon laquelle la production serait une phase complètement séparée de la diffusion repose en effet sur une idéalisation naïve qui dénature la réalité de la recherche. La recherche est d’abord basée sur la discussion et l’échange : on ne peut produire un contenu scientifique qu’en dialoguant avec les autres chercheurs. Aussi, la diffusion est le pivot sur lequel devrait se baser cet échange.

    En second lieu, la forme article – née des caractéristiques spécifiques au format papier – est trop contraignante et ne répond pas – ou pas toujours – aux besoins de ce que Jean‑Claude Guédon appelle « la grande conversation scientifique ». L’environnement numérique nous donne la possibilité de mettre en place d’autres formes d’échange, beaucoup plus fluides et fructueuses : pourquoi se borner à une forme d’écriture dont le besoin n’est plus inscrit dans la matérialité du support que nous utilisons ?

    En conclusion, les revues scientifiques sont aujourd’hui une véritable aberration. Elles produisent des effets opposés à ceux qu’elles seraient supposées produire. C’est pourquoi je cautionne complètement le point de vue d’Olivier Ertzscheid, qui affirmait en mai 2016 qu’il ne publierait plus dans des revues scientifiques.

    C’est donc là la mission des revues et c’est à ce problème qu’elles doivent répondre : comment peut-on produire des espaces où puissent se former des communautés capables de converser et d’échanger sur des sujets scientifiques ?

    Les revues ne doivent pas se concentrer sur la diffusion, car la diffusion n’est qu’un moyen de répondre à un besoin : celui de former des communautés.

    #revues_scientifiques


  • « Pourquoi je ne publie(rai) plus (jamais) dans des revues scientifiques » Un excellent article contre le racket d’#Elsevier et contre toutes les procédures idiotes de l’édition scientique. « tant qu’il y aura des couilles éditoriales en or y’aura des lames d’Open Access en acier [en parlant de #Sci-Hub] »

    http://affordance.typepad.com/mon_weblog/2016/05/pourquoi-je-ne-publierai-plus-dans-des-revues-scientifiques.html

    #open_access #édition_scientifique #revues_scientifiques

    • Quiconque affirme aujourd’hui qu’en acceptant de publier dans des revues scientifiques sans systématiquement déposer son texte dans une archive ouverte et/ou avec une licence d’attribution non-commerciale il ignore ou feint d’ignorer sa part de responsabilité dans la situation catastrophique de privatisation de la connaissance que mettent en oeuvre quelques grands groupes éditoriaux à l’échelle de la planète, celui-là est à la fois un idiot, un menteur et surtout un irresponsable.

    • ...des universités doivent renoncer, j’ai bien dit renoncer, à accéder à des revues scientifiques. Monde de dingue. Un peu comme si des agriculteurs devaient renoncer à certaines graines et semences du fait des pratiques de certaines firmes agro-alimentaires. Monde de dingue au carré.


  • #Sci-Hub, le Pirate Bay de la #recherche_scientifique, est de retour
    http://www.lemonde.fr/pixels/article/2016/02/15/sci-hub-le-pirate-bay-de-la-recherche-scientifique-est-de-retour_4865611_440

    Sci-Hub donne ainsi accès, gratuitement, à 47 millions d’articles de chercheurs, selon les chiffres donnés par le site. Du contenu d’ordinaire payant, publié par de grands éditeurs de #revues_scientifiques. Et l’un d’entre eux a décidé de réagir. #Elsevier, un des plus importants éditeurs du secteur, a porté plainte contre le site pour violation de #droits_d’auteur et obtenu gain de cause auprès de la justice américaine en octobre dernier. Le nom de domaine initial, Sci-hub.org, a été supprimé par les autorités. Ce qui n’a pas empêché le site de réapparaître peu de temps après sous une autre adresse, Sci-hub.io.


  • #New_Research_voices. International Journal of Research from the Front-line

    #NRV is an online community space empowering researchers to support each other, share their work and contribute to a better understanding of the world we live in. This platform aims to connect researchers, publish research articles and interviews with researchers and academics to promote norm-challenging, sensitive and innovative research. NRV is a free and open resource created by researchers. We believe in dialogue, collaboration, critical thinking, independence, sharing, openness and freedom in academia.

    Starting in January 2016 NRV will publish and promote research covering a different theme every second month. To support the research we will also publish interviews with the researchers involved in order to give a better insight into their work. The themes for 2016 are as follows.

    http://newresearchvoices.org
    #revue #exil #université #revues_scientifiques #réfugiés
    cc @reka




  • Let’s stop pretending #peer_review works

    In the early 1980s, there was growing concern about the quality of peer review at scientific journals. So two researchers at Cornell and the University of North Dakota decided to run a little experiment to test the process.

    The idea behind peer review is simple: It’s supposed to weed out bad science. Peer reviewers read over promising studies that have been submitted to a journal to help gauge whether they should be published or need changes. Ideally, reviewers are experts in fields related to the studies in question. They add helpful comments, point out problems and holes, or simply reject flawed papers that shouldn’t see the light of day.

    The two researchers, Douglas Peters and Stephen Ceci, wanted to test how reliable and unbiased this process actually is. To do this, they selected 12 papers that had been published about two to three years earlier in extremely selective American psychology journals.

    http://www.vox.com/2015/12/7/9865086/peer-review-science-problems
    #édition_scientifique #revues_scientifiques #science #université


  • Quel “open access” pour les publications scientifiques ?
    https://www.futuribles.com/base/article/quel-open-access-pour-les-publications-scientifiqu

    Au-delà des modèles économiques, l’open access pose des questions politiques et sociales. Le rôle des éditeurs doit-il être préservé au motif qu’ils représentent une activité économique à défendre ? À quelles conditions d’autres systèmes d’évaluation, directement gérés par les chercheurs et les institutions scientifiques (sur le modèle des presses universitaires ou des sociétés savantes), peuvent-ils garantir un niveau d’exigence satisfaisant ? Ici, c’est également le sens de l’évaluation scientifique qu’il s’agit d’interroger, les limites de la bibliométrie étant soulignées par de nombreux chercheurs, en particulier en sciences humaines et sociales, mais également en mathématiques, les biologistes étant les plus favorables (peut-être parce que les plus adaptés) à ces procédés [9]. Enfin, ne doit-on pas considérer les résultats scientifiques comme des « biens communs [10] » et redéfinir leur statut ?

    #Bibliométrie #Libre_accès_(édition_scientifique) #Open_access #Publication_scientifique #Recherche_scientifique #Recherche_universitaire #Université #Édition_scientifique


  • Le maffesolisme, une « sociologie » en roue libre. Démonstration par l’absurde | Zilsel
    http://zilsel.hypotheses.org/1713

    Le 4 février 2015, le numéro 4/2014 de la revue Sociétés paraît sur le portail en ligne Cairn.info. Il est également disponible en format « papier » le 13 février, par l’intermédiaire des Éditions de Boeck. Dans le sommaire, un article classé dans les « marges » mérite l’attention : « Automobilités postmodernes : quand l’Autolib’ fait sensation à Paris »[1].

    Son auteur, Jean-Pierre Tremblay, originaire du Québec, propose de « mettre au jour les soubassements imaginaires d’un objet socio-technique urbain contemporain : l’Autolib’ » (confer l’ultime version envoyée par l’auteur à la rédaction de Sociétés en octobre 2014 : Automobilités, proposition Sociétés, JPT 2014, MX V2).

    Le résumé de cet article d’une dizaine de pages est suggestif :Tout cela aurait pu passer inaperçu. Des articles de ce genre, Sociétés en publie à la chaîne depuis « plus de vingt ans ». Rien de surprenant, rien de neuf, dira-t-on. Seulement voilà, il faut révéler dès maintenant que « Jean-Pierre Tremblay » n’existe pas ; c’est l’avatar d’une imposture intellectuelle calculée, un nom d’emprunt qui ne laissera heureusement pas d’empreinte scientifique. L’article est un canular rédigé par les auteurs de la présente mise au point. Peut-être l’article sera-t-il retiré par la rédaction de Sociétés (encore que, ce serait remettre en question l’intégrité épistémologique de l’évaluation…), mais cela importe peu car nous sommes parvenus à nos fins : démonter de l’intérieur, en toute connaissance de cause, la fumisterie de ce que nous appellerons le « maffesolisme » – c’est-à-dire, bien au-delà de la seule personnalité de Michel Maffesoli, le fondateur et directeur de la revue Sociétés, une certaine « sociologie interprétative/postmoderne » à vocation académique. Révélant le pot aux roses, nous relaterons ici l’histoire de ce canular et expliquerons pourquoi nous l’avons fabriqué.

    C’est peu dire que nous n’en revenons toujours pas d’avoir réussi à publier une telle somme de sottises dans une revue qui (pro)clame sa scientificité à qui veut encore l’entendre. Comme nous le montrerons, pièces à l’appui, le canular met en lumière le fonctionnement d’un collectif d’enseignement et de recherche qui continue d’essaimer dans le monde académique, en France et à l’étranger, et s’autorise d’espaces institutionnels, d’instruments de valorisation et de structures éditoriales, comme Sociétés. Or tout cela repose sur des bases scientifiquement très fragiles, et nous pensons l’avoir prouvé sans peine au moyen de cette expérimentation.

    #sociologie #imposture #sciences_sociales #sociologie #revues_scientifiques


  • Intransparenz bei den Bibliotheksausgaben von Schweizer Hochschulen

    Gemäss Jahresbericht 2013 vermittelte das Konsortium der Schweizer Hochschulbibliotheken Lizenzen für über 25.6 Mio. CHF an Konsortialmitglieder. Davon waren 18.76 Mio. für Closed Access Zeitschriften, 6.22 Mio. für Datenbanken und 630’000 für Closed Access E-Books. Die teuerste Zeitschriftenlizenz des Jahres 2013 – #ScienceDirect (#Elsevier) – belief sich auf über 7 Mio. CHF, gefolgt von den Wiley Journals mit ca. 3.5 Mio. CHF und Nature mit ca. 1.5 Mio CHF. Aus diesen groben Zahlen, bei denen eigenartigerweise Springer nicht aufgeführt ist, wird allerdings nicht klar wieviel Geld einzelne Bibliotheken für welche Produkte und zu welchen Bedingungen aufgewendet haben. Kommt hinzu, dass Bibliotheken auch selber verhandelte Lizenzen und Kaufverträge abschliessen.

    http://wisspub.net/2014/10/13/intransparenz-bei-den-bibliotheksausgaben-von-schweizer-hochschulen

    #université #bibliothèque #Suisse #argent #business #revues_scientifiques #transparence (manque de) #bibliothèques_universitaires
    @reka : voici un document critique qui commence à circuler sur le problèmes des revues scientifiques, leurs coûts et le monopole de certaines maisons d’édition... c’est en allemand pour l’instant, mais comme tu le sais, on va probablement avoir des nouveautés bientôt et peut-être aussi des informations en français...


  • Nature Communications to become open access only
    http://www.nature.com/press_releases/ncomms-oa.html

    Nature Communications is to become the first Nature-branded #open_access only journal. The number one open access journal in multidisciplinary sciences*, Nature Communications is Nature Publishing Group’s (NPG) flagship open access title. Nature Communications will only accept open access research submissions from 20th October 2014.

    #revues_scientifiques #publications


  • Nobel winner declares boycott of top science journals | Science | The Guardian
    http://www.theguardian.com/science/2013/dec/09/nobel-winner-boycott-science-journals

    Leading academic journals are distorting the scientific process and represent a “tyranny” that must be broken, according to a Nobel prize winner who has declared a boycott on the publications.

    Randy Schekman, a US biologist who won the Nobel prize in physiology or medicine this year and receives his prize in Stockholm on Tuesday, said his lab would no longer send research papers to the top-tier journals, Nature, Cell and Science.

    Schekman said pressure to publish in “luxury” journals encouraged researchers to cut corners and pursue trendy fields of science instead of doing more important work. The problem was exacerbated, he said, by editors who were not active scientists but professionals who favoured studies that were likely to make a splash.

    The prestige of appearing in the major journals has led the Chinese Academy of Sciences to pay successful authors the equivalent of $30,000 (£18,000). Some researchers made half of their income through such “bribes”, Schekman said in an interview.

    #Nobel #science #publications


  • De l’autre côté du miroir : revues scientifiques et presse en ligne

    Une récente intervention dans un master à Clermont m’a fourni l’occasion d’un regard de côté sur un monde ignoré, celui de la presse en ligne. Pour traiter de l’édition de revues en ligne devant des étudiants dont la science n’est pas la préoccupation première, je me suis efforcé d’élargir un peu mon point de vue. À défaut d’être approfondi (quelques heures de lecture et de vagabondage sur internet), ce détour était passionnant : le monde de la presse en ligne m’a paru offrir une sorte de vue symétrique de celui des revues scientifiques.

    http://alambic.hypotheses.org/4237

    #revues_scientifiques #online #open_access #presse