• First article published in UCL’s open access megajournal

    UCL’s new megajournal ‘#UCL_Open’ has published its first article, delivering on our commitment to provide academics, students and the general public with ground-breaking research free of charge.

    #résistance #édition_scientifique #savoir #université #connaissance #UCL #alternative #open_access #revues_scientifiques

    Welcome to UCL Open: Environment
    #UCL _open_environment

  • #DOAJ (#Directory_of_Open_Access_Journals)

    DOAJ is a community-curated online directory that indexes and provides access to high quality, open access, peer-reviewed journals. DOAJ is independent. All funding is via donations, 40% of which comes from sponsors and 60% from members and publisher members. All DOAJ services are free of charge including being indexed in DOAJ. All data is freely available.

    #liste #OA #open_access #édition_scientifique #université #revues #revues_scientifiques

    • List of OA journals in geography, political ecology, anthropology, planning, area studies, and various social sciences

      “…….So things might have happily continued, had not the corporate interests within this limited, subsidised economy pushed journal subscription prices to the point where access to the knowledge went into a state of decline, at a time when new publishing technologies enabled researchers to take publishing back into their own hands. These new technologies have been used to demonstrate how access can be greatly increased, improving the circulation of knowledge, restoring the researcher’s control of knowledge, and extending its value as a public good by making it far more widely available.” Willinsky J. 2003. The Nine Flavours of Open Access Scholarly Publishing . J Postgrad Med 49:263-7.

      Academics write most of their work in journals. Journals should publish and curate good quality work, but unfortunately the majority are also used to make money for commercial publishers. This is not a win-win situation. Corporate profits are frequently high because companies retain author copyrights, and sell the material to (mainly) scholarly and university libraries, that frequently struggle to stock key journals because of the cost. Five companies are now dominating the field, and buying out smaller ones. Financing of this form of scholarly publishing is opaque. Academics do not rock the boat on this very often, because their prestige and careers are linked too much to the journals they publish in, and most of the prestigious ones are commercial and expensive. Our systems of merit and performance measures are not yet geared to rewarding publishing that is ethical, or based on social justice criteria (Cahill and Irving 2015). This is especially bad at research universities. (good ref. here, a depressing study here that shows social scientists in particular don’t care as much about OA as they about the rank of outlets).

      To make some contribution to the debate about whether social scientists can avoid the big commercial, firewalled journals, I list below decent academic journals that are free or cheap to publish in, have proper refereeing, and are Open Access – free for readers. Copyright is retained by the author in most but not quite all of them. Open access journals can also impose substantial fees on authors instead of readers. Those with high fees above cUS$500 for authors are excluded- like most social scientists I don’t have more than this to contribute to a publication and I don’t think more is justified. There is a long debate about whether in our internet world, we should be paying at all, which I won’t get into here.

      The list began with fields my students and I publish in, hence the small number of themes [environment & development, human geography, anthropology, urban studies and planning, area studies, general social science, and the university research/teaching/publication process], but it should be useful as a starting point. Further discussion on journals and open access here. Journals are the main systems of prestige, ranking and hierarchy that we have, much as it would be fairer to ignore them and just publish in the most appropriate venue for the readership. I have included Scopus and its useful impact factor derivative Citescore (released Dec 2016, now called Scopus Sources), Web of Science (formerly ISI) and their newish Emerging Sources Citation Index listings.

      For the majority of my colleagues reading this who have not thought much about OA and publishing ethics (and are manically trying to publish in the best places), I hope you find something you can contribute to. In brief, open access is the best way to publish scholarly material – more readers, and articles under authors’ control. It is a logical outcome of the invention of the web, and the Academic Spring protests of 2012 (analysis, reasons), which have had echoes – eg the Lingua debacle over the resignation of an editorial board that was dissatisfied with Elsevier’s control of copyright and high OA charges, and all the Netherlands universities’ fight with the same company in 2015 about high charges.

      Most of the journals on the list are run by the “community economies” of unpaid academics, university libraries or departments, or scholarly societies, and a few are commercial but still have acceptable author fees that mere mortals could afford (APCs) *. Only if the big publishers are able to offer OA at reasonable fees, is it worth considering publishing an OA article with them. That said, as Sir/Prof. Tim Gowers argues, journals these days exist only to accommodate author prestige – you can publish anything online, or easily just email the author for a copy of an article (or use Researchgate, Academia.edu or Sci-hub). So OA journals need to be as good in quality and meticulous as those conventional ones that are costing our libraries a fortune. I hope I only list good ones here.

      The invention of the web and its rollout in the early 1990s spelled the end of the need for conventional firewalled journals. Printed copies are no longer required (although they may be desired by a few) and the culture among scholars has changed to storing individual article PDFs and only printing them if needed. There are few costs for hosting a journal online – storing its files is easy. Costs, or value, are all in the labour. To suggest there are major cost implications of OA is not true, unless professional editors or translators are used. If publishing is done largely by academics and their institutions, which is my hope, the cost of running journals is absorbed into regular workloads or taken up by grants, and we have a true change in publishing underway. “The commitment of scholars everywhere to finding new ways of improving access to knowledge” (Willinsky 2003) need not be commercialised or costly. The ‘big five’ publishers (who now control 66% of papers in social sciences in the WoS, and rising…) and some of the smaller ones will have to adapt or perish (but they do produce indexing, which is useful for now). We will have our copyrights and a larger potential readership, and university libraries will have more money to spend. We will also be able to support smaller and multilingual world periphery journals.

      Useful sites

      DOAJ if your journal isn’t on here, a curated list of proper OA journals, not good. However in 2016 they did some housecleaning, but it was pretty poorly done so many legit. journals complained about being missed off. This now (2017) seems to be rectified.
      A campaign to alert you to dodgy publishers, because there are some http://thinkchecksubmit.org.
      A listing of academic articles on radical OA http://radicaloa.disruptivemedia.org.uk/resources/radical-open-access-literature
      A video about OA https://youtu.be/L5rVH1KGBCY

      Paywall (2018) the movie https://paywallthemovie.com – free and recommended.
      Open Access Chronicle http://paper.li/jimtill/1309217562
      Beall’s List, Original site was removed in Jan ’17 – possibly the author was threatened with litigation in some way. (now archived and updated https://beallslist.weebly.com). Crappy journals designed to make money, and allowing substandard work, (were) identified and weeded out. Beall, now retired, did focus on the negatives of OA, was criticised for libertarian views supporting free enterprise but only for the conventional, subscription-based publishing establishment. And it must be said, he held a very embarrassing conspiracy theory about all OA publishing!
      QOAM Quality Open Access Market. Crowd-sourced assessment of OA journals. Evolving. List of journals and publishers is useful. http://www.qoam.eu
      Francophone journals list (geography) http://www.openedition.org/catalogue-journals?searchdomain=catalogue-journals&q=geography
      All Australian university-run journals https://aoasg.org.au/australian-oa-journals
      Useful journal list in the environmental field, not all free http://www.esf.edu/es/sonnenfeld/envsoc_journals.htm
      JURN – good and updated list of OA journals, edited and searchable. Site down 2019 try here for a pdf instead http://www.jurn.org/directory
      ESOP young academics list of OA planning journals https://aesopyoungacademics.wordpress.com/2015/10/23/open-access-week-planext-and-a-list-of-oa-journals
      List of online anthropology journals http://www.antropologi.info/links/Main/Journals
      INASP It funds Nepal Journals Online (most with credible academic status), Bangladesh Journals Online (BanglaJOL), Philippines Journals Online (PhilJOL) and Sri Lanka Journals Online (SLJOL), (and other countries). For Africa see www.ajol.info. Not all of these are good though; if I find good ones there I will place them below. For Eastern Europe see https://www.ceeol.com
      Latin America journal listing (til 2015) http://lanic.utexas.edu/la/region/journals
      Impact of the social sciences – a useful LSE project with some actual data.
      Giant list by Jan Szczepanski, 9mb word file! Not all are cheap or taking english articles. https://www.ebsco.com/open-access/szczepanski-list
      Radical Open Access conference, June 2015, Coventry http://radicalopenaccess.disruptivemedia.org.uk/videos
      Walt Crawford writes more about OA publishing than anybody else- even book length manuscripts interrogating the DOAJ database. He shows reputable free OA journals are predominant – only a minority have high APCs.


  • L’#édition_scientifique, entre #prédateurs et #profiteurs

    Les #revues_scientifiques sont au cœur de la diffusion des savoirs et de l’évaluation des chercheurs. Face à la captation du #marché par de grandes entreprises, des résistances s’organisent. Entretien croisé avec #Hervé_Maisonneuve et #Frédéric_Hélein.
    Pour un chercheur, publier ses résultats dans des revues spécialisées est une activité cruciale, lors de laquelle se joue sa renommée. Ces revues, initialement fondées par des sociétés savantes, sont de plus en plus contrôlées par un #oligopole de #multinationales de l’édition, qui accumulent des #profits phénoménaux. Depuis une décennie, le modèle économique de l’édition scientifique bascule vers une logique d’accès libre aux articles, les frais de publication étant couverts par les chercheurs. Mais des groupes peu recommandables ont développé des revues dites « prédatrices », publiant n’importe quoi dans le seul but d’encaisser le paiement des chercheurs.
    Où va l’édition scientifique ? Comment les scientifiques peuvent-ils reprendre le contrôle de ce maillon essentiel à la diffusion de leurs recherches ? Entretien croisé avec Hervé Maisonneuve, médecin de santé publique, et Frédéric Hélein, professeur de mathématiques à l’université Paris VII.


    #prédation #profit #université #business #savoir #recherche #science

    signalé par @marty

    • #Déclaration_de_San_Francisco sur l’#évaluation de la recherche

      Il est urgent d’améliorer les méthodes d’évaluation des résultats de la recherche scientifique par les agences de financement, les établissements d’enseignement et de recherche et d’autres parties. Pour régler cette question, un groupe de rédacteurs en chef et d’éditeurs de revues savantes s’est réuni à San Francisco en Californie le 16 décembre 2012, dans le cadre du congrès annuel de l’American Society for Cell Biology (ASCB). Ce groupe a élaboré un ensemble de recommandations, désormais appelé « Déclaration de San Francisco sur l’évaluation de la recherche ». Nous invitons les parties intéressées de toutes les disciplines scientifiques à manifester leur soutien en ajoutant leur nom à la présente Déclaration.

      Les apports de la recherche sont nombreux et variés : articles contenant de nouvelles connaissances, données, réactifs, logiciels ainsi que propriété intellectuelle et jeunes scientifiques hautement qualifiés. Les agences de financement, les établissements qui emploient des chercheurs et ces scientifiques eux-mêmes éprouvent tous le désir et le besoin d’évaluer la qualité et l’impact de la production scientifique. Il est donc impératif que la production scientifique soit mesurée rigoureusement et évaluée avec discernement.

      Le facteur d’impact des revues est souvent utilisé comme principal paramètre pour comparer la production scientifique individuelle et celle des établissements. Ce facteur d’impact, tel que calculé par Thomson Reuters*, a été créé à l’origine comme un outil d’aide pour les bibliothécaires servant à identifier les revues à acheter, et non pour mesurer la qualité scientifique de la recherche exposée dans un article. Dans cette optique, il est essentiel de comprendre que le facteur d’impact présente un certain nombre d’insuffisances bien documentées en tant qu’outil d’évaluation de la recherche. Ces limitations sont les suivantes : A) les distributions des citations dans les revues sont très asymétriques [1-3] ; B) les propriétés du facteur d’impact sont propres à chaque domaine : il s’agit d’un agrégat de types d’articles multiples et très divers, avec des articles primaires comme de synthèse [1, 4] ; C) les facteurs d’impact peuvent être manipulés (ou « instrumentalisés ») par une politique éditoriale [5] ; et D) les données utilisées pour calculer les facteurs d’impact ne sont ni transparentes ni ouvertement accessibles au public [4, 6, 7]. Ce qui suit formule des recommandations visant à améliorer la façon dont la qualité des résultats de la recherche est évaluée. D’autres éléments de production scientifique que les articles prendront une importance accrue dans l’évaluation de l’efficacité des travaux de recherche à l’avenir, mais l’article, contrôlé par des pairs, demeurera une production scientifique essentielle entrant dans l’évaluation de la recherche. Par conséquent, nos recommandations portent au premier chef sur les pratiques relatives aux articles publiés dans des revues à comité de lecture, mais elles peuvent et devraient s’étendre à d’autres productions, comme les jeux de données, en tant que résultantes importantes de la recherche. Ces recommandations s’adressent aux agences de financement, aux établissements d’enseignement et de recherche, aux revues, aux organismes pourvoyeurs d’indicateurs et à chaque chercheur.

      Ces recommandations s’articulent autour d’un certain nombre de sujets :

      la nécessité de mettre un terme à l’utilisation d’indicateurs basés sur les revues, comme les facteurs d’impact, dans le financement, les nominations et les promotions ;
      celle d’évaluer la recherche sur sa valeur intrinsèque plutôt qu’en fonction de la revue où elle est publiée ; et
      celle encore d’exploiter au mieux les possibilités offertes par la publication en ligne (comme la levée de restrictions inutiles sur le nombre de mots, de figures et de références dans les articles et l’exploration de nouveaux indicateurs d’importance et d’impact).

      Nous reconnaissons que de nombreuses agences de financement, établissements, éditeurs et chercheurs encouragent déjà l’amélioration des pratiques d’évaluation de la recherche. De telles démarches commencent à donner de nouvelles perspectives à des approches d’évaluation de la recherche plus élaborées et plus pertinentes sur lesquelles il est possible de s’appuyer et qui puissent être adoptées par toutes les parties impliquées au premier chef.

      Les signataires de la Déclaration de San Francisco sur l’évaluation de la recherche soutiennent l’adoption des pratiques suivantes pour l’évaluation de la recherche.

      Recommandation générale

      Ne pas utiliser les indicateurs basés sur les revues, tels que les facteurs d’impact, comme succédané d’appréciation de la qualité des articles de recherche individuels, pour évaluer les contributions d’un scientifique en particulier ou pour prendre des décisions en matière de recrutement, de promotion ou de financement.

      Pour les agences de financement

      Indiquer explicitement les critères utilisés pour évaluer la productivité scientifique des porteurs de projet et souligner clairement, surtout pour les chercheurs débutants, que le contenu scientifique d’un article est beaucoup plus important que les indicateurs de publication ou l’image de marque de la revue dans laquelle il a été publié.

      Aux fins de l’évaluation de la recherche, tenir compte de la valeur et de l’impact de tous les résultats de travaux de recherche (y compris les jeux de données et les logiciels) en plus des publications scientifiques, et envisager un large éventail de mesures d’impact, y compris des indicateurs qualitatifs sur les retombées des travaux, comme leur influence sur les politiques et les pratiques.

      Pour les établissements

      Afficher explicitement les critères utilisés dans les décisions de recrutement, de titularisation et de promotion, en soulignant clairement, surtout pour les chercheurs débutants, que le contenu scientifique d’un article est beaucoup plus important que les indicateurs de publication ou l’image de marque de la revue dans laquelle il a été publié.

      Aux fins de l’évaluation de la recherche, tenir compte de la valeur et de l’impact de tous les résultats de travaux de recherche (y compris les jeux de données et les logiciels) en plus des publications scientifiques, et envisager un large éventail de mesures d’impact, y compris des indicateurs qualitatifs sur les retombées des travaux, comme leur influence sur les politiques et les pratiques.

      Pour les éditeurs

      Réduire considérablement l’importance accordée au facteur d’impact comme outil de promotion, idéalement en cessant de le promouvoir ou en présentant ce paramètre dans le contexte d’une variété d’indicateurs basés sur les revues (p. ex. facteur d’impact sur 5 ans, EigenFactor [8], SCImago [9], indice h, temps de traitement éditorial et de publication, etc.) qui offrent une vision plus riche de la performance d’une revue.

      Proposer une série d’indicateurs à l’échelle de l’article pour encourager le passage à une évaluation qui soit fondée sur le contenu scientifique d’un article plutôt que sur les indicateurs de publication de la revue dans laquelle il a été publié.

      Encourager des pratiques responsables en matière de paternité d’auteur et la fourniture d’informations sur les contributions spécifiques de chaque auteur.

      Qu’une revue soit en libre accès ou sur abonnement, supprimer toutes les restrictions de réutilisation des listes de références dans les articles et les mettre à disposition dans le cadre du Creative Commons Public Domain Dedication [10].

      Éliminer ou réduire les contraintes sur le nombre de références dans les articles et, le cas échéant, exiger la citation de la littérature primaire plutôt que celle des articles de synthèse afin de reconnaître le mérite du ou des groupes qui ont rapporté en premier une découverte.

      Pour les organismes pourvoyeurs d’indicateurs

      Faire preuve d’ouverture et de transparence en fournissant les données et les méthodes utilisées pour calculer tous les indicateurs.

      Fournir les données en vertu d’une licence qui permette une réutilisation sans restriction et permettre un accès informatique aux données, dans la mesure du possible.

      Préciser clairement que la manipulation inconsidérée des indicateurs ne sera pas tolérée ; désigner explicitement ce qui constitue une manipulation inconsidérée et les mesures qui seront prises pour y remédier.

      Tenir compte de la diversité des types d’articles (p. ex., articles de synthèse par rapport aux articles de recherche) et des différents domaines lorsque les indicateurs sont utilisés, agrégés ou comparés.

      Pour les chercheurs

      Lors d’une participation à des commissions exerçant des décisions de financement, d’embauche, de titularisation ou de promotion, produire des évaluations fondées sur le contenu scientifique plutôt qu’en fonction des indicateurs de publication.

      Le cas échéant, citer la littérature primaire dans laquelle les observations ont été rapportées en premier plutôt que les articles de synthèse afin d’en attribuer le mérite à bon escient.

      Utiliser une gamme de paramètres et d’indicateurs d’articles sur les déclarations personnelles/de soutien, comme preuve de l’impact d’articles individuels publiés et d’autres résultats de recherche [11].

      Remettre en question les pratiques d’évaluation de la recherche qui s’appuient inconsidérément sur les facteurs d’impact. Promouvoir et enseigner les bonnes pratiques qui mettent l’accent sur la valeur et l’influence des résultats spécifiques de la recherche.


  • Qu’est-ce qu’une revue scientifique ? Et… qu’est-ce qu’elle devrait être ?

    L’idée selon laquelle la production serait une phase complètement séparée de la diffusion repose en effet sur une idéalisation naïve qui dénature la réalité de la recherche. La recherche est d’abord basée sur la discussion et l’échange : on ne peut produire un contenu scientifique qu’en dialoguant avec les autres chercheurs. Aussi, la diffusion est le pivot sur lequel devrait se baser cet échange.

    En second lieu, la forme article – née des caractéristiques spécifiques au format papier – est trop contraignante et ne répond pas – ou pas toujours – aux besoins de ce que Jean‑Claude Guédon appelle « la grande conversation scientifique ». L’environnement numérique nous donne la possibilité de mettre en place d’autres formes d’échange, beaucoup plus fluides et fructueuses : pourquoi se borner à une forme d’écriture dont le besoin n’est plus inscrit dans la matérialité du support que nous utilisons ?

    En conclusion, les revues scientifiques sont aujourd’hui une véritable aberration. Elles produisent des effets opposés à ceux qu’elles seraient supposées produire. C’est pourquoi je cautionne complètement le point de vue d’Olivier Ertzscheid, qui affirmait en mai 2016 qu’il ne publierait plus dans des revues scientifiques.

    C’est donc là la mission des revues et c’est à ce problème qu’elles doivent répondre : comment peut-on produire des espaces où puissent se former des communautés capables de converser et d’échanger sur des sujets scientifiques ?

    Les revues ne doivent pas se concentrer sur la diffusion, car la diffusion n’est qu’un moyen de répondre à un besoin : celui de former des communautés.


  • « Pourquoi je ne publie(rai) plus (jamais) dans des revues scientifiques » Un excellent article contre le racket d’#Elsevier et contre toutes les procédures idiotes de l’édition scientique. « tant qu’il y aura des couilles éditoriales en or y’aura des lames d’Open Access en acier [en parlant de #Sci-Hub] »


    #open_access #édition_scientifique #revues_scientifiques

    • Quiconque affirme aujourd’hui qu’en acceptant de publier dans des revues scientifiques sans systématiquement déposer son texte dans une archive ouverte et/ou avec une licence d’attribution non-commerciale il ignore ou feint d’ignorer sa part de responsabilité dans la situation catastrophique de privatisation de la connaissance que mettent en oeuvre quelques grands groupes éditoriaux à l’échelle de la planète, celui-là est à la fois un idiot, un menteur et surtout un irresponsable.

    • ...des universités doivent renoncer, j’ai bien dit renoncer, à accéder à des revues scientifiques. Monde de dingue. Un peu comme si des agriculteurs devaient renoncer à certaines graines et semences du fait des pratiques de certaines firmes agro-alimentaires. Monde de dingue au carré.

  • #Sci-Hub, le Pirate Bay de la #recherche_scientifique, est de retour

    Sci-Hub donne ainsi accès, gratuitement, à 47 millions d’articles de chercheurs, selon les chiffres donnés par le site. Du contenu d’ordinaire payant, publié par de grands éditeurs de #revues_scientifiques. Et l’un d’entre eux a décidé de réagir. #Elsevier, un des plus importants éditeurs du secteur, a porté plainte contre le site pour violation de #droits_d’auteur et obtenu gain de cause auprès de la justice américaine en octobre dernier. Le nom de domaine initial, Sci-hub.org, a été supprimé par les autorités. Ce qui n’a pas empêché le site de réapparaître peu de temps après sous une autre adresse, Sci-hub.io.

  • #New_Research_voices. International Journal of Research from the Front-line

    #NRV is an online community space empowering researchers to support each other, share their work and contribute to a better understanding of the world we live in. This platform aims to connect researchers, publish research articles and interviews with researchers and academics to promote norm-challenging, sensitive and innovative research. NRV is a free and open resource created by researchers. We believe in dialogue, collaboration, critical thinking, independence, sharing, openness and freedom in academia.

    Starting in January 2016 NRV will publish and promote research covering a different theme every second month. To support the research we will also publish interviews with the researchers involved in order to give a better insight into their work. The themes for 2016 are as follows.

    #revue #exil #université #revues_scientifiques #réfugiés
    cc @reka

  • Let’s stop pretending #peer_review works

    In the early 1980s, there was growing concern about the quality of peer review at scientific journals. So two researchers at Cornell and the University of North Dakota decided to run a little experiment to test the process.

    The idea behind peer review is simple: It’s supposed to weed out bad science. Peer reviewers read over promising studies that have been submitted to a journal to help gauge whether they should be published or need changes. Ideally, reviewers are experts in fields related to the studies in question. They add helpful comments, point out problems and holes, or simply reject flawed papers that shouldn’t see the light of day.

    The two researchers, Douglas Peters and Stephen Ceci, wanted to test how reliable and unbiased this process actually is. To do this, they selected 12 papers that had been published about two to three years earlier in extremely selective American psychology journals.

    #édition_scientifique #revues_scientifiques #science #université

  • Quel “open access” pour les publications scientifiques ?

    Au-delà des modèles économiques, l’open access pose des questions politiques et sociales. Le rôle des éditeurs doit-il être préservé au motif qu’ils représentent une activité économique à défendre ? À quelles conditions d’autres systèmes d’évaluation, directement gérés par les chercheurs et les institutions scientifiques (sur le modèle des presses universitaires ou des sociétés savantes), peuvent-ils garantir un niveau d’exigence satisfaisant ? Ici, c’est également le sens de l’évaluation scientifique qu’il s’agit d’interroger, les limites de la bibliométrie étant soulignées par de nombreux chercheurs, en particulier en sciences humaines et sociales, mais également en mathématiques, les biologistes étant les plus favorables (peut-être parce que les plus adaptés) à ces procédés [9]. Enfin, ne doit-on pas considérer les résultats scientifiques comme des « biens communs [10] » et redéfinir leur statut ?

    #Bibliométrie #Libre_accès_(édition_scientifique) #Open_access #Publication_scientifique #Recherche_scientifique #Recherche_universitaire #Université #Édition_scientifique

  • Le maffesolisme, une « sociologie » en roue libre. Démonstration par l’absurde | Zilsel

    Le 4 février 2015, le numéro 4/2014 de la revue Sociétés paraît sur le portail en ligne Cairn.info. Il est également disponible en format « papier » le 13 février, par l’intermédiaire des Éditions de Boeck. Dans le sommaire, un article classé dans les « marges » mérite l’attention : « Automobilités postmodernes : quand l’Autolib’ fait sensation à Paris »[1].

    Son auteur, Jean-Pierre Tremblay, originaire du Québec, propose de « mettre au jour les soubassements imaginaires d’un objet socio-technique urbain contemporain : l’Autolib’ » (confer l’ultime version envoyée par l’auteur à la rédaction de Sociétés en octobre 2014 : Automobilités, proposition Sociétés, JPT 2014, MX V2).

    Le résumé de cet article d’une dizaine de pages est suggestif :Tout cela aurait pu passer inaperçu. Des articles de ce genre, Sociétés en publie à la chaîne depuis « plus de vingt ans ». Rien de surprenant, rien de neuf, dira-t-on. Seulement voilà, il faut révéler dès maintenant que « Jean-Pierre Tremblay » n’existe pas ; c’est l’avatar d’une imposture intellectuelle calculée, un nom d’emprunt qui ne laissera heureusement pas d’empreinte scientifique. L’article est un canular rédigé par les auteurs de la présente mise au point. Peut-être l’article sera-t-il retiré par la rédaction de Sociétés (encore que, ce serait remettre en question l’intégrité épistémologique de l’évaluation…), mais cela importe peu car nous sommes parvenus à nos fins : démonter de l’intérieur, en toute connaissance de cause, la fumisterie de ce que nous appellerons le « maffesolisme » – c’est-à-dire, bien au-delà de la seule personnalité de Michel Maffesoli, le fondateur et directeur de la revue Sociétés, une certaine « sociologie interprétative/postmoderne » à vocation académique. Révélant le pot aux roses, nous relaterons ici l’histoire de ce canular et expliquerons pourquoi nous l’avons fabriqué.

    C’est peu dire que nous n’en revenons toujours pas d’avoir réussi à publier une telle somme de sottises dans une revue qui (pro)clame sa scientificité à qui veut encore l’entendre. Comme nous le montrerons, pièces à l’appui, le canular met en lumière le fonctionnement d’un collectif d’enseignement et de recherche qui continue d’essaimer dans le monde académique, en France et à l’étranger, et s’autorise d’espaces institutionnels, d’instruments de valorisation et de structures éditoriales, comme Sociétés. Or tout cela repose sur des bases scientifiquement très fragiles, et nous pensons l’avoir prouvé sans peine au moyen de cette expérimentation.

    #sociologie #imposture #sciences_sociales #sociologie #revues_scientifiques

  • Intransparenz bei den Bibliotheksausgaben von Schweizer Hochschulen

    Gemäss Jahresbericht 2013 vermittelte das Konsortium der Schweizer Hochschulbibliotheken Lizenzen für über 25.6 Mio. CHF an Konsortialmitglieder. Davon waren 18.76 Mio. für Closed Access Zeitschriften, 6.22 Mio. für Datenbanken und 630’000 für Closed Access E-Books. Die teuerste Zeitschriftenlizenz des Jahres 2013 – #ScienceDirect (#Elsevier) – belief sich auf über 7 Mio. CHF, gefolgt von den Wiley Journals mit ca. 3.5 Mio. CHF und Nature mit ca. 1.5 Mio CHF. Aus diesen groben Zahlen, bei denen eigenartigerweise Springer nicht aufgeführt ist, wird allerdings nicht klar wieviel Geld einzelne Bibliotheken für welche Produkte und zu welchen Bedingungen aufgewendet haben. Kommt hinzu, dass Bibliotheken auch selber verhandelte Lizenzen und Kaufverträge abschliessen.


    #université #bibliothèque #Suisse #argent #business #revues_scientifiques #transparence (manque de) #bibliothèques_universitaires
    @reka : voici un document critique qui commence à circuler sur le problèmes des revues scientifiques, leurs coûts et le monopole de certaines maisons d’édition... c’est en allemand pour l’instant, mais comme tu le sais, on va probablement avoir des nouveautés bientôt et peut-être aussi des informations en français...

  • Nature Communications to become open access only

    Nature Communications is to become the first Nature-branded #open_access only journal. The number one open access journal in multidisciplinary sciences*, Nature Communications is Nature Publishing Group’s (NPG) flagship open access title. Nature Communications will only accept open access research submissions from 20th October 2014.

    #revues_scientifiques #publications

  • Nobel winner declares boycott of top science journals | Science | The Guardian

    Leading academic journals are distorting the scientific process and represent a “tyranny” that must be broken, according to a Nobel prize winner who has declared a boycott on the publications.

    Randy Schekman, a US biologist who won the Nobel prize in physiology or medicine this year and receives his prize in Stockholm on Tuesday, said his lab would no longer send research papers to the top-tier journals, Nature, Cell and Science.

    Schekman said pressure to publish in “luxury” journals encouraged researchers to cut corners and pursue trendy fields of science instead of doing more important work. The problem was exacerbated, he said, by editors who were not active scientists but professionals who favoured studies that were likely to make a splash.

    The prestige of appearing in the major journals has led the Chinese Academy of Sciences to pay successful authors the equivalent of $30,000 (£18,000). Some researchers made half of their income through such “bribes”, Schekman said in an interview.

    #Nobel #science #publications

  • De l’autre côté du miroir : revues scientifiques et presse en ligne

    Une récente intervention dans un master à Clermont m’a fourni l’occasion d’un regard de côté sur un monde ignoré, celui de la presse en ligne. Pour traiter de l’édition de revues en ligne devant des étudiants dont la science n’est pas la préoccupation première, je me suis efforcé d’élargir un peu mon point de vue. À défaut d’être approfondi (quelques heures de lecture et de vagabondage sur internet), ce détour était passionnant : le monde de la presse en ligne m’a paru offrir une sorte de vue symétrique de celui des revues scientifiques.


    #revues_scientifiques #online #open_access #presse