• (1) UNE NOUVELLE RÉVOLUTION QUANTIQUE ? - YouTube
    https://www.youtube.com/watch?v=lVY50y8SxyU

    L’Académie des sciences propose le concept original Des clefs pour comprendre. Une opportunité pour s’informer, dialoguer et comprendre les enjeux scientifiques du moment, avec celles et ceux qui relèvent les grands défis de la science.

    Pour assister en présentiel le 28 novembre 2023 à la prochaine édition Des clefs pour comprendre, inscription gratuite ici https://www.academie-sciences.fr/fr/S...

    UNE NOUVELLE RÉVOLUTION QUANTIQUE ?

    L’intrication, la manipulation et le contrôle des objets quantiques ouvrent de nouvelles perspectives dans la compréhension du monde microscopique. Ces nouvelles connaissances bouleverseront nos usages. La santé, les transports, les moyens de communication, l’internet, la sécurité - en deux mots, nos sociétés - seront profondément transformées si la révolution en marche tient ses promesses.

    Que nous a révélé la première révolution quantique au début du XXe siècle ? Comment la physique quantique explique-t-elle des faits que la physique classique ne peut expliquer ? Comment la physique quantique est-elle entrée, d’ores et déjà, dans notre vie quotidienne ? Quelles particules composent la zoologie quantique ? Comment contrôler et manipuler les objets quantiques ? Comment programmer un ordinateur quantique ? Nouvelle révolution ? Nouvelles applications ?

    COMPRENDRE AVEC :
    Alain Aspect - Prix Nobel de Physique 2022, membre de l’Académie des sciences
    Jacqueline Bloch - Directrice de recherche au CNRS, membre de l’Académie des sciences
    Antoine Browaeys - Physicien experimentateur, chercheur au CNRS
    Eleni DiamantiI - Physicienne, directrice de recherche au CNRS
    Georges-Olivier Reymond - President et cofondateur de Pasqal
    Christophe Salomon - Directeur de recherche au CNRS, membre de l’Académie des sciences

  • Pathogène X : se préparer à la prochaine pandémie | Dominique Costagliola
    https://www.academie-sciences.fr/pdf/revue/LHUMANITE_mars2023.pdf

    Alors que la crise du Covid n’est pas terminée, nous devons être prêts face aux futures maladies infectieuses émergentes, qui seront causées par un agent pathogène encore inconnu. Tour d’horizon, avec Dominique Costagliola, des piliers d’une lutte efficace. Source : L’Humanité Magazine

  • Quelles sont ces nouvelles technologies qui se cachent derrière la 5G ? (Et demain, la 6G) La Tribune, Serge Abiteboul et Gérard Berry
    https://www.latribune.fr/opinions/tribunes/quelles-sont-ces-nouvelles-technologies-qui-se-cachent-derriere-la-5g-8949

    La 5G est en cours de déploiement, revenons sur ce qui la différencie des générations de télécommunications précédentes.

    On peut transmettre des messages en utilisant des ondes électromagnétiques. Par exemple, un téléphone cellulaire échange des messages avec une station radio le plus souvent située en haut d’un pylône ou sur un toit. On utilise pour cela des ondes de différentes fréquences ; les plus basses se propagent plus loin, les plus hautes exigent de plus petites antennes ; les encore plus hautes sont très peu utilisées pour l’instant.

    Les premiers réseaux cellulaires étaient analogiques. Ils sont devenus numériques avec la 2G, qui a aussi introduit les SMS. Avec le nouveau millénaire, la 3G a fait entrer la téléphonie mobile dans le monde d’Internet. Avec des débits bien plus grands joints à l’explosion des smartphones, la 4G a apporté la vidéo en bonne définition.

    Tous les 10 ans environ, un nouveau standard et une nouvelle génération de téléphones cellulaires arrivent qui transforment les usages ; récemment, c’était la 5G.

    On assiste depuis l’arrivée de la 2G a une progression exponentielle des données transportées par le réseau, et une augmentation massive du nombre d’objets connectés (téléphone, télévision, télésurveillance, voitures connectées, etc). C’est permis par les avancées scientifiques et technologiques qui ont amélioré les « tuyaux » où circulent les données. De fait, les usages absorbent tout ce que la technologie propose. Il faut noter que la partie essentielle de cette connectivité vient de la fibre optique, dont nous ne parlerons pas.

    Les technologies de la téléphonie cellulaire ont apporté des solutions efficaces et abordables pour une couverture de service de communications globale, reliant des lieux éloignés, les zones rurales, les voies de transports routiers ou ferroviaires. En cela, elles participent à la réduction de la fracture numérique territoriale.

    La 5G amène une vraie disruption. On aimerait pointer une avancée scientifique à sa base, mais en fait elle repose sur toute une gamme d’innovations. Le monde du téléphone cellulaire est un monde de normes : il fonctionne parce que les opérateurs se mettent d’accord, dans un cadre qui s’appelle le 3GPP, sur des normes qui vont permettre, par exemple, à un paquet de bits de passer de votre téléphone au cœur de la Lozère, à l’ordinateur d’une amie dans son bureau à Rio. Ceci demande de regrouper tout un paquet d’avancées scientifiques et techniques avant de lancer une nouvelle norme. La 5G est donc plutôt comme un couteau multi-lames, où chaque lame est soit une techno venant de la 4G, mais améliorée, soit une nouvelle techno sortie des labos dans les dix dernières années.

    Les fonctionnalités de la 5G
    La 5G va permettre des améliorations techniques principalement dans quatre directions : le débit, la latence, la densité et la virtualisation.

    Un aspect très visible dans les communications cellulaires est la quantité d’information échangée dans une unité de temps : le débit. Si le débit est trop faible, je ne peux pas visionner un film, ou je ne le fais qu’avec une qualité très médiocre. Avec la 5G, on peut s’attendre à ce que « le débit de pic » soit jusqu’à 10 fois supérieur à celui de la 4G, quasiment celui d’une fibre optique ordinaire. En fait, les débits vont surtout augmenter grâce à de nouvelles fréquences que la téléphonie mobile va coloniser avec la 5G, qui sont des fréquences hautes entre 1GHz et 6 GHz et des fréquences encore plus hautes dites « millimétriques » au-dessus de 6 GHz.

    Mais ne rêvons pas : dans le cellulaire, on partage les fréquences entre les différents opérateurs, et pour chaque opérateur avec les gens autour de nous : le voisin qui regarde un match de rugby, la voisine qui passe sa soirée sur un jeu vidéo en réseau, etc. Donc que vont observer les utilisateurs que nous sommes ? Nous allons voir la situation s’améliorer dans les zones très denses où les réseaux cellulaires sont déjà saturés ou le seraient à court terme sans la 5G. Nous ne verrons pas vraiment de changement dans les zones peu denses déjà couvertes par la 4G, peut-être des téléchargements plus rapides de vidéos. Et si nous voyons une belle amélioration dans une zone blanche où il n’y avait quasiment rien, ce sera plus sûrement du fait de l’arrivée de réseaux 4G.

    La deuxième direction d’amélioration est la latence, c’est-à-dire le temps pour un aller-retour entre le téléphone et le serveur d’applications, qui se compte aujourd’hui en dizaines de millisecondes. Avec la 5G, on va mesurer la latence en millisecondes. Pour visionner un film, peu importe. Mais pour un jeu vidéo, pour de la réalité augmentée, pour réaliser à distance une opération chirurgicale, ça peut faire la différence entre possible ou impossible. Le but est que l’ensemble du système offre une réactivité beaucoup plus importante jointe à une garantie forte de transmission du message.

    La troisième dimension est la densité. On parle de communications de machines à machines et de services nécessitant un nombre massif d’objets à faible consommation énergétique et faibles débits (l’Internet des objets). Un des objectifs est de pouvoir gérer un million d’objets au kilomètre carré. Dans cette dimension, la 5G est en compétition avec des techniques dites 0G comme Sigfox et Lora. Traditionnellement, pour la communication des objets, on distinguait des objets bon marché, bas de gamme, qui utilisaient le 0G, et des objets plus exigeants en 4G. La 5G a la prétention de pouvoir couvrir toute la gamme avec un même standard.

    Attention, tout cela ne se fera pas en un jour. La 5G arrive par étapes, parce qu’il faut installer partout de nouveaux composants radio, mais aussi parce que, pour qu’elle fonctionne au mieux, il va falloir transformer les logiciels des "cœurs de réseaux".

    L’efficacité énergétique a été prise comme objectif depuis les débuts de la conception de la 5G. Une rupture avec les générations précédentes est annoncée. On vise une division par au moins dix du coût énergétique du gigaoctet transporté. Comme nous le verrons, cela n’empêche pas d’avoir des craintes légitimes sur l’effet de cette technologie sur l’environnement.

    Pour la sécurité informatique, le sujet est contrasté : elle est plus prise en compte que pour la 4G ce qui améliore les choses. Par contre, la surface des attaques possibles explose comme nous le verrons, en particulier à cause de l’extension des aspects logiciels des réseaux, ouvrant la porte à d’autres possibilités d’attaque. De fait, le contrôle de la sécurité se déplace du matériel au logiciel. De plus, cela conduit à réaliser une surveillance en temps réel pour détecter les attaques et être prêt à y remédier. L’utilisation de plus en plus massive de l’intelligence artificielle complique la tâche : d’une part, parce que les logiciels des réseaux s’appuyant sur cette technologie auront des comportements plus difficiles à prévoir, et d’autre part, parce que les attaquants eux-mêmes pourront s’appuyer sur l’IA. A contrario, les systèmes de détection d’attaque pourront eux aussi inclure de l’IA.

    Pour ce qui est des innovations scientifiques et techniques sur lesquelles se fonde la 5G, elles peuvent se regrouper en deux classes : radios et logicielles.

    Les innovations techniques logicielles
    La virtualisation
    Traditionnellement, les réseaux des télécoms s’appuient sur des machines dédiées : différents niveaux de routeurs, firewalls, etc. L’idée est de transporter cela sur des architectures logicielles comme celles des plates-formes du web. On parle donc de convergence entre systèmes informatiques et systèmes de communication. Mis à part les éléments purement électroniques de radio, dès qu’on passe en numérique, on se place sur un réseau de machines génériques (de calcul, de stockage, de connexion) capables de réaliser toutes les différentes fonctions de façon logicielle. Par exemple, plutôt que d’installer un routeur physique qui gère l’acheminement des messages pour un réseau virtuel, on déploiera un routeur virtuel sur un ordinateur générique du réseau, que l’on pourra configurer suivant les besoins. Pour ce qui est de la virtualisation des fonctionnalités véritablement radio, cette convergence est à relativiser, car, pour des questions de performances, on doit souvent utiliser des accélérations matérielles.

    Edge Computing
    Les services sont implantés aujourd’hui dans des data centers parfois très loin de leurs utilisateurs. Ce cloud computing induit des coûts de transport pour les messages et introduit une latence incompressible même si les communications sont hyper-rapides. L’idée est d’installer de petits data centers dans le réseau plus près des utilisations. Pour des applications, par exemple, de contrôle de machines ou de réalité augmentée, cela permet de gagner un temps précieux pour la détection d’événement et le contrôle.

    Network slicing
    Une limite actuelle de la technologie cellulaire est l’impossibilité de garantir la qualité du service. Le network slicing permet de réserver virtuellement une tranche de fréquences pour un service particulier, ou plus précisément d’offrir une certaine garantie de service. Dans certaines configurations ou pour certains usages ayant des exigences spécifiques, le service est en position de monopole et n’a donc pas à partager avec d’autres services. Quand on contrôle à distance une machine-outil de précision, on veut, par exemple, garantir un délai maximum de quelques millisecondes entre la commande exercée par le pilote et sa réception par la machine. Pour ce faire, on ne peut pas être en compétition avec d’autres services. En ondes millimétriques, le réseau concerné peut être de faible surface, par exemple, limité à un site industriel.

    Les innovations techniques radios
    Avec le « massive MIMO » (multiple input, multiple output), chaque antenne consiste en un grand nombre de petites antennes. Chaque petite antenne de la station focalise les ondes vers un utilisateur qu’elle suit. Plus précisément, des ondes émises par différents éléments de l’antenne se combinent intelligemment pour réaliser le rayon qui cible un utilisateur particulier. Cela évite l’arrosage très large de l’environnement que font les antennes classiques. C’est une techno plus complexe, mais qui permettra des économies d’énergie une fois bien maitrisée. Et on peut utiliser plusieurs antennes distantes pour une même communication, améliorant encore la focalisation.

    L’utilisation de fréquences plus élevées, les bandes millimétriques comme la 26 GHz envisagée en France. Cela permet d’augmenter les fréquences utilisables pour les communications et surtout d’arriver dans des bandes où les disponibilités de fréquences sont importantes. L’utilisation simultanée de différentes technologies et fréquences. Vous pouvez par exemple déjà téléphoner depuis chez vous en cellulaire ou en wifi (voix sur wifi). Votre téléphone doit choisir et le passage de l’un à l’autre est compliqué, et de nos jours très lent. Les futures générations de téléphones faciliteront de telles utilisations simultanées de plusieurs technos et fréquences afin d’améliorer les services, par exemple en évitant de tomber dans un "trou" lors du passage de l’une à l’autre.

    Le mode TDD (Time Division Duplexing)
    On partage de mêmes fréquences avec une répartition dans le temps des phases montantes (du téléphone vers la station) et descendantes (de la station au téléphone). Cela permet de ne pas choisir a priori un partage des fréquences entre le trafic montant et descendant. La meilleure utilisation des fréquences est un élément clé de l’utilisation des réseaux cellulaires, car c’est une ressource rare à partager entre tous les utilisateurs.

    Les « petites cellules » (small cells)
    La techno permet d’utiliser les bandes très hautes (par exemple, 26 GHz) qui sont disponibles en très grandes quantités. Mais les messages s’y propagent beaucoup moins loin, quelques centaines de mètres au plus. On va donc utiliser de toutes petites antennes (les cellules) sur des lampadaires, des abribus, etc. C’est une technologie pour centre-ville et lieux très fréquentés comme des stades ou des festivals.

    Les communications de terminal à terminal
    Cela permet à des terminaux de communiquer directement entre eux sans passer par le système de l’opérateur. On peut continuer à communiquer même quand le réseau est saturé ou quand il dysfonctionne, par exemple en cas de catastrophe naturelle ou d’attaque informatique.

    La radio cognitive
    L’idée est de pouvoir mieux utiliser les fréquences, en se glissant temporairement quand c’est possible dans des fréquences non-utilisées.
    Pour ce qui est de la radio cognitive et des communications de terminal à terminal, si ces deux aspects participent bien de la vision de la 5G, ils ne semblent pas encore vraiment mures à ce stade.

    Et demain, la 6G
    S’il n’est déjà pas simple de dire ce que sera la 5G en cours de déploiement, il devient carrément surréaliste de décrire une technologie encore dans les laboratoires de recherche, la 6G : nous ne sommes pas futurologues ! Nous nous contenterons donc d’en présenter les grands traits. Techniquement, tout en visant encore plus de débit, la 6G vise le "plus fin" : de plus petites antennes (small cells), et de plus petits data centers (edge). Nous serons en permanence connectés au réseau cellulaire et dans de mêmes standards, même quand ce sera par satellite. Le réseau doit se mettre à notre service, nous "humains", probablement de plus en plus immergés dans un monde de robots (ce qu’individuellement nous ne souhaitons pas forcément, mais c’est un autre sujet) ; on parle de réalité virtuelle et augmentée (qui démarrent), d’holographie pour des réunions à distance. Et la 6G doit permettre aussi de bien suivre les objets se déplaçant à haute vitesse ou en environnement compliqué.

    En fait, la 6G permettra l’aboutissement des promesses de la 5G en rendant possible les communications entre un nombre massif de machines de tout genre peut-être des millions au km2). Si la 5G a déjà été conçue avec la sobriété énergétique comme objectif, la 6G ira encore plus loin dans cette direction.

    Bien sûr, l’intelligence artificielle sera hyperprésente, ce serait-ce que parce que les systèmes de communication et leur sécurité seront devenus trop complexes pour les simples humains que nous sommes.

    La 6G règlera tous les problèmes des réseaux cellulaires, elle sera capable de tout, pourquoi pas de faire le café... Vous ne voyez pas bien où ça nous mène. Eh bien, nous non plus. C’est bien pour cela qu’il est indispensable de suivre tout cela de près, parce que nous aurons des choix sociétaux peut-être essentiels à faire sur des sujets comme le niveau de robotisation de nos vies, la sécurité ou l’environnement.

    Par Serge Abiteboul https://theconversation.com/profiles/serge-abiteboul-212213 , Directeur de recherche à Inria, membre de l’Académie des Sciences, Inria et Gérard Berry https://theconversation.com/profiles/gerard-berry-1281347 , Professeur émérite en informatique, Collège de France

    Pour aller plus loin : « La 5G et les réseaux de communications mobiles » https://www.academie-sciences.fr/fr/Rapports-ouvrages-avis-et-recommandations-de-l-Academie/5g-reseaux-communications-mobiles.html , rapport du groupe de travail de l’Académie des sciences sur les réseaux du futur, 12 juillet 2021

    #5g #technologisme #internet_des_objets #objets_connectés #domotique #écologie #santé #surveillance #technologie #smartphone #domination #critique_techno #algorithme #nécrotechnologies #données #sciences #actualités_scientifiques

  • #Écrans : appel des académies à une « vigilance raisonnée »
    https://www.lemonde.fr/sciences/article/2019/04/09/ecrans-appel-des-academies-a-une-vigilance-raisonnee_5447834_1650684.html

    Six ans après avoir livré un avis sur la question, l’Académie des sciences s’est associée aux académies de médecine et des technologies pour lancer, mardi 9 avril, « un appel à une vigilance raisonnée sur les technologies numériques ». (…)

    https://www.academie-sciences.fr/fr/Rapports-ouvrages-avis-et-recommandations-de-l-Academie/enfant-ecrans-technologies-numeriques.html

    L’avis de 265 pages de l’Académie des sciences de 2013 avait suscité des réserves, notamment sur l’oubli de pans de la littérature scientifique et sur la faiblesse des mises en garde. « Nous étions un peu trop optimistes et n’avions pas assez insisté sur les effets délétères », concède d’ailleurs le professeur Bach.

    Six ans plus tard, les parents, éducateurs et autres sont en quête de repères. Car le temps passé sur les écrans ne cesse d’augmenter. Les chiffres – qui ne sont pas mentionnés dans le nouvel appel – sont éloquents. En moyenne, les enfants de 6 à 17 ans passaient, en 2015, 4 heures et 11 minutes par jour devant un écran, selon des données de l’étude Esteban menée par Santé publique France (SpF). Au jeu des additions, cela représente pas moins de 1 526 heures en une année ! Un temps qui ne cesse d’augmenter avec l’âge. SpF recommande donc fermement de limiter le #temps d’écran.

    Chez les professionnels de #santé, les préoccupations sont grandes pour les moins de 3 ans.

  • #Paywall : The Business of Scholarship

    Paywall: The Business of Scholarship, produced by #Jason_Schmitt, provides focus on the need for open access to research and science, questions the rationale behind the $25.2 billion a year that flows into for-profit academic publishers, examines the 35-40% profit margin associated with the top academic publisher Elsevier and looks at how that profit margin is often greater than some of the most profitable tech companies like Apple, Facebook and Google. For more information please visit: Paywallthemovie.com


    https://vimeo.com/273358286

    #édition_scientifique #université #documentaire #film #elsevier #profit #capitalisme #savoir #impact_factor #open_access
    signalé par @fil, que je remercie

    –-----------

    Quelques citations du tirés du film...

    John Adler, prof. Standford University :

    “Publishing is so profitable, because the workers dont’ get paid”

    Paul PETERS, CEO #Hindawi :

    “The way we are adressing the problem is to distinguish the assessment of an academic from the journals in which they publish. And if you’re able to evaluate academics based on the researchers they produce rather than where their research has been published, you can then start to allow researchers to publish in journals that provide better services, better access”

    Paul PETERS, CEO Hindawi :

    “Journals that are highly selective reject work that is perfectly publishable and perfectly good because it is not a significant advance, it’s not gonna made the headline as papers on disease or stemcells”

    Alexandra Elbakyan :

    “Regarding the company itself (—> Elsevier), I like their slogan ’Making Uncommon Knowledge Common’ very much. But as far as I can tell, Elsevier has not mastered this job well. And sci-hub is helping them, so it seems, to fulfill their mission”

    –-

    ajouté à la métaliste sur l’éditions scientifique :
    https://seenthis.net/messages/1036396

    • je suis tres surpris par un point mentionne plusieurs fois : il faut que la recherche sur la sante, le rechauffement climatique, etc, bref, tout ce qui a « un vrai impact » soit ouvert, parce qu’il y a des vrais problemes, et donc il faut du monde pour y participer.... Mais je n’ai pas entendu grand chose sur la recherche fondamentale... Je ne sais pas si ca tient du fait que la recherche fondamentale etant moins « remuneratrice », le probleme est moins flagrant... Mais ca me met mal a l’aise cette separation entre « les vrais problemes de la vie » et les questions fondamentales qui n’interessent pas grand monde....

    • The Oligopoly of Academic Publishers in the Digital Era

      The consolidation of the scientific publishing industry has been the topic of much debate within and outside the scientific community, especially in relation to major publishers’ high profit margins. However, the share of scientific output published in the journals of these major publishers, as well as its evolution over time and across various disciplines, has not yet been analyzed. This paper provides such analysis, based on 45 million documents indexed in the Web of Science over the period 1973-2013. It shows that in both natural and medical sciences (NMS) and social sciences and humanities (SSH), Reed-Elsevier, Wiley-Blackwell, Springer, and Taylor & Francis increased their share of the published output, especially since the advent of the digital era (mid-1990s). Combined, the top five most prolific publishers account for more than 50% of all papers published in 2013. Disciplines of the social sciences have the highest level of concentration (70% of papers from the top five publishers), while the humanities have remained relatively independent (20% from top five publishers). NMS disciplines are in between, mainly because of the strength of their scientific societies, such as the ACS in chemistry or APS in physics. The paper also examines the migration of journals between small and big publishing houses and explores the effect of publisher change on citation impact. It concludes with a discussion on the economics of scholarly publishing.

      https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0127502

    • L’accès ouvert, un espoir qui donne le vertige…

      Les années 2018 et 2019 marquent une étape importante dans la politique scientifique de l’accès ouvert. Avec #Horizon_2020, l’Europe a annoncé l’obligation d’assurer le libre accès aux publications issues des projets de recherche qu’elle finance. En septembre 2018 #cOALition_S, un consortium européen d’établissements de financement de la recherche (l’ANR pour la France), soutenu par la commission européenne et l’ERC, publie les 10 principes de son Plan S. L’objectif est clairement désigné : “d’ici 2020, les publications scientifiques résultant de recherches financées par des subventions publiques accordées par les conseils de recherche et organismes de financement nationaux et européens participants doivent être publiées dans des journaux Open Access conformes ou sur des plates-formes Open Access conformes.”

      Le problème est que l’expression « #open_access » peut recouvrir des modèles économiques très différents : le “#green_open_access” (auto-archivage par l’auteur de ses travaux), le “#gold_open_access”, avec toute l’ambiguïté qu’il comporte puisque pour Couperin, il inclut aussi bien les articles dans des revues à comité de lecture en accès ouvert pour les lecteurs, payé par les auteurs avec des APC (Article processing charges) que le modèle Freemium OpenEdition, sans coût pour les auteurs ou encore les revues intégralement en accès ouvert[i]. C’est la raison pour laquelle a été introduit un nouvel intitulé dans les modèles celui de la voie “#diamant” ou “#platine” en opposition précisément à la voie “dorée” de plus en plus identifiée comme la voie de l’auteur/payeur (#APC).

      Alors que l’objectif ne concerne à ce stade que les articles scientifiques et non les ouvrages, chapitres d’ouvrages etc., les dissensions s’affichent au grand jour et dans les médias. Pour nombre de chercheurs, le Plan S de l’Union européenne ne va pas assez loin. Ils n’hésitent pas à dénoncer ouvertement les pratiques “anticoncurrentielles” d’Elsevier en saisissant la Direction générale de la commission européenne[ii]. La maison d’édition s’est en effet engagée depuis plusieurs années dans le « tout accès ouvert »[iii]. Il faut traduire ce que signifie ce « gold open access » ainsi promu : si les lecteurs ont accès aux articles gratuitement, les auteurs paient pour être publiés des APC (« author processing charges ») dont le montant, variable, engendre des profits inédits.

      De l’autre côté, logiquement, des associations d’éditeurs et les sociétés commerciales d’édition scientifique se sont élevées contre ce plan qui semble menacer leurs intérêts. Ils ont été soutenus par au moins 1700 chercheurs qui ont signé une Lettre ouverte[iv] lancée le 28 novembre à l’Union européenne contre le plan S. En France, d’autres ont publié en octobre 2018 une tribune dans Le Monde[v] contre ce même plan, non sans quelques confusions tellement la complexité du paysage est savamment entretenue, avec des arguments plus recevables qu’on ne l’aurait pensé. Qui croire ?

      Le Consortium national des bibliothèques françaises Couperin[vi] nous apporte une information utile sur les APC sur le site d’OpenAPC qui ont été versées aux éditeurs commerciaux en 2017, par chacun des 39 grands établissements de recherche enquêtés. Au total, 4 660 887 euros ont été dépensés par ces établissements pour publier 2635 articles, soit environ 1769 euros par article[vii]. Cela vient s’ajouter aux abonnements aux bouquets de revues et aux accès aux bases de données bibliométriques (Scopus d’Elsevier, WOS de Clarivate) dont les coûts, négociés, ne sont pas publiés.

      On mesure le bénéfice que les éditeurs retirent pour chaque article en comparant ces montants avec ceux estimés pour traiter un article dans l’alternative Freemium. A Cybergeo , en incluant les coûts d’un ingénieur CNRS qui encadre l’activité de la revue, du temps moyen investi par les évaluateurs, les correcteurs bénévoles et l’éditeur, ainsi que les coûts de la maintenance de la plateforme éditoriale, nous sommes parvenus à un coût moyen de 650 euros pour un article… Si Cybergeo appliquait le coût moyen des APC, elle en retirerait un revenu de près de 100 000 euros/an !

      Le plus extraordinaire dans ces calculs est que ni les APC ni cette dernière estimation “frugale” de 650 euros/article ne prennent en compte la vraie valeur ajoutée des articles, les savoir et savoir-faire scientifiques dépensés par les auteurs et par les évaluateurs. Voilà qui devrait confirmer, s’il en était encore besoin, que la “production scientifique” est bien une activité qui ne peut décidément se réduire aux “modèles économiques” de notre système capitaliste, fût-il avancé…

      L’exigence de mise en ligne des articles en accès ouvert financés sur des fonds publics s’est donc institutionnalisée, mais on peut se demander si, loin d’alléger les charges pour la recherche publique, cette obligation ne serait pas en train d’ouvrir un nouveau gouffre de dépenses sans aucun espoir de retour sur investissement. Les bénéfices colossaux et sans risques de l’édition scientifique continuent d’aller aux actionnaires. Et le rachat en 2017 par Elsevier (RELX Group) de Bepress la plate-forme d’archives ouvertes, créée en 1999 sous le nom de Berkeley Electronic Press par deux universitaires américains de l’université de Berkeley, pour un montant estimé de 100 millions d’euros, n’est pas non plus pour nous rassurer sur le devenir du “green open access” (archives ouvertes) dans ce contexte.

      https://cybergeo.hypotheses.org/462

    • Open APC

      The #Open_APC initiative releases datasets on fees paid for Open Access journal articles by universities and research institutions under an Open Database License.

      https://treemaps.intact-project.org
      #database #base_de_données #prix #statistiques #chiffres #visualisation

      Pour savoir combien paient les institutions universitaires...


      https://treemaps.intact-project.org/apcdata/openapc/#institution

      12 millions d’EUR pour UCL selon ce tableau !!!!!!!!!!!!!!!!!

    • Communiqué de presse : L’#Académie_des_sciences soutient l’accès gratuit et universel aux #publications_scientifiques

      Le 4 juillet 2018, le ministère de l’Enseignement supérieur, de la Recherche et de l’Innovation a publié un plan national pour la science ouverte, dans lequel « la France s’engage pour que les résultats de la recherche scientifique soient ouverts à tous, chercheurs, entreprises et citoyens, sans entrave, sans délai, sans paiement ». Le 4 septembre 2018, onze agences de financement européennes ont annoncé un « Plan cOAlition S(cience) » indiquant que dès 2020, les publications issues de recherches financées sur fonds publics devront obligatoirement être mises en accès ouvert.

      En 2011, 2014, 2016 et 2017, l’Académie des sciences a déjà publié des avis mentionnant la nécessité de faciliter l’accès aux publications (voir ci-dessous « En savoir plus »). Elle soutient les principes généraux de ces plans et recommande la prise en charge des frais de publications au niveau des agences de financement et des institutions de recherche. Toutefois, la mise en place concrète de ces mesures imposera au préalable des changements profonds dans les modes de publication. L’Académie des sciences attire l’attention sur le fait que ces changements dans des délais aussi courts doivent tenir compte des spécificités des divers champs disciplinaires et de la nécessaire adhésion à ces objectifs de la communauté scientifique. De nombreux chercheurs rendent déjà publiques les versions préliminaires de leurs articles sur des plates-formes ouvertes dédiées comme HAL (Hyper Articles en Ligne).

      Il est important de noter que le processus d’accès ouvert des publications ne doit pas conduire à une réduction du processus d’expertise qui assure la qualité des articles effectivement acceptés pour publication. Sans une évaluation sérieuse des publications par des experts compétents, une perte de confiance dans les journaux scientifiques serait à craindre.

      Un groupe de l’Académie des sciences travaille actuellement sur les questions soulevées par la science ouverte et un colloque sera organisé sur ce thème le 2 avril 2019 pour en débattre.


      https://www.academie-sciences.fr/fr/Communiques-de-presse/acces-aux-publications.html
      #résistance

    • Lancement de la fondation #DOAB : vers un #label européen pour les livres académiques en accès ouvert

      OpenEdition et OAPEN (Open Access Publishing in European Network, fondation implantée aux Pays-Bas) créent la fondation DOAB (Directory of Open Access Books). Cette fondation permettra de renforcer le rôle du DOAB, index mondial de référence répertoriant les ouvrages académiques en accès ouvert, et ce, notamment dans le cadre de la stratégie européenne pour le projet d’infrastructure OPERAS (Open access in the European research area through scholarly communication).


      Depuis plusieurs années les pratiques de publication en accès ouvert se multiplient en Europe du fait d’une plus grande maturité des dispositifs (archives ouvertes, plateformes de publication) et de la généralisation de politiques coordonnées au niveau des États, des financeurs de la recherche et de la Commission européenne. Ce développement du libre accès s’accompagne d’une multiplication des initiatives et des publications dont la qualité n’est pas toujours contrôlée.

      En 2003, l’Université de Lundt a créé le Directory of Open Access Journals (DOAJ). Devenu une référence mondiale, le DOAJ garantit la qualité technique et éditoriale des revues en accès ouvert qui y sont indexées.

      En 2012 la fondation OAPEN a créé l’équivalent du DOAJ pour les livres : le Directory of Open Access Books (DOAB). Ce répertoire garantit que les livres qui y sont indexés sont des livres de recherche académique (évalués par les pairs) et en accès ouvert. Le DOAB s’adresse aux lecteurs, aux bibliothèques mais aussi aux financeurs de la recherche qui souhaitent que les critères de qualité des publications en accès ouvert soient garantis et certifiés. Il indexe aujourd’hui plus de 16 500 livres en accès ouvert provenant de 315 éditeurs du monde entier.

      En Europe, les plateformes OAPEN et OpenEdition Books structurent largement le paysage par leur étendue internationale et leur masse critique. Leur alliance constitue un événement majeur dans le champ de la science ouverte autour de la labellisation des ouvrages.

      Via la fondation DOAB, le partenariat entre OpenEdition et OAPEN permettra d’asseoir la légitimité et d’étendre l’ampleur du DOAB en Europe et dans le monde, en garantissant qu’il reflète et prenne en compte la variété des pratiques académiques dans les différents pays européens en particulier. Les deux partenaires collaborent déjà au développement technique du DOAB grâce au projet HIRMEOS financé par l’Union Européenne dans le cadre de son programme Horizon 2020.
      La création de la fondation est une des actions du Plan national pour la science ouverte adopté en 2018 par la ministre française de la Recherche, Frédérique Vidal.

      OpenEdition et OAPEN forment avec d’autres partenaires le noyau dur d’un projet de construction d’une infrastructure européenne sur leur domaine de compétence : OPERAS – Open access in the European research area through scholarly communication. Avec un consortium de 40 partenaires en provenance de 16 pays européens, OPERAS vise à proposer une offre de services stables et durables au niveau européen dont le DOAB est une part essentielle.

      Selon Eelco Ferwerda, directeur d’OAPEN : « Le DOAB est devenu une ressource essentielle pour les livres en accès ouvert et nous nous en réjouissons. Je tiens à remercier Lars Bjørnshauge pour son aide dans le développement du service et Salam Baker Shanawa de Sempertool pour avoir fourni la plateforme et soutenu son fonctionnement. Notre collaboration avec OpenEdition a été très précieuse dans l’élaboration du DOAB. Nous espérons à présent atteindre un niveau optimal d’assurance qualité et de transparence ».

      Marie Pellen, directrice d’OpenEdition déclare : « L’engagement d’OpenEdition à soutenir le développement du DOAB est l’un des premiers résultats concrets du Plan national français pour la science ouverte adopté par la ministre de la Recherche, Frédérique Vidal. Grâce au soutien conjoint du CNRS et d’Aix-Marseille Université, nous sommes heureux de participer activement à une plateforme internationale cruciale pour les sciences humaines et sociales ».

      Pour Pierre Mounier, directeur adjoint d’OpenEdition et coordinateur d’OPERAS : « La création de la Fondation DOAB est une occasion unique de développer une infrastructure ouverte dans le domaine de la publication scientifique, qui s’inscrit dans le cadre de l’effort européen d’OPERAS, pour mettre en œuvre des pratiques scientifiques ouvertes dans les sciences humaines et sociales ».
      OpenEdition

      OpenEdition rassemble quatre plateformes de ressources électronique en sciences humaines et sociales : OpenEdition Books (7 000 livres au catalogue), OpenEdition Journals (500 revues en ligne), Hypothèses (3 000 carnets de recherche), Calenda (40 000 événements publiés). Depuis 2015, OpenEdition est le représentant du DOAB dans la francophonie.

      Les principales missions d’OpenEdition sont le développement de l’édition électronique en libre accès, la diffusion des usages et compétences liées à l’édition électronique, la recherche et l’innovation autour des méthodes de valorisation et de recherche d’information induites par le numérique.
      OAPEN

      La Fondation Open Access Publishing in European Networks (OAPEN) propose une offre de dépôt et de diffusion de monographies scientifiques en libre accès via l’OAPEN Library et le Directory of Open Access Books (DOAB).

      OpenEdition et OAPEN sont partenaires pour un programme d’interopérabilité sur leur catalogue respectif et une mutualisation des offres faites par chacun des partenaires aux éditeurs.

      https://leo.hypotheses.org/15553

    • About #Plan_S

      Plan S is an initiative for Open Access publishing that was launched in September 2018. The plan is supported by cOAlition S, an international consortium of research funders. Plan S requires that, from 2020, scientific publications that result from research funded by public grants must be published in compliant Open Access journals or platforms.

      https://www.coalition-s.org

    • Les #rébellions pour le libre accès aux articles scientifiques

      Les partisans du libre accès arriveront-ils à créer une brèche définitive dans le lucratif marché de l’édition savante ?

      C’est plus fort que moi : chaque fois que je lis une nouvelle sur l’oligopole de l’édition scientifique, je soupire de découragement. Comment, en 2018, peut-on encore tolérer que la diffusion des découvertes soit tributaire d’une poignée d’entreprises qui engrangent des milliards de dollars en exploitant le labeur des scientifiques ?

      D’une main, cette industrie demande aux chercheurs de lui fournir des articles et d’en assurer la révision de façon bénévole ; de l’autre main, elle étrangle les bibliothèques universitaires en leur réclamant des sommes exorbitantes pour s’abonner aux périodiques savants. C’est sans compter le modèle très coûteux des revues « hybrides », une parade ingénieuse des éditeurs qui, sans sacrifier leurs profits, se donnent l’apparence de souscrire au libre accès − un mouvement qui prône depuis 30 ans la diffusion gratuite, immédiate et permanente des publications scientifiques.

      En effet, les journaux hybrides reçoivent un double revenu : l’abonnement et des « frais de publication supplémentaires » versés par les chercheurs qui veulent mettre leurs articles en libre accès. Autrement, leurs travaux restent derrière un mur payant, inaccessibles au public qui les a pourtant financés, en tout ou en partie, par l’entremise de ses impôts. Les grands éditeurs comme Elsevier, Springer Nature et Wiley ont ainsi pris en otage la science, dont le système entier repose sur la nécessité de publier.

      Au printemps dernier, on a assisté à une rebuffade similaire quand plus de 3 300 chercheurs en intelligence artificielle, dont Yoshua Bengio, de l’Université de Montréal, se sont engagés à ne pas participer à la nouvelle revue payante Nature Machine Intelligence.

      Un consortium universitaire allemand, Projekt DEAL, a tenté d’ébranler les colonnes du temple. Depuis deux ans, ses membres négocient avec Elsevier pour mettre fin au modèle traditionnel des abonnements négociés à la pièce, derrière des portes closes. Collectivement, les membres de Projekt DEAL veulent payer pour rendre accessibles, à travers le monde, tous les articles dont le premier auteur est rattaché à un établissement allemand. En échange, ils auraient accès à tous les contenus en ligne de l’éditeur. L’entente devrait obligatoirement être publique.

      Évidemment, cela abaisserait les prix des abonnements. Pour l’instant, Elsevier refuse toute concession et a même retiré l’accès à ses revues à des milliers de chercheurs allemands l’été dernier. La tactique pourrait toutefois se révéler vaine. Pour obtenir des articles, les chercheurs peuvent toujours demander un coup de main à leurs collègues d’autres pays, recourir à des outils gratuits comme Unpaywall qui fouillent le Web pour trouver une version en libre accès ou encore s’en remettre à Sci-Hub, un site pirate qui contourne les murs payants.

      Mais plus que la perte de ses clients, c’est l’exode de ses « fournisseurs » qui écorcherait à vif Elsevier. Déjà, des scientifiques allemands ont juré qu’ils ne contribueraient plus à son catalogue de publications – qui contient pourtant des titres prestigieux comme The Lancet et Cell.

      Au printemps dernier, on a assisté à une rebuffade similaire quand plus de 3300 chercheurs en intelligence artificielle, dont Yoshua Bengio, de l’Université de Montréal, se sont engagés à ne pas participer à la nouvelle revue payante Nature Machine Intelligence. Partisans du libre accès, ils la considèrent comme « un pas en arrière » pour l’avenir de leur discipline.

      Et puis il y a le « plan S » : début septembre, 11 organismes subventionnaires européens ont annoncé que, à partir de 2020, ils ne financeront que les scientifiques promettant de diffuser leurs résultats dans des revues en libre accès. Le plan S exclurait d’office environ 85 % des journaux savants, y compris Nature et Science.

      Ces petites rébellions déboucheront-elles sur une véritable révolution de l’édition scientifique ? Difficile à dire, mais c’est suffisant pour passer du découragement à l’espoir.

      https://www.quebecscience.qc.ca/edito/rebellions-libre-acces-articles-scientifiques

    • Le business très juteux des revues scientifiques

      Les chercheurs produisent et révisent gratuitement des articles publiés dans des journaux dont l’accès est ensuite facturé très cher aux organismes de recherche dont ils dépendent.

      La crise sanitaire a mis les grands noms de l’édition scientifique sur le devant de la scène. Au début du mois de mars, la majorité des journaux scientifiques ont choisi de diffuser gratuitement les articles en lien avec le coronavirus, afin d’accélérer la recherche. Philanthropes ? Pas vraiment...

      En temps normal, les connaissances scientifiques se monnaient très cher. Les quelques maisons d’édition qui possèdent l’essentiel de ces revues sont parmi les entreprises les plus rentables au monde, affichant des marges de 30 % à 40 %. C’est plus que le géant de l’informatique Apple, qui enregistre une marge de 21 % sur ces dix dernières années. Le secret des éditeurs scientifiques réside en grande partie dans le fait qu’ils vendent des produits obtenus sans dépenser un sou... ou presque. Au sein de la communauté scientifique, les voix sont de plus en plus nombreuses à dénoncer ce système, source de profits considérables au détriment des fonds publics. Jeudi, le prestigieux Institut de technologie du Massachusetts (MIT) annonçait ainsi mettre fin aux négociations avec le leader du secteur, Elsevier.

      Le système est ainsi construit : un chercheur a tout intérêt à proposer des articles, puisque sa carrière (obtention d’un poste, de financements...) dépend étroitement du nombre d’articles qu’il publie et du prestige des journaux dans lesquels il publie. Lorsque le comité éditorial d’une revue est intéressé par un article qui lui a été proposé, il le soumet à des scientifiques spécialistes du domaine, qui sont chargés de l’évaluer. Ce travail essentiel, appelé « révision par les pairs » dans le jargon de l’édition scientifique, est réalisé bénévolement. Si l’article est accepté, le chercheur est alors contraint d’en céder les droits à l’éditeur, à titre exclusif et gracieux. L’entreprise revend ensuite aux bibliothèques universitaires et aux laboratoires de recherche des abonnements permettant d’accéder à ces articles. « Des personnes non rémunérées par l’éditeur produisent et évaluent gratuitement des résultats scientifiques que leurs institutions doivent ensuite acheter à l’éditeur » , résume Didier Torny, spécialiste de l’économie politique de la publication scientifique au CNRS. « Les profits arrivent ensuite dans la poche des actionnaires, c’est la poule aux oeufs d’or » , poursuit Marie Farge, mathématicienne et physicienne, directrice de recherche émérite au CNRS.

      Le secteur se porte mieux que jamais. En 2018, le marché pesait 25,7 milliards de dollars, selon l’Association internationale des éditeurs scientifiques, contre 21 milliards de dollars en 2010. Elsevier (désormais RELX), qui possède plus de 2 500 revues dont The Lancet et Cell , affichait en 2019 un chiffre d’affaires de 7,87 milliards d’euros (dont un tiers provient de l’édition), soit 5 % de plus qu’en 2018. Un succès qui s’explique notamment par l’augmentation des montants facturés aux clients. Lors des négociations, le rapport de force n’est pas en faveur des bibliothèques. « Nous étions contents quand nous arrivions à négocier une hausse de 12 % au lieu de 15 % » , se souvient Bernard Rentier, recteur de l’université de Liège (Belgique) entre 2005 et 2014. « Si nous refusions le contrat, nous nous entendions dire que notre établissement allait devenir un petit trou de province, faute de pouvoir accéder à cette littérature , poursuit l’universitaire, auteur de Science ouverte, le défi de la transparence (Éditions de l’Académie royale de Belgique). Ce sont des requins assumés, mais je ne leur jette pas la pierre : ils ont pour oeuvre de gagner de l’argent. On ne peut que reprocher aux clients d’être clients. »

      Actuellement, la France dépense environ 62 millions d’euros par an pour l’accès aux revues électroniques. Entre les années 1990 et 2018, la facture aurait augmenté annuellement de 2 % à 4 %, d’après une source proche du dossier. Mais il est difficile de le savoir précisément car la transparence n’est pas de mise. Jusqu’à récemment, les contrats noués entre Couperin (le consortium représentant plus de 250 acteurs de l’enseignement supérieur et de la recherche en France) et les éditeurs étaient confidentiels, à la demande de ces derniers. « Les négociations se font à la tête du client, et comme les contrats sont secrets, personne ne sait combien paient les autres » , dénonce Marie Farge. Pour la première fois en France, le contrat négocié avec la firme Elsevier en octobre 2019 a été divulgué officiellement (certains ont déjà fuité par le passé) : pendant quatre ans, 227 établissements de recherche et d’enseignement supérieur pourront accéder à 2 300 revues et services pour 34,7 millions d’euros par an en moyenne.

      Pendant longtemps, les frais d’édition semblaient tout à fait justifiés et n’étaient pas remis en cause par la communauté scientifique. « Au moment de l’essor des revues spécialisées, au XIXe siècle, les sociétés savantes ont délégué le travail d’édition, d’impression et de diffusion à des libraires et des éditeurs , rapporte Valérie Tesnière, spécialiste des pratiques et politiques éditoriales scientifiques contemporaines à l’École des hautes études en sciences sociales. Le modèle économique a été conçu à un moment où les auteurs et les rédactions des journaux avaient bien du mal à écrire en anglais (pour les Européens) et à assurer les mises aux normes des données qui facilitent la circulation internationale de l’information. Les éditeurs ont fait payer ce service et plus il était performant, plus les marges ont été confortables, car un bon service se paie. »

      Le développement d’internet aurait pu signer la fin de ce système, mais c’est tout le contraire qui s’est produit. Et certains chercheurs estiment désormais que les prix pratiqués sont excessifs. « Bien sûr, il y a encore des frais liés aux serveurs, à la main-d’oeuvre, aux stockages des données , concède Laurette Tuckerman, physicienne à l’École supérieure de physique et de chimie industrielles à Paris, mais la distribution se fait désormais essentiellement par voie électronique et ce sont souvent les chercheurs eux-mêmes qui s’occupent de la mise en page. » « Les coûts ne sont pas si nuls , conteste Valérie Tesnière. Les éditeurs fournissent aussi d’autres services aux chercheurs. Ils assurent en outre une diffusion internationale, organisée et immédiate via des systèmes d’information élaborés, qui leur font gagner du temps. »

      Mais l’escalade des prix s’explique en grande partie par un autre phénomène : la mise en place d’un oligopole, qui peut donc dicter à sa guise les lois du marché. « En trente ans, nous avons assisté à l’émergence de grands consortiums par fusions et acquisitions » , rapporte Bernard Rentier. Sur les quelque 12 000 éditeurs dans le monde, cinq se partagent 40 % du chiffre d’affaires. Autre raison de cette hausse spectaculaire, la nature des biens échangés. « En principe, si une entreprise vend un bien trop cher, les consommateurs vont se tourner vers ses concurrents. Mais en sciences, c’est impossible car les biens sont uniques » , explique Laurette Tuckerman. En économie, on parle de « demande inélastique » : la consommation n’est pas modifiée - ou très peu - par l’augmentation des prix. Cette spécificité du secteur n’est pas passée inaperçue aux yeux des investisseurs. Dès le début des années 2000, la banque d’investissement Morgan Stanley constatait que « la nature de niche du marché et la croissance rapide du budget des bibliothèques universitaires ont fait du marché de la publication scientifique le secteur de l’industrie des médias le plus florissant de ces quinze dernières années » .

      Pour justifier ces hausses répétées des prix, les éditeurs se sont mis à proposer des bouquets de revues (les « big deals » ) à des tarifs plus intéressants que la vente à l’unité, puis à augmenter le nombre de revues (et donc d’articles). Plus récemment, ils ont développé une autre stratégie, calquée sur une idée chère à la communauté scientifique : l’accès libre, gratuit pour tous... sauf pour les auteurs. Depuis le milieu des années 2000, ils proposent aux chercheurs de payer des frais de publication (les Article Publishing Charges, ou APC) afin que leur travail soit diffusé gratuitement. « Les établissements de recherche déboursent deux fois , résume Florence Audier, chercheuse à l’université Panthéon-Sorbonne, dans un article publié en 2018 dans la revue La Vie de la recherche scientifique . D’un côté en payant les frais de publication open access et de l’autre en maintenant l’abonnement à ces mêmes revues. »

      Si les frais d’abonnement commencent tout juste à s’infléchir - comme l’atteste la baisse des coûts de 13,3 % négociée lors du dernier contrat entre la France et Elsevier -, les APC connaissent une croissance très importante. D’après le consortium Couperin, les charges demandées par article par les éditeurs ont augmenté de 12 % en France entre 2015 et 2017, passant de 1 500 à 1 700 euros. Ces frais peuvent s’élever jusqu’à 7 000 dollars pour certains journaux. Des sommes souvent décorrélées des coûts de publication : « Les coûts réels pour publier un article uniquement en ligne peuvent être estimés entre 260 et 870 dollars, selon la qualité du travail d’édition et de relecture. Pour une version imprimée, c’est 1 300 à 2 000 dollars » , indique Samuel Alizon, directeur de recherche au CNRS. Pour Marie Farge, ces pratiques « relèvent plus du droit de péage que de la tarification de services apportés aux auteurs et aux lecteurs des articles publiés électroniquement » . Contacté par Le Figaro , Elsevier n’a pas répondu aux questions soulevées dans cet article.

      Depuis une dizaine d’années, les initiatives se multiplient pour lutter contre ce système. Certains chercheurs refusent désormais de publier dans des revues commerciales ou de réviser les articles qui y sont soumis, des comités éditoriaux démissionnent pour protester contre l’augmentation des coûts de publication, et des bras de fer entre les éditeurs et les universités ont lieu un peu partout. Après tout, si les chercheurs quittaient la table des négociations, que deviendraient les éditeurs ?

      https://www.lefigaro.fr/sciences/le-business-tres-juteux-des-revues-scientifiques-20200612

    • Le business très juteux des revues scientifiques

      Les chercheurs produisent et révisent gratuitement des articles publiés dans des journaux dont l’accès est ensuite facturé très cher aux organismes de recherche dont ils dépendent.

      La crise sanitaire a mis les grands noms de l’édition scientifique sur le devant de la scène. Au début du mois de mars, la majorité des journaux scientifiques ont choisi de diffuser gratuitement les articles en lien avec le coronavirus, afin d’accélérer la recherche. Philanthropes ? Pas vraiment...

      En temps normal, les connaissances scientifiques se monnaient très cher. Les quelques maisons d’édition qui possèdent l’essentiel de ces revues sont parmi les entreprises les plus rentables au monde, affichant des marges de 30 % à 40 %. C’est plus que le géant de l’informatique Apple, qui enregistre une marge de 21 % sur ces dix dernières années. Le secret des éditeurs scientifiques réside en grande partie dans le fait qu’ils vendent des produits obtenus sans dépenser un sou... ou presque. Au sein de la communauté scientifique, les voix sont de plus en plus nombreuses à dénoncer ce système, source de profits considérables au détriment des fonds publics. Jeudi, le prestigieux Institut de technologie du Massachusetts (MIT) annonçait ainsi mettre fin aux négociations avec le leader du secteur, Elsevier.

      Le système est ainsi construit : un chercheur a tout intérêt à proposer des articles, puisque sa carrière (obtention d’un poste, de financements...) dépend étroitement du nombre d’articles qu’il publie et du prestige des journaux dans lesquels il publie. Lorsque le comité éditorial d’une revue est intéressé par un article qui lui a été proposé, il le soumet à des scientifiques spécialistes du domaine, qui sont chargés de l’évaluer. Ce travail essentiel, appelé « révision par les pairs » dans le jargon de l’édition scientifique, est réalisé bénévolement. Si l’article est accepté, le chercheur est alors contraint d’en céder les droits à l’éditeur, à titre exclusif et gracieux. L’entreprise revend ensuite aux bibliothèques universitaires et aux laboratoires de recherche des abonnements permettant d’accéder à ces articles. « Des personnes non rémunérées par l’éditeur produisent et évaluent gratuitement des résultats scientifiques que leurs institutions doivent ensuite acheter à l’éditeur » , résume Didier Torny, spécialiste de l’économie politique de la publication scientifique au CNRS. « Les profits arrivent ensuite dans la poche des actionnaires, c’est la poule aux oeufs d’or » , poursuit Marie Farge, mathématicienne et physicienne, directrice de recherche émérite au CNRS.

      Le secteur se porte mieux que jamais. En 2018, le marché pesait 25,7 milliards de dollars, selon l’Association internationale des éditeurs scientifiques, contre 21 milliards de dollars en 2010. Elsevier (désormais RELX), qui possède plus de 2 500 revues dont The Lancet et Cell , affichait en 2019 un chiffre d’affaires de 7,87 milliards d’euros (dont un tiers provient de l’édition), soit 5 % de plus qu’en 2018. Un succès qui s’explique notamment par l’augmentation des montants facturés aux clients. Lors des négociations, le rapport de force n’est pas en faveur des bibliothèques. « Nous étions contents quand nous arrivions à négocier une hausse de 12 % au lieu de 15 % » , se souvient Bernard Rentier, recteur de l’université de Liège (Belgique) entre 2005 et 2014. « Si nous refusions le contrat, nous nous entendions dire que notre établissement allait devenir un petit trou de province, faute de pouvoir accéder à cette littérature , poursuit l’universitaire, auteur de Science ouverte, le défi de la transparence (Éditions de l’Académie royale de Belgique). Ce sont des requins assumés, mais je ne leur jette pas la pierre : ils ont pour oeuvre de gagner de l’argent. On ne peut que reprocher aux clients d’être clients. »

      Actuellement, la France dépense environ 62 millions d’euros par an pour l’accès aux revues électroniques. Entre les années 1990 et 2018, la facture aurait augmenté annuellement de 2 % à 4 %, d’après une source proche du dossier. Mais il est difficile de le savoir précisément car la transparence n’est pas de mise. Jusqu’à récemment, les contrats noués entre Couperin (le consortium représentant plus de 250 acteurs de l’enseignement supérieur et de la recherche en France) et les éditeurs étaient confidentiels, à la demande de ces derniers. « Les négociations se font à la tête du client, et comme les contrats sont secrets, personne ne sait combien paient les autres » , dénonce Marie Farge. Pour la première fois en France, le contrat négocié avec la firme Elsevier en octobre 2019 a été divulgué officiellement (certains ont déjà fuité par le passé) : pendant quatre ans, 227 établissements de recherche et d’enseignement supérieur pourront accéder à 2 300 revues et services pour 34,7 millions d’euros par an en moyenne.

      Pendant longtemps, les frais d’édition semblaient tout à fait justifiés et n’étaient pas remis en cause par la communauté scientifique. « Au moment de l’essor des revues spécialisées, au XIXe siècle, les sociétés savantes ont délégué le travail d’édition, d’impression et de diffusion à des libraires et des éditeurs , rapporte Valérie Tesnière, spécialiste des pratiques et politiques éditoriales scientifiques contemporaines à l’École des hautes études en sciences sociales. Le modèle économique a été conçu à un moment où les auteurs et les rédactions des journaux avaient bien du mal à écrire en anglais (pour les Européens) et à assurer les mises aux normes des données qui facilitent la circulation internationale de l’information. Les éditeurs ont fait payer ce service et plus il était performant, plus les marges ont été confortables, car un bon service se paie. »

      Le développement d’internet aurait pu signer la fin de ce système, mais c’est tout le contraire qui s’est produit. Et certains chercheurs estiment désormais que les prix pratiqués sont excessifs. « Bien sûr, il y a encore des frais liés aux serveurs, à la main-d’oeuvre, aux stockages des données , concède Laurette Tuckerman, physicienne à l’École supérieure de physique et de chimie industrielles à Paris, mais la distribution se fait désormais essentiellement par voie électronique et ce sont souvent les chercheurs eux-mêmes qui s’occupent de la mise en page. » « Les coûts ne sont pas si nuls , conteste Valérie Tesnière. Les éditeurs fournissent aussi d’autres services aux chercheurs. Ils assurent en outre une diffusion internationale, organisée et immédiate via des systèmes d’information élaborés, qui leur font gagner du temps. »

      Mais l’escalade des prix s’explique en grande partie par un autre phénomène : la mise en place d’un oligopole, qui peut donc dicter à sa guise les lois du marché. « En trente ans, nous avons assisté à l’émergence de grands consortiums par fusions et acquisitions » , rapporte Bernard Rentier. Sur les quelque 12 000 éditeurs dans le monde, cinq se partagent 40 % du chiffre d’affaires. Autre raison de cette hausse spectaculaire, la nature des biens échangés. « En principe, si une entreprise vend un bien trop cher, les consommateurs vont se tourner vers ses concurrents. Mais en sciences, c’est impossible car les biens sont uniques » , explique Laurette Tuckerman. En économie, on parle de « demande inélastique » : la consommation n’est pas modifiée - ou très peu - par l’augmentation des prix. Cette spécificité du secteur n’est pas passée inaperçue aux yeux des investisseurs. Dès le début des années 2000, la banque d’investissement Morgan Stanley constatait que « la nature de niche du marché et la croissance rapide du budget des bibliothèques universitaires ont fait du marché de la publication scientifique le secteur de l’industrie des médias le plus florissant de ces quinze dernières années » .

      Pour justifier ces hausses répétées des prix, les éditeurs se sont mis à proposer des bouquets de revues (les « big deals » ) à des tarifs plus intéressants que la vente à l’unité, puis à augmenter le nombre de revues (et donc d’articles). Plus récemment, ils ont développé une autre stratégie, calquée sur une idée chère à la communauté scientifique : l’accès libre, gratuit pour tous... sauf pour les auteurs. Depuis le milieu des années 2000, ils proposent aux chercheurs de payer des frais de publication (les Article Publishing Charges, ou APC) afin que leur travail soit diffusé gratuitement. « Les établissements de recherche déboursent deux fois , résume Florence Audier, chercheuse à l’université Panthéon-Sorbonne, dans un article publié en 2018 dans la revue La Vie de la recherche scientifique . D’un côté en payant les frais de publication open access et de l’autre en maintenant l’abonnement à ces mêmes revues. »

      Si les frais d’abonnement commencent tout juste à s’infléchir - comme l’atteste la baisse des coûts de 13,3 % négociée lors du dernier contrat entre la France et Elsevier -, les APC connaissent une croissance très importante. D’après le consortium Couperin, les charges demandées par article par les éditeurs ont augmenté de 12 % en France entre 2015 et 2017, passant de 1 500 à 1 700 euros. Ces frais peuvent s’élever jusqu’à 7 000 dollars pour certains journaux. Des sommes souvent décorrélées des coûts de publication : « Les coûts réels pour publier un article uniquement en ligne peuvent être estimés entre 260 et 870 dollars, selon la qualité du travail d’édition et de relecture. Pour une version imprimée, c’est 1 300 à 2 000 dollars » , indique Samuel Alizon, directeur de recherche au CNRS. Pour Marie Farge, ces pratiques « relèvent plus du droit de péage que de la tarification de services apportés aux auteurs et aux lecteurs des articles publiés électroniquement » . Contacté par Le Figaro , Elsevier n’a pas répondu aux questions soulevées dans cet article.

      Depuis une dizaine d’années, les initiatives se multiplient pour lutter contre ce système. Certains chercheurs refusent désormais de publier dans des revues commerciales ou de réviser les articles qui y sont soumis, des comités éditoriaux démissionnent pour protester contre l’augmentation des coûts de publication, et des bras de fer entre les éditeurs et les universités ont lieu un peu partout. Après tout, si les chercheurs quittaient la table des négociations, que deviendraient les éditeurs ?

      https://www.lefigaro.fr/sciences/le-business-tres-juteux-des-revues-scientifiques-20200612

    • Privés de savoir ?

      Dans le monde de la recherche scientifique, publier ses travaux est un passage obligé. Cela permet aux chercheuses et chercheurs de faire connaître leur travail mais aussi d’être identifié par leurs pairs et pourquoi pas d’obtenir un poste, à condition d’être publié dans
      les bonnes revues. Sauf que cette mécanique de publication - qui permettait à la base de faire circuler le savoir - est devenue une vraie chasse gardée économique : celle des éditeurs scientifiques. Quelques grands noms comme le neerlandais Elsevier ou le groupe Springer/Nature se partagent un marché juteux et privatisent au passage des travaux scientifiques la plupart du temps financés par des fonds publics.

      https://www.youtube.com/watch?v=WnxqoP-c0ZE

      voir aussi ce fil de discussion dans lequel ce film est cité :

      On turning down poorly-paid, limited value, academic work

      https://seenthis.net/messages/653533