• EthVM: First Open-Source Block Explorer Powered by Kafka
    https://hackernoon.com/ethvm-first-open-source-block-explorer-powered-by-kafka-e1639fc93e8e?sou

    Implementing the Apache Kafka ecosystem for processing #ethereum #blockchain dataIn the decade since Bitcoin introduced the world to cryptocurrencies, the industry has evolved in ways that perhaps even Satoshi could not envision. The Ethereum blockchain, which emerged in July 2015, opened a new world of possibilities thanks to the Ethereum Virtual Machine (EVM) — an environment for developing and executing smart contracts.The EVM enabled the Ethereum network to be something more than a repository for a history of monetary transactions — it was an ecosystem that invited exploration, interaction and collaborative innovation.Continuing the MEW (MyEtherWallet) legacy of open-source products that empower both users and developers to explore the possibilities of blockchain, we introduce EthVM: the (...)

    #cryptocurrency #data #blockchain-technology

  • Why We’re Going to Re-Architect #blockchain!
    https://hackernoon.com/why-were-going-to-re-architect-blockchain-b617fac5ba4b?source=rss----3a8

    a whole new world of possibility!•Blockchain for #database storage. ?Instead of storing data in native database forms we may use blockchain to store data which as a result becomes highly secure and decentralized(essence of blockchain).? In general, traditional user accounts can be substituted by public-private keys and addresses in blockchains. Traditional databases are subject to strong access control, almost all data is restricted to authenticated accounts. Moreover, account creation is also of a centralized model in traditional databases, by which a database administrator grants the user an account for access. With blockchains, conversely, key pairs are generated freely by anyone, without the need for centralized administration.? For applications that require some form of central (...)

    #sql #decentralization #cryptocurrency

  • #python is First Step to Data Science
    https://hackernoon.com/python-is-first-step-to-data-science-705911ddf5a1?source=rss----3a8144ea

    The steadily increasing importance of data science across industries has led to a rapid demand for data scientists. It’s been said that the role of data scientist is the 21st century’s sexiest job title. If you wonder why it has become such a sought after position these days, the short answer is that there has been a huge explosion in both data generated and captured by organizations and common people and data scientists are the people who derive valuable insights from that data and figure out what can be done with it.If you go through some job advertisements for data scientists, you’ll see that expertise in data science and Python are considered as two of the most crucial skills described.In this post, we’re going to discuss why these skills are considered must for data scientists.1- What (...)

    #data-science #magnimind-academy #data-scientist #education

  • 12 Key Lessons from ML researchers and practitioners
    https://hackernoon.com/12-key-lessons-from-ml-researchers-and-practitioners-3d4818a2feff?source

    Machine learning algorithms come with the promise of being able to figure out how to perform important tasks by learning from data, i.e., generalizing from examples without being explicitly told what to do. This means that the higher the amount of data, the more ambtious problems can be tackled by these algorithms. However, developing successful machine learning applications requires quite some “black art” that is hard to find in text books or introductory courses on machine learning.I recently stumbled upon a great research paper by Professor Pedro Domingos that puts together lessons learned by machine learning researchers and practitioners. In this post, I am going to walkthrough those lessons with you.Get ready to learn about: pitfalls to avoid, important issues to focus on, and (...)

    #machine-learning #development #best-practices #artificial-intelligence #data-science

  • Le logement dans l’indice des prix à la consommation - Insee Focus - 152
    https://www.insee.fr/fr/statistiques/4126450#consulter

    Depuis 20 ans, les loyers et charges évoluent en général plus vite (1,9 % en moyenne par an de 1998 à 2018) que l’inflation d’ensemble (1,4 % ; figure 1). Toutefois, de 2000 à 2001, les loyers ont crû moins rapidement que l’inflation, surtout du fait d’un gel des loyers dans le secteur HLM à la suite d’un accord avec l’État ; ces loyers représentent un tiers de la masse des loyers. Cette augmentation modérée est rattrapée les années suivantes. À partir de 2006, la hausse des #loyers ralentit, en grande partie grâce à la législation qui met en place un nouvel indice légal de révision des loyers, l’indice de référence des loyers (IRL), directement calculé à partir de l’IPC. En 2011, l’évolution annuelle des loyers est même inférieure à l’#inflation. Depuis 2012, la législation continue de contribuer à ces hausses plus modérées : limitation de l’augmentation du loyer à l’IRL en cas de relocation dans certaines zones tendues, encadrement des loyers, notamment à Paris, entre 2015 et 2017, et en 2018 réduction de loyer de solidarité dans le secteur social pour les locataires touchés par la baisse des aides personnalisées au logement.[...]

    L’indicateur de taux d’effort mesure le poids des dépenses en logement des ménages dans leur revenu (loyers, charges, remboursement d’emprunt, taxes foncières, taxe d’habitation, etc.). Ce faisant, il rend compte de multiples facteurs : la hausse des dépenses, dont une partie provient d’une évolution des prix et une autre de l’amélioration de la qualité des logements, mais aussi la variation des revenus sur lesquels pèsent ces dépenses. Entre 2001 et 2013, le taux d’effort en logement a augmenté de près de cinq points dans le secteur locatif libre, pour s’établir à 28 %. La hausse est de quatre points dans le social (24 %), de trois points pour les propriétaires accédants (27 %) et d’un point pour les propriétaires non accédants (9 %). Il a également augmenté plus vite pour les ménages les plus modestes.

    Sur la même période, les prix des #logements anciens ont été multipliés par 2,3 entre début 2000 et fin 2018 (2,6 en Île-de-France), et ceux des logements neufs par 2,1 (figure 4). Ces hausses pèsent sur le taux d’effort des propriétaires accédants. Elles réduisent aussi les possibilités d’accès à la #propriété des ménages qui ne sont pas déjà propriétaires et ne bénéficient donc pas de l’appréciation d’un précédent logement.

    #data #visualisation

  • #ieo Hype, is it worth it ?
    https://hackernoon.com/ieo-hype-is-it-worth-it-4ddc35bd8ba9?source=rss----3a8144eabfe3---4

    Initial Exchange Offering (IEO) is, basically, a rebranding of #ico. There are a couple of differences though.The main is, tokens are being issued by an exchange, hence it has an immediate listing possibility. Additionally, projects should go through a due diligence process by an exchange. Therefore security and liquidity should be better, resulting in increased quality of projects.`IEOs are quite hyped right now, but what about numbers? We conducted research and analyzed #data on all recent offerings. However, the dataset is still rather small, so take the following numbers with some degree of skepticism.DatasetWe analyzed 47 IEOs from 11 platforms, 15 of them are traded. Following prices have been recorded: IEO price, 1 hour after listing close price, Current price (14 April 2019, (...)

    #blockchain #cryptocurrency

  • Our 25 Favorite Data Science Courses From Harvard To Udemy
    https://hackernoon.com/our-25-favorite-data-science-courses-from-harvard-to-udemy-9a89cac0358d?

    Originally Posted HereLearning every facet of data science takes time. We have written pieces on different resources before. But we really wanted to focus on courses, or video like courses on youtube.There are so many options, it can be nice to have a list of classes worth taking.We are going to start with the free data science options so you can decide whether or not you want to start investing more in courses.Tip : Coursera can make it seem like the only option is to purchase the course. But they do have an audit button on the very bottom. Now, if you appreciate Coursera, by all means, you should purchase their specialization, I am still uncertain how I feel about it. But, I do love taking Coursera courses.Select the audit course option to not pay for the courseBootcamps and (...)

    #data-science #big-data #python #machine-learning #learning

  • Découvrez les cartes de France des eaux de surface au regard de la présence de pesticides perturbateurs endocriniens suspectés - Générations Futures
    https://www.generations-futures.fr/actualites/exppert-11-carte-eau-pesticides-pe

    Générations Futures publie aujourd’hui un nouveau rapport sur les pesticides perturbateurs endocriniens. Ce rapport s’inscrit dans une série de rapports publiés par Générations Futures sur la problématique des perturbateurs endocriniens (EXPPERT 11). Il vise à informer sur la présence de pesticides perturbateurs endocriniens dans notre environnement à travers l’étude de leur quantification dans les eaux de surface et est basé sur des données officielles des agences de l’eau françaises regroupées dans la base de données Naïades (http://naiades.eaufrance.fr).

    Les principales conclusions de ce rapport, qui a nécessité de travailler plusieurs millions de résultats d’analyses sont les suivantes. D’après les données 2015 de la base Naïades sur les eaux de surface en France métropolitaine, Martinique et Réunion nous avons retrouvé :

    Un total de 232 substances actives de pesticides ou de métabolites perturbateurs endocriniens suspectés recherchés au moins une fois dans un département, la moyenne par département est de 183 environ.
    La moyenne par département de substances actives de pesticides ou de métabolites supposés perturbateurs endocriniens quantifiés est de plus de 41, soit 22,8 % environ des pesticides PE suspectés recherchés.
    Le nombre de substances actives de pesticides ou métabolites supposées perturbateurs endocriniens quantifiés est très variable selon les départements : de 4 pour la Corse du sud à 90 pour le Calvados.
    Les substances actives de pesticides ou les métabolites supposées perturbateurs endocriniens les plus fréquemment quantifiées par rapport au nombre d’analyses réalisées varient également selon les départements. Les 3 substances qui arrivent le plus fréquemment en tête sont : glyphosate (37 départements), Atrazine-Déséthyl* (30 départements), Métolachlor* (15 départements).

    Diverses cartes sont mises en ligne pour illustrer ces données par départements, à consulter ici : https://www.generations-futures.fr/cartes

    https://www.generations-futures.fr/cartes

    http://naiades.eaufrance.fr/acces-donnees#/physicochimie

    #pesticides #data #pollution #eau

  • How to prevent embarrassment in AI
    https://hackernoon.com/how-to-prevent-embarrassment-in-ai-5e64f437b9bb?source=rss----3a8144eabf

    The must-have safety net that’ll save your baconHow will you prevent embarrassment in machine learning? The answer is… partially.Expect the unexpected!Wise product managers and designers might save your skin by seeing some issues coming a mile off and helping you cook a preventative fix into your production code. Unfortunately, AI systems are complex and your team usually won’t think of everything.There will be nasty surprises that force you into reactive mode.Real life is like that too. I’m meticulous when planning my vacations, but I didn’t consider the possibility that I’d miss my train to Rome thanks to a hospital tour sponsored by shellfish poisoning. True story. It taught college-age me never to repeat the words “I’ve thought of everything.”Speaking of things nobody expects…When the (...)

    #data-science #artificial-intelligence #hackernoon-top-story #machine-learning #technology

  • What I learned by migrating an #rds #database into production using #aws DMS
    https://hackernoon.com/what-i-learned-by-migrating-an-rds-database-into-production-using-aws-dm

    What I learned by migrating an RDS database into production using AWS DMS (Database Migration Service)…or how to avoid a big headache while live migrating and replicating your db instancesImage from Jan Antonin Kolar — UnsplashI am currently managing the migration of some on premise services, and other services already present on AWS under a single VPC.Having active production systems H24 7/7 it was essential to design and implement a fairly precise migration plan with a zero error margin.While regarding services like EC2 instances, EFS, Security Group, Target Group and Load Balancer the transition was quite simple, I encountered some obstacles during the migration of our RDS database (MariaDB) from one VPC to another.For this task the native Amazon service, DMS (Database Migration Service) (...)

    #cloud #cloud-computing

  • Avoiding consumer lock-in with the decentralised web
    https://hackernoon.com/avoiding-consumer-lock-in-with-the-decentralised-web-c618f28241ab?source

    Avoiding Consumer Lock-ins with the Decentralised WebThis is the third blog post in our series exploring aspects of the Arweave’s decentralised, permanent web. You can catch up with the other parts here and here.If you are like me, you have been an avid user of #google’s Gmail service since the first few months of the ‘private’ beta over a decade ago. Over this time, Google has rendered a fantastic service to us, with consistent releases of new features, fast and reliable service (I can only remember it being offline once when I needed it), and the simplicity that only great products can provide.Over this period, I have also given out my personal Gmail email address to hundreds of people — many of whom only have this mechanism of contacting me. Google has also sold access to my profile (...)

    #decentralization #privacy #data #blockchain

  • Forecasting Future Customer Inflow Numbers using #arima and FBProphet
    https://hackernoon.com/forecasting-future-customer-inflow-numbers-using-arima-and-fbprophet-2f7

    Peaking into the futureSometimes it is important for a venture to peak into the future to understand how much volume foot traffic or how many units of products they can expect to sell. This could help better prepare for the future by scaling up sales and customer services team to adequately prepare for likely sales over the course of the next few years/months and ensuring there are demand side resources to handle projected growth.https://medium.com/media/ef398bdfacdcbc10075fcee3b0ac728d/hrefLike our trusted guide, Mr. Knuckles, in the above GIF, we can use historical data points to help us understand not just the present, but the future- helping guide us into the unknown. When we try and make such projections based only on time and values this is known as a time series analysis. We (...)

    #programming #timeseries #data-science #forecast

  • Correlations Between Top Coins and the #cryptocurrency Market Dropped in 2019
    https://hackernoon.com/correlations-between-top-coins-and-the-cryptocurrency-market-dropped-in-

    Last year, I published an article which discovered that 75% of the top 200 coins by market cap had a correlation of 0.67 or higher over the last two years.In 2018, correlations between cryptocurrencies and the total cryptocurrency market were especially high. 75% of the top 200 coins by market cap had a correlation of 0.87 or higher.High correlations are typically a really bad thing because it makes it harder for diversification to mitigate risk and implies that the market cannot differentiate between good & bad projects.2018 was bear market and it makes sense that correlations were high since the prices of all cryptocurrencies tumbled altogether.But since then, the market has changed. So far 2019 has primarily been a sideways market.The market has mostly been flat, with the (...)

    #blockchain #bitcoin #finance #data-science

  • Au #Niger, l’UE mise sur la #police_locale pour traquer les migrants

    Au Niger, l’Union européenne finance le contrôle biométrique des frontières. Avec pour objectif la lutte contre l’immigration, et dans une opacité parfois très grande sur les méthodes utilisées.

    Niger, envoyé spécial.– Deux semaines après une attaque meurtrière attribuée aux groupes armés djihadistes, un silence épais règne autour du poste de la gendarmerie de Makalondi, à la frontière entre le Niger et le Burkina Faso. Ce jour de novembre 2018, un militaire nettoie son fusil avec un torchon, des cartouches scintillantes éparpillées à ses pieds. Des traces de balles sur le mur blanc du petit bâtiment signalent la direction de l’attaque. Sur le pas de la porte, un jeune gendarme montre son bras bandé, pendant que ses collègues creusent une tranchée et empilent des sacs de sable.
    L’assaut, à 100 kilomètres au sud de la capitale Niamey, a convaincu le gouvernement du Niger d’étendre les mesures d’état d’urgence, déjà adoptées dans sept départements frontaliers avec le Mali, à toute la frontière avec le Burkina Faso. La sécurité a également été renforcée sur le poste de police, à moins d’un kilomètre de distance de celui de la gendarmerie, où les agents s’affairent à une autre mission : gérer les flux migratoires.
    « On est les pionniers, au Niger », explique le commissaire Ismaël Soumana, montrant les équipements installés dans un bâtiment en préfabriqué. Des capteurs d’empreintes sont alignés sur un comptoir, accompagnés d’un scanneur de documents, d’une microcaméra et d’un ordinateur. « Ici, on enregistre les données biométriques de tous les passagers qui entrent et sortent du pays, on ajoute des informations personnelles et puis on envoie tout à Niamey, où les données sont centralisées. »
    Makalondi est le premier poste au Niger à avoir installé le Midas, système d’information et d’analyse de données sur la migration, en septembre 2018. C’est la première étape d’un projet de biométrisation des frontières terrestres du pays, financé par l’UE et le #Japon, et réalisé conjointement par l’#OIM, l’Organisation internationale pour les migrations – créatrice et propriétaire du système #Midas –, et #Eucap_Sahel_Niger, la mission de sécurité civile de Bruxelles.


    Au cœur de ce projet, il y a la Direction pour la surveillance du territoire (DST), la police aux frontières nigérienne, dont le rôle s’est accru au même rythme que l’intérêt européen à réduire la migration via le Niger. Dans un quartier central de Niamey, le bureau du directeur Abdourahamane Alpha est un oasis de tranquillité au milieu de la tempête. Tout autour, les agents tourbillonnent, en se mêlant aux travailleurs chinois qui renouvellent leur visa et aux migrants ouest-africains sans papiers, en attente d’expulsion.
    Dessinant une carte sur un morceau de papier, le commissaire Alpha trace la stratégie du Niger « pour contrôler 5 000 kilomètres de frontière avec sept pays ». Il évoque ainsi les opérations antiterrorisme de la force G5 Sahel et le soutien de l’UE à une nouvelle compagnie mobile de gardes-frontières, à lancer au printemps 2019.
    Concernant le Midas, adopté depuis 2009 par 23 pays du monde, « le premier défi est d’équiper tous les postes de frontière terrestre », souligne Alpha. Selon l’OIM, six nouveaux postes devraient être équipés d’ici à mi-2020.

    Un rapport interne réalisé à l’été 2018 et financé par l’UE, obtenu par Mediapart, estime que seulement un poste sur les douze visités, celui de Sabon Birni sur la frontière avec le Nigeria, est apte à une installation rapide du système Midas. Des raisons de sécurité, un flux trop bas et composé surtout de travailleurs frontaliers, ou encore la nécessité de rénover les structures (pour la plupart bâties par la GIZ, la coopération allemande, entre 2015 et 2016), expliquent l’évaluation prudente sur l’adoption du Midas.
    Bien que l’installation de ce système soit balbutiante, Abdourahamane Alpha entrevoit déjà le jour où leurs « bases de données seront connectées avec celles de l’UE ». Pour l’instant, du siège de Niamey, les agents de police peuvent consulter en temps quasi réel les empreintes d’un Ghanéen entrant par le Burkina Faso, sur un bus de ligne.
    À partir de mars 2019, ils pourront aussi les confronter avec les fichiers du Pisces, le système biométrique du département d’État des États-Unis, installé à l’aéroport international de Niamey. Puis aux bases de données d’Interpol et du Wapis, le système d’information pour la police de l’Afrique de l’Ouest, un fichier biométrique financé par le Fonds européen de développement dans seize pays de la région.
    Mais si le raccordement avec des bases de données de Bruxelles, envisagé par le commissaire Alpha, semble une hypothèse encore lointaine, l’UE exerce déjà un droit de regard indirect sur les écrans de la police nigérienne, à travers Frontex, l’agence pour le contrôle des frontières externes.

    Frontex a en effet choisi le Niger comme partenaire privilégié pour le contrôle migratoire sur la route dite de la Méditerranée centrale. En août 2017, l’agence y a déployé son unique officier de liaison en Afrique et a lancé, en novembre 2018, la première cellule d’analyse de risques dans le continent. Un projet financé par la coopération au développement de l’UE : 4 millions d’euros destinés à ouvrir des cellules similaires dans huit pays subsahariens.
    L’agence n’a dévoilé à Mediapart que six documents sur onze relatifs à ses liens avec le Niger, en rappelant la nécessité de « protéger l’intérêt public concernant les relations internationales ». Un des documents envoyés concerne les cellules d’analyse de risques, présentées comme des bureaux équipés et financés par Frontex à l’intérieur des autorités de contrôle des frontières du pays, où des analystes formés par l’agence – mais dépendants de l’administration nationale – auront accès aux bases de données.
    Dans la version intégrale du document, que Mediapart a finalement pu se procurer, et qui avait été expurgée par Frontex, on apprend que « les bases de données du MIDAS, PISCES et Securiport [compagnie privée de Washington qui opère dans le Mali voisin, mais pas au Niger – ndlr] seront prises en considération comme sources dans le plan de collecte de données ».
    En dépit de l’indépendance officielle des cellules par rapport à Frontex, revendiquée par l’agence, on peut y lire aussi que chaque cellule aura une adresse mail sur le serveur de Frontex et que les informations seront échangées sur une plateforme digitale de l’UE. Un graphique, également invisible dans la version expurgée, montre que les données collectées sont destinées à Frontex et aux autres cellules, plutôt qu’aux autorités nationales.
    Selon un fonctionnaire local, la France aurait par ailleurs fait pression pour obtenir les fichiers biométriques des demandeurs d’asile en attente d’être réinstallés à Paris, dans le cadre d’un programme de réinstallation géré par le UNHCR.
    La nouvelle Haute Autorité pour la protection des données personnelles, opérationnelle depuis octobre 2018, ne devrait pas manquer de travail. Outre le Midas, le Pisces et le Wapis, le Haut Commissariat pour les réfugiés a enregistré dans son système Bims les données de presque 250 000 réfugiés et déplacés internes, tandis que la plus grande base biométrique du pays – le fichier électoral – sera bientôt réalisée.
    Pendant ce temps, au poste de frontière de Makalondi, un dimanche de décembre 2018, les préoccupations communes de Niamey et Bruxelles se matérialisent quand les minibus Toyota laissent la place aux bus longue distance, reliant les capitales d’Afrique occidentale à Agadez, au centre du pays, avec escale à Niamey. Des agents fouillent les bagages, tandis que les passagers attendent de se faire enregistrer.
    « Depuis l’intensification des contrôles, en 2016, le passage a chuté brusquement, explique le commissaire Ismaël Soumana. En parallèle, les voies de contournement se sont multipliées : si on ferme ici, les passeurs changent de route, et cela peut continuer à l’infini. »
    Les contrôles terminés, les policiers se préparent à monter la garde. « Car les terroristes, eux, frappent à la nuit, et nous ne sommes pas encore bien équipés », conclut le commissaire, inquiet.

    https://www.mediapart.fr/journal/international/280219/au-niger-l-ue-mise-sur-la-police-locale-pour-traquer-les-migrants
    #migrations #réfugiés #asile #traque #externalisation #contrôles_frontaliers #EU #UE #Eucap #biométrie #organisation_internationale_contre_les_migrations #IOM

    J’ajoute à la métaliste :
    https://seenthis.net/messages/731749

    • Biometrics: The new frontier of EU migration policy in Niger

      The EU’s strategy for controlling irregular West African migration is not just about asking partner countries to help stop the flow of people crossing the Mediterranean – it also includes sharing data on who is trying to make the trip and identifying to which countries they can be returned.

      Take Niger, a key transit country for migrants arriving in Europe via Libya.

      European money and technical assistance have flowed into Niger for several years, funding beefed-up border security and supporting controversial legislation that criminalises “migrant trafficking” and has led to a sharp fall in the registered number of people travelling through the country to reach Libya – down from 298,000 in 2016 to 50,000 in 2018.

      Such cooperation is justified by the “moral duty to tackle the loss of lives in the desert and in the Mediterranean”, according to the EU’s head of foreign policy, Federica Mogherini. It was also a response to the surge in arrivals of asylum seekers and migrants to European shores in 2015-16, encouraging the outsourcing of control to African governments in return for development aid.

      In April, as a further deterrent to fresh arrivals, the European Parliament passed a tougher “Regulation” for #Frontex – the EU border guard agency – authorising stepped-up returns of migrants without proper documentation to their countries of origin.

      The regulation is expected to come into force by early December after its formal adoption by the European Council.

      The proposed tougher mandate will rely in part on biometric information stored on linked databases in Africa and Europe. It is a step rights campaigners say not only jeopardises the civil liberties of asylum seekers and others in need of protection, but one that may also fall foul of EU data privacy legislation.

      In reply to a request for comment, Frontex told The New Humanitarian it was “not in the position to discuss details of the draft regulation as it is an ongoing process.”

      Niger on the frontline

      Niger is a key country for Europe’s twin strategic goals of migration control and counter-terrorism – with better data increasingly playing a part in both objectives.

      The #Makalondi police station-cum-immigration post on Niger’s southern border with Burkina Faso is on the front line of this approach – one link in the ever-expanding chain that is the EU’s information-driven response to border management and security.

      When TNH visited in December 2018, the hot Sunday afternoon torpor evaporated when three international buses pulled up and disgorged dozens of travellers into the parking area.

      “In Niger, we are the pioneers.”

      They were mostly Burkinabès and Nigeriens who travelled abroad for work and, as thousands of their fellow citizens do every week, took the 12-hour drive from the Burkina Faso capital, Ouagadougou, to the Niger capital, Niamey.

      As policemen searched their bags, the passengers waited to be registered with the new biometric #Migration_Information_and_Data_Analysis_System, or #MIDAS, which captures fingerprints and facial images for transmission to a central #database in Niamey.

      MIDAS has been developed by the International Organisation for Migration (#IOM) as a rugged, low-cost solution to monitor migration flows.

      “In Niger, we are the pioneers,” said Ismael Soumana, the police commissioner of Makalondi. A thin, smiling man, Soumana proudly showed off the eight new machines installed since September at the entry and exit desks of a one-storey prefabricated building. Each workstation was equipped with fingerprint and documents scanners, a small camera, and a PC.
      Data sharing

      The data from Makalondi is stored on the servers of the Directorate for Territorial Surveillance (DTS), Niger’s border police. After Makalondi and #Gaya, on the Benin-Niger border, IOM has ambitious plans to instal MIDAS in at least eight more border posts by mid-2020 – although deteriorating security conditions due to jihadist-linked attacks could interrupt the rollout.

      IOM provides MIDAS free of charge to at least 20 countries, most of them in sub-Saharan Africa. Its introduction in Niger was funded by Japan, while the EU paid for an initial assessment study and the electrical units that support the system. In addition to the border posts, two mobile MIDAS-equipped trucks, financed by #Canada, will be deployed along the desert trails to Libya or Algeria in the remote north.

      MIDAS is owned by the Nigerien government, which will be “the only one able to access the data,” IOM told TNH. But it is up to Niamey with whom they share that information.

      MIDAS is already linked to #PISCES (#Personal_Identification_Secure_Comparison_and_Evaluation_System), a biometric registration arm of the US Department of State installed at Niamey international airport and connected to #INTERPOL’s alert lists.

      Niger hosts the first of eight planned “#Risk_Analysis_Cells” in Africa set up by Frontex and based inside its border police directorate. The unit collects data on cross-border crime and security threats and, as such, will rely on systems such as #PISCES and MIDAS – although Frontex insists no “personal data” is collected and used in generating its crime statistics.

      A new office is being built for the Niger border police directorate by the United States to house both systems.

      The #West_African_Police_Information_System, a huge criminal database covering 16 West African countries, funded by the EU and implemented by INTERPOL, could be another digital library of fingerprints linking to MIDAS.

      Frontex programmes intersect with other data initiatives, such as the #Free_Movement_of_Persons_and_Migration_in_West_Africa, an EU-funded project run by the IOM in all 15-member Economic Community of West African States. One of the aims of the scheme is to introduce biometric identity cards for West African citizens.

      Frontex’s potential interest is clear. “If a European country has a migrant suspected to be Ivorian, they can ask the local government to match in their system the biometric data they have. In this way, they should be able to identify people,” IOM programme coordinator Frantz Celestine told TNH.

      The push for returns

      Only 37 percent of non-EU citizens ordered to leave the bloc in 2017 actually did so. In his 2018 State of the Union address, European Commission President Jean-Claude Juncker urged a “stronger and more effective European return policy” – although some migration analysts argue what is needed are more channels for legal migration.

      Part of the problem has been that implementing a returns policy is notoriously hard – due in part to the costs of deportation and the lack of cooperation by countries of origin to identify their citizens. Europe has had difficulty in finalising formal accords with so-called third countries unwilling to lose remittances from those abroad.

      The Commission is shifting to “informal arrangements [that] keep readmission deals largely out of sight” – serving to ease the domestic pressure on governments who cooperate on returns, according to European law researcher, Jonathan Slagter.

      The new Frontex regulation provides a much broader mandate for border surveillance, returns, and cooperation with third countries.

      It contains provisions to “significantly step up the effective and sustainable return of irregular migrants”. Among the mechanisms is the “operation and maintenance of a platform for the exchange of data”, as a tool to reinforce the return system “in cooperation with the authorities of the relevant third countries”. That includes access to MIDAS and PISCES.

      Under the new Frontex policy, in order to better identify those to be deported, the agency will be able “to restrict certain rights of data subjects”, specifically related to the protection and access to personal data granted by EU legislation.

      That, for example, will allow the “transfer of personal data of returnees to third countries” - even in cases where readmission agreements for deportees do not exist.

      Not enough data protection

      The concern is that the expanded mandate on returns is not accompanied by appropriate safeguards on data protection. The #European_Data_Protection_Supervisor – the EU’s independent data protection authority – has faulted the new regulation for not conducting an initial impact study, and has called for its provisions to be reassessed “to ensure consistency with the currently applicable EU legislation”.

      “Given the extent of data sharing, the regulation does not put in place the necessary human rights safeguards."

      Mariana Gkliati, a researcher at the University of Leiden working on Frontex human rights accountability, argues that data on the proposed centralised return management platform – shared with third countries – could prove detrimental for the safety of people seeking protection.

      “Given the extent of data sharing, the regulation does not put in place the necessary human rights safeguards and could be perceived as giving a green light for a blanket sharing with the third country of all information that may be considered relevant for returns,” she told TNH.

      “Frontex is turning into an #information_hub,” Gkliati added. “Its new powers on data processing and sharing can have a major impact on the rights of persons, beyond the protection of personal data.”

      For prospective migrants at the Makalondi border post, their data is likely to travel a lot more freely than they can.

      https://www.thenewhumanitarian.org/news-feature/2019/06/06/biometrics-new-frontier-eu-migration-policy-niger
      #empreintes_digitales #OIM #identification #renvois #expulsions #échange_de_données

      ping @albertocampiphoto @karine4 @daphne @marty @isskein

    • La #criminalisation_de_la_mobilité et la rhétorique de la défense des migrants : l’expérience du Niger

      Le Niger joue un rôle central dans les stratégies européennes de gouvernance des migrations. Depuis 2015, avec l’approbation de la loi n° 36, les dynamiques de lutte contre la liberté de circulation se sont multipliées : derrière la rhétorique de la lutte contre le trafic et la traite, se cachent les intérêts pressants de l’UE pour limiter la mobilité.

      Depuis 2015, on assiste à une redéfinition des objectifs de la coopération européenne avec les pays tiers dans une perspective sécuritaire et de gestion des frontières plutôt que de coopération au développement. Ce changement de cap est particulièrement évident au Niger, un pays qui occupe une position centrale dans les stratégies européennes de gestion des migrations.

      Les stratégies adoptées par l’Union européenne et les organisations internationales au Niger ces dernières années visent à imposer une réorganisation bureaucratique et judiciaire de l’État afin de réduire à court terme le nombre de migrants et de demandeurs d’asile en transit dans la région d’Agadez, considérant le pays comme la frontière sud de l’Europe.

      https://sciabacaoruka.asgi.it/fr/focus-niger/?_se=ZGlsZXR0YS5hZ3Jlc3RhQGdtYWlsLmNvbQ%3D%3D

  • #Paywall : The Business of Scholarship

    Paywall: The Business of Scholarship, produced by #Jason_Schmitt, provides focus on the need for open access to research and science, questions the rationale behind the $25.2 billion a year that flows into for-profit academic publishers, examines the 35-40% profit margin associated with the top academic publisher Elsevier and looks at how that profit margin is often greater than some of the most profitable tech companies like Apple, Facebook and Google. For more information please visit: Paywallthemovie.com


    https://vimeo.com/273358286

    #édition_scientifique #université #documentaire #film #elsevier #profit #capitalisme #savoir #impact_factor #open_access
    signalé par @fil, que je remercie

    –-----------

    Quelques citations du tirés du film...

    John Adler, prof. Standford University :

    “Publishing is so profitable, because the workers dont’ get paid”

    Paul PETERS, CEO #Hindawi :

    “The way we are adressing the problem is to distinguish the assessment of an academic from the journals in which they publish. And if you’re able to evaluate academics based on the researchers they produce rather than where their research has been published, you can then start to allow researchers to publish in journals that provide better services, better access”

    Paul PETERS, CEO Hindawi :

    “Journals that are highly selective reject work that is perfectly publishable and perfectly good because it is not a significant advance, it’s not gonna made the headline as papers on disease or stemcells”

    Alexandra Elbakyan :

    “Regarding the company itself (—> Elsevier), I like their slogan ’Making Uncommon Knowledge Common’ very much. But as far as I can tell, Elsevier has not mastered this job well. And sci-hub is helping them, so it seems, to fulfill their mission”

    –-

    ajouté à la métaliste sur l’éditions scientifique :
    https://seenthis.net/messages/1036396

    • je suis tres surpris par un point mentionne plusieurs fois : il faut que la recherche sur la sante, le rechauffement climatique, etc, bref, tout ce qui a « un vrai impact » soit ouvert, parce qu’il y a des vrais problemes, et donc il faut du monde pour y participer.... Mais je n’ai pas entendu grand chose sur la recherche fondamentale... Je ne sais pas si ca tient du fait que la recherche fondamentale etant moins « remuneratrice », le probleme est moins flagrant... Mais ca me met mal a l’aise cette separation entre « les vrais problemes de la vie » et les questions fondamentales qui n’interessent pas grand monde....

    • The Oligopoly of Academic Publishers in the Digital Era

      The consolidation of the scientific publishing industry has been the topic of much debate within and outside the scientific community, especially in relation to major publishers’ high profit margins. However, the share of scientific output published in the journals of these major publishers, as well as its evolution over time and across various disciplines, has not yet been analyzed. This paper provides such analysis, based on 45 million documents indexed in the Web of Science over the period 1973-2013. It shows that in both natural and medical sciences (NMS) and social sciences and humanities (SSH), Reed-Elsevier, Wiley-Blackwell, Springer, and Taylor & Francis increased their share of the published output, especially since the advent of the digital era (mid-1990s). Combined, the top five most prolific publishers account for more than 50% of all papers published in 2013. Disciplines of the social sciences have the highest level of concentration (70% of papers from the top five publishers), while the humanities have remained relatively independent (20% from top five publishers). NMS disciplines are in between, mainly because of the strength of their scientific societies, such as the ACS in chemistry or APS in physics. The paper also examines the migration of journals between small and big publishing houses and explores the effect of publisher change on citation impact. It concludes with a discussion on the economics of scholarly publishing.

      https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0127502

    • L’accès ouvert, un espoir qui donne le vertige…

      Les années 2018 et 2019 marquent une étape importante dans la politique scientifique de l’accès ouvert. Avec #Horizon_2020, l’Europe a annoncé l’obligation d’assurer le libre accès aux publications issues des projets de recherche qu’elle finance. En septembre 2018 #cOALition_S, un consortium européen d’établissements de financement de la recherche (l’ANR pour la France), soutenu par la commission européenne et l’ERC, publie les 10 principes de son Plan S. L’objectif est clairement désigné : “d’ici 2020, les publications scientifiques résultant de recherches financées par des subventions publiques accordées par les conseils de recherche et organismes de financement nationaux et européens participants doivent être publiées dans des journaux Open Access conformes ou sur des plates-formes Open Access conformes.”

      Le problème est que l’expression « #open_access » peut recouvrir des modèles économiques très différents : le “#green_open_access” (auto-archivage par l’auteur de ses travaux), le “#gold_open_access”, avec toute l’ambiguïté qu’il comporte puisque pour Couperin, il inclut aussi bien les articles dans des revues à comité de lecture en accès ouvert pour les lecteurs, payé par les auteurs avec des APC (Article processing charges) que le modèle Freemium OpenEdition, sans coût pour les auteurs ou encore les revues intégralement en accès ouvert[i]. C’est la raison pour laquelle a été introduit un nouvel intitulé dans les modèles celui de la voie “#diamant” ou “#platine” en opposition précisément à la voie “dorée” de plus en plus identifiée comme la voie de l’auteur/payeur (#APC).

      Alors que l’objectif ne concerne à ce stade que les articles scientifiques et non les ouvrages, chapitres d’ouvrages etc., les dissensions s’affichent au grand jour et dans les médias. Pour nombre de chercheurs, le Plan S de l’Union européenne ne va pas assez loin. Ils n’hésitent pas à dénoncer ouvertement les pratiques “anticoncurrentielles” d’Elsevier en saisissant la Direction générale de la commission européenne[ii]. La maison d’édition s’est en effet engagée depuis plusieurs années dans le « tout accès ouvert »[iii]. Il faut traduire ce que signifie ce « gold open access » ainsi promu : si les lecteurs ont accès aux articles gratuitement, les auteurs paient pour être publiés des APC (« author processing charges ») dont le montant, variable, engendre des profits inédits.

      De l’autre côté, logiquement, des associations d’éditeurs et les sociétés commerciales d’édition scientifique se sont élevées contre ce plan qui semble menacer leurs intérêts. Ils ont été soutenus par au moins 1700 chercheurs qui ont signé une Lettre ouverte[iv] lancée le 28 novembre à l’Union européenne contre le plan S. En France, d’autres ont publié en octobre 2018 une tribune dans Le Monde[v] contre ce même plan, non sans quelques confusions tellement la complexité du paysage est savamment entretenue, avec des arguments plus recevables qu’on ne l’aurait pensé. Qui croire ?

      Le Consortium national des bibliothèques françaises Couperin[vi] nous apporte une information utile sur les APC sur le site d’OpenAPC qui ont été versées aux éditeurs commerciaux en 2017, par chacun des 39 grands établissements de recherche enquêtés. Au total, 4 660 887 euros ont été dépensés par ces établissements pour publier 2635 articles, soit environ 1769 euros par article[vii]. Cela vient s’ajouter aux abonnements aux bouquets de revues et aux accès aux bases de données bibliométriques (Scopus d’Elsevier, WOS de Clarivate) dont les coûts, négociés, ne sont pas publiés.

      On mesure le bénéfice que les éditeurs retirent pour chaque article en comparant ces montants avec ceux estimés pour traiter un article dans l’alternative Freemium. A Cybergeo , en incluant les coûts d’un ingénieur CNRS qui encadre l’activité de la revue, du temps moyen investi par les évaluateurs, les correcteurs bénévoles et l’éditeur, ainsi que les coûts de la maintenance de la plateforme éditoriale, nous sommes parvenus à un coût moyen de 650 euros pour un article… Si Cybergeo appliquait le coût moyen des APC, elle en retirerait un revenu de près de 100 000 euros/an !

      Le plus extraordinaire dans ces calculs est que ni les APC ni cette dernière estimation “frugale” de 650 euros/article ne prennent en compte la vraie valeur ajoutée des articles, les savoir et savoir-faire scientifiques dépensés par les auteurs et par les évaluateurs. Voilà qui devrait confirmer, s’il en était encore besoin, que la “production scientifique” est bien une activité qui ne peut décidément se réduire aux “modèles économiques” de notre système capitaliste, fût-il avancé…

      L’exigence de mise en ligne des articles en accès ouvert financés sur des fonds publics s’est donc institutionnalisée, mais on peut se demander si, loin d’alléger les charges pour la recherche publique, cette obligation ne serait pas en train d’ouvrir un nouveau gouffre de dépenses sans aucun espoir de retour sur investissement. Les bénéfices colossaux et sans risques de l’édition scientifique continuent d’aller aux actionnaires. Et le rachat en 2017 par Elsevier (RELX Group) de Bepress la plate-forme d’archives ouvertes, créée en 1999 sous le nom de Berkeley Electronic Press par deux universitaires américains de l’université de Berkeley, pour un montant estimé de 100 millions d’euros, n’est pas non plus pour nous rassurer sur le devenir du “green open access” (archives ouvertes) dans ce contexte.

      https://cybergeo.hypotheses.org/462

    • Open APC

      The #Open_APC initiative releases datasets on fees paid for Open Access journal articles by universities and research institutions under an Open Database License.

      https://treemaps.intact-project.org
      #database #base_de_données #prix #statistiques #chiffres #visualisation

      Pour savoir combien paient les institutions universitaires...


      https://treemaps.intact-project.org/apcdata/openapc/#institution

      12 millions d’EUR pour UCL selon ce tableau !!!!!!!!!!!!!!!!!

    • Communiqué de presse : L’#Académie_des_sciences soutient l’accès gratuit et universel aux #publications_scientifiques

      Le 4 juillet 2018, le ministère de l’Enseignement supérieur, de la Recherche et de l’Innovation a publié un plan national pour la science ouverte, dans lequel « la France s’engage pour que les résultats de la recherche scientifique soient ouverts à tous, chercheurs, entreprises et citoyens, sans entrave, sans délai, sans paiement ». Le 4 septembre 2018, onze agences de financement européennes ont annoncé un « Plan cOAlition S(cience) » indiquant que dès 2020, les publications issues de recherches financées sur fonds publics devront obligatoirement être mises en accès ouvert.

      En 2011, 2014, 2016 et 2017, l’Académie des sciences a déjà publié des avis mentionnant la nécessité de faciliter l’accès aux publications (voir ci-dessous « En savoir plus »). Elle soutient les principes généraux de ces plans et recommande la prise en charge des frais de publications au niveau des agences de financement et des institutions de recherche. Toutefois, la mise en place concrète de ces mesures imposera au préalable des changements profonds dans les modes de publication. L’Académie des sciences attire l’attention sur le fait que ces changements dans des délais aussi courts doivent tenir compte des spécificités des divers champs disciplinaires et de la nécessaire adhésion à ces objectifs de la communauté scientifique. De nombreux chercheurs rendent déjà publiques les versions préliminaires de leurs articles sur des plates-formes ouvertes dédiées comme HAL (Hyper Articles en Ligne).

      Il est important de noter que le processus d’accès ouvert des publications ne doit pas conduire à une réduction du processus d’expertise qui assure la qualité des articles effectivement acceptés pour publication. Sans une évaluation sérieuse des publications par des experts compétents, une perte de confiance dans les journaux scientifiques serait à craindre.

      Un groupe de l’Académie des sciences travaille actuellement sur les questions soulevées par la science ouverte et un colloque sera organisé sur ce thème le 2 avril 2019 pour en débattre.


      https://www.academie-sciences.fr/fr/Communiques-de-presse/acces-aux-publications.html
      #résistance

    • Lancement de la fondation #DOAB : vers un #label européen pour les livres académiques en accès ouvert

      OpenEdition et OAPEN (Open Access Publishing in European Network, fondation implantée aux Pays-Bas) créent la fondation DOAB (Directory of Open Access Books). Cette fondation permettra de renforcer le rôle du DOAB, index mondial de référence répertoriant les ouvrages académiques en accès ouvert, et ce, notamment dans le cadre de la stratégie européenne pour le projet d’infrastructure OPERAS (Open access in the European research area through scholarly communication).


      Depuis plusieurs années les pratiques de publication en accès ouvert se multiplient en Europe du fait d’une plus grande maturité des dispositifs (archives ouvertes, plateformes de publication) et de la généralisation de politiques coordonnées au niveau des États, des financeurs de la recherche et de la Commission européenne. Ce développement du libre accès s’accompagne d’une multiplication des initiatives et des publications dont la qualité n’est pas toujours contrôlée.

      En 2003, l’Université de Lundt a créé le Directory of Open Access Journals (DOAJ). Devenu une référence mondiale, le DOAJ garantit la qualité technique et éditoriale des revues en accès ouvert qui y sont indexées.

      En 2012 la fondation OAPEN a créé l’équivalent du DOAJ pour les livres : le Directory of Open Access Books (DOAB). Ce répertoire garantit que les livres qui y sont indexés sont des livres de recherche académique (évalués par les pairs) et en accès ouvert. Le DOAB s’adresse aux lecteurs, aux bibliothèques mais aussi aux financeurs de la recherche qui souhaitent que les critères de qualité des publications en accès ouvert soient garantis et certifiés. Il indexe aujourd’hui plus de 16 500 livres en accès ouvert provenant de 315 éditeurs du monde entier.

      En Europe, les plateformes OAPEN et OpenEdition Books structurent largement le paysage par leur étendue internationale et leur masse critique. Leur alliance constitue un événement majeur dans le champ de la science ouverte autour de la labellisation des ouvrages.

      Via la fondation DOAB, le partenariat entre OpenEdition et OAPEN permettra d’asseoir la légitimité et d’étendre l’ampleur du DOAB en Europe et dans le monde, en garantissant qu’il reflète et prenne en compte la variété des pratiques académiques dans les différents pays européens en particulier. Les deux partenaires collaborent déjà au développement technique du DOAB grâce au projet HIRMEOS financé par l’Union Européenne dans le cadre de son programme Horizon 2020.
      La création de la fondation est une des actions du Plan national pour la science ouverte adopté en 2018 par la ministre française de la Recherche, Frédérique Vidal.

      OpenEdition et OAPEN forment avec d’autres partenaires le noyau dur d’un projet de construction d’une infrastructure européenne sur leur domaine de compétence : OPERAS – Open access in the European research area through scholarly communication. Avec un consortium de 40 partenaires en provenance de 16 pays européens, OPERAS vise à proposer une offre de services stables et durables au niveau européen dont le DOAB est une part essentielle.

      Selon Eelco Ferwerda, directeur d’OAPEN : « Le DOAB est devenu une ressource essentielle pour les livres en accès ouvert et nous nous en réjouissons. Je tiens à remercier Lars Bjørnshauge pour son aide dans le développement du service et Salam Baker Shanawa de Sempertool pour avoir fourni la plateforme et soutenu son fonctionnement. Notre collaboration avec OpenEdition a été très précieuse dans l’élaboration du DOAB. Nous espérons à présent atteindre un niveau optimal d’assurance qualité et de transparence ».

      Marie Pellen, directrice d’OpenEdition déclare : « L’engagement d’OpenEdition à soutenir le développement du DOAB est l’un des premiers résultats concrets du Plan national français pour la science ouverte adopté par la ministre de la Recherche, Frédérique Vidal. Grâce au soutien conjoint du CNRS et d’Aix-Marseille Université, nous sommes heureux de participer activement à une plateforme internationale cruciale pour les sciences humaines et sociales ».

      Pour Pierre Mounier, directeur adjoint d’OpenEdition et coordinateur d’OPERAS : « La création de la Fondation DOAB est une occasion unique de développer une infrastructure ouverte dans le domaine de la publication scientifique, qui s’inscrit dans le cadre de l’effort européen d’OPERAS, pour mettre en œuvre des pratiques scientifiques ouvertes dans les sciences humaines et sociales ».
      OpenEdition

      OpenEdition rassemble quatre plateformes de ressources électronique en sciences humaines et sociales : OpenEdition Books (7 000 livres au catalogue), OpenEdition Journals (500 revues en ligne), Hypothèses (3 000 carnets de recherche), Calenda (40 000 événements publiés). Depuis 2015, OpenEdition est le représentant du DOAB dans la francophonie.

      Les principales missions d’OpenEdition sont le développement de l’édition électronique en libre accès, la diffusion des usages et compétences liées à l’édition électronique, la recherche et l’innovation autour des méthodes de valorisation et de recherche d’information induites par le numérique.
      OAPEN

      La Fondation Open Access Publishing in European Networks (OAPEN) propose une offre de dépôt et de diffusion de monographies scientifiques en libre accès via l’OAPEN Library et le Directory of Open Access Books (DOAB).

      OpenEdition et OAPEN sont partenaires pour un programme d’interopérabilité sur leur catalogue respectif et une mutualisation des offres faites par chacun des partenaires aux éditeurs.

      https://leo.hypotheses.org/15553

    • About #Plan_S

      Plan S is an initiative for Open Access publishing that was launched in September 2018. The plan is supported by cOAlition S, an international consortium of research funders. Plan S requires that, from 2020, scientific publications that result from research funded by public grants must be published in compliant Open Access journals or platforms.

      https://www.coalition-s.org

    • Les #rébellions pour le libre accès aux articles scientifiques

      Les partisans du libre accès arriveront-ils à créer une brèche définitive dans le lucratif marché de l’édition savante ?

      C’est plus fort que moi : chaque fois que je lis une nouvelle sur l’oligopole de l’édition scientifique, je soupire de découragement. Comment, en 2018, peut-on encore tolérer que la diffusion des découvertes soit tributaire d’une poignée d’entreprises qui engrangent des milliards de dollars en exploitant le labeur des scientifiques ?

      D’une main, cette industrie demande aux chercheurs de lui fournir des articles et d’en assurer la révision de façon bénévole ; de l’autre main, elle étrangle les bibliothèques universitaires en leur réclamant des sommes exorbitantes pour s’abonner aux périodiques savants. C’est sans compter le modèle très coûteux des revues « hybrides », une parade ingénieuse des éditeurs qui, sans sacrifier leurs profits, se donnent l’apparence de souscrire au libre accès − un mouvement qui prône depuis 30 ans la diffusion gratuite, immédiate et permanente des publications scientifiques.

      En effet, les journaux hybrides reçoivent un double revenu : l’abonnement et des « frais de publication supplémentaires » versés par les chercheurs qui veulent mettre leurs articles en libre accès. Autrement, leurs travaux restent derrière un mur payant, inaccessibles au public qui les a pourtant financés, en tout ou en partie, par l’entremise de ses impôts. Les grands éditeurs comme Elsevier, Springer Nature et Wiley ont ainsi pris en otage la science, dont le système entier repose sur la nécessité de publier.

      Au printemps dernier, on a assisté à une rebuffade similaire quand plus de 3 300 chercheurs en intelligence artificielle, dont Yoshua Bengio, de l’Université de Montréal, se sont engagés à ne pas participer à la nouvelle revue payante Nature Machine Intelligence.

      Un consortium universitaire allemand, Projekt DEAL, a tenté d’ébranler les colonnes du temple. Depuis deux ans, ses membres négocient avec Elsevier pour mettre fin au modèle traditionnel des abonnements négociés à la pièce, derrière des portes closes. Collectivement, les membres de Projekt DEAL veulent payer pour rendre accessibles, à travers le monde, tous les articles dont le premier auteur est rattaché à un établissement allemand. En échange, ils auraient accès à tous les contenus en ligne de l’éditeur. L’entente devrait obligatoirement être publique.

      Évidemment, cela abaisserait les prix des abonnements. Pour l’instant, Elsevier refuse toute concession et a même retiré l’accès à ses revues à des milliers de chercheurs allemands l’été dernier. La tactique pourrait toutefois se révéler vaine. Pour obtenir des articles, les chercheurs peuvent toujours demander un coup de main à leurs collègues d’autres pays, recourir à des outils gratuits comme Unpaywall qui fouillent le Web pour trouver une version en libre accès ou encore s’en remettre à Sci-Hub, un site pirate qui contourne les murs payants.

      Mais plus que la perte de ses clients, c’est l’exode de ses « fournisseurs » qui écorcherait à vif Elsevier. Déjà, des scientifiques allemands ont juré qu’ils ne contribueraient plus à son catalogue de publications – qui contient pourtant des titres prestigieux comme The Lancet et Cell.

      Au printemps dernier, on a assisté à une rebuffade similaire quand plus de 3300 chercheurs en intelligence artificielle, dont Yoshua Bengio, de l’Université de Montréal, se sont engagés à ne pas participer à la nouvelle revue payante Nature Machine Intelligence. Partisans du libre accès, ils la considèrent comme « un pas en arrière » pour l’avenir de leur discipline.

      Et puis il y a le « plan S » : début septembre, 11 organismes subventionnaires européens ont annoncé que, à partir de 2020, ils ne financeront que les scientifiques promettant de diffuser leurs résultats dans des revues en libre accès. Le plan S exclurait d’office environ 85 % des journaux savants, y compris Nature et Science.

      Ces petites rébellions déboucheront-elles sur une véritable révolution de l’édition scientifique ? Difficile à dire, mais c’est suffisant pour passer du découragement à l’espoir.

      https://www.quebecscience.qc.ca/edito/rebellions-libre-acces-articles-scientifiques

    • Le business très juteux des revues scientifiques

      Les chercheurs produisent et révisent gratuitement des articles publiés dans des journaux dont l’accès est ensuite facturé très cher aux organismes de recherche dont ils dépendent.

      La crise sanitaire a mis les grands noms de l’édition scientifique sur le devant de la scène. Au début du mois de mars, la majorité des journaux scientifiques ont choisi de diffuser gratuitement les articles en lien avec le coronavirus, afin d’accélérer la recherche. Philanthropes ? Pas vraiment...

      En temps normal, les connaissances scientifiques se monnaient très cher. Les quelques maisons d’édition qui possèdent l’essentiel de ces revues sont parmi les entreprises les plus rentables au monde, affichant des marges de 30 % à 40 %. C’est plus que le géant de l’informatique Apple, qui enregistre une marge de 21 % sur ces dix dernières années. Le secret des éditeurs scientifiques réside en grande partie dans le fait qu’ils vendent des produits obtenus sans dépenser un sou... ou presque. Au sein de la communauté scientifique, les voix sont de plus en plus nombreuses à dénoncer ce système, source de profits considérables au détriment des fonds publics. Jeudi, le prestigieux Institut de technologie du Massachusetts (MIT) annonçait ainsi mettre fin aux négociations avec le leader du secteur, Elsevier.

      Le système est ainsi construit : un chercheur a tout intérêt à proposer des articles, puisque sa carrière (obtention d’un poste, de financements...) dépend étroitement du nombre d’articles qu’il publie et du prestige des journaux dans lesquels il publie. Lorsque le comité éditorial d’une revue est intéressé par un article qui lui a été proposé, il le soumet à des scientifiques spécialistes du domaine, qui sont chargés de l’évaluer. Ce travail essentiel, appelé « révision par les pairs » dans le jargon de l’édition scientifique, est réalisé bénévolement. Si l’article est accepté, le chercheur est alors contraint d’en céder les droits à l’éditeur, à titre exclusif et gracieux. L’entreprise revend ensuite aux bibliothèques universitaires et aux laboratoires de recherche des abonnements permettant d’accéder à ces articles. « Des personnes non rémunérées par l’éditeur produisent et évaluent gratuitement des résultats scientifiques que leurs institutions doivent ensuite acheter à l’éditeur » , résume Didier Torny, spécialiste de l’économie politique de la publication scientifique au CNRS. « Les profits arrivent ensuite dans la poche des actionnaires, c’est la poule aux oeufs d’or » , poursuit Marie Farge, mathématicienne et physicienne, directrice de recherche émérite au CNRS.

      Le secteur se porte mieux que jamais. En 2018, le marché pesait 25,7 milliards de dollars, selon l’Association internationale des éditeurs scientifiques, contre 21 milliards de dollars en 2010. Elsevier (désormais RELX), qui possède plus de 2 500 revues dont The Lancet et Cell , affichait en 2019 un chiffre d’affaires de 7,87 milliards d’euros (dont un tiers provient de l’édition), soit 5 % de plus qu’en 2018. Un succès qui s’explique notamment par l’augmentation des montants facturés aux clients. Lors des négociations, le rapport de force n’est pas en faveur des bibliothèques. « Nous étions contents quand nous arrivions à négocier une hausse de 12 % au lieu de 15 % » , se souvient Bernard Rentier, recteur de l’université de Liège (Belgique) entre 2005 et 2014. « Si nous refusions le contrat, nous nous entendions dire que notre établissement allait devenir un petit trou de province, faute de pouvoir accéder à cette littérature , poursuit l’universitaire, auteur de Science ouverte, le défi de la transparence (Éditions de l’Académie royale de Belgique). Ce sont des requins assumés, mais je ne leur jette pas la pierre : ils ont pour oeuvre de gagner de l’argent. On ne peut que reprocher aux clients d’être clients. »

      Actuellement, la France dépense environ 62 millions d’euros par an pour l’accès aux revues électroniques. Entre les années 1990 et 2018, la facture aurait augmenté annuellement de 2 % à 4 %, d’après une source proche du dossier. Mais il est difficile de le savoir précisément car la transparence n’est pas de mise. Jusqu’à récemment, les contrats noués entre Couperin (le consortium représentant plus de 250 acteurs de l’enseignement supérieur et de la recherche en France) et les éditeurs étaient confidentiels, à la demande de ces derniers. « Les négociations se font à la tête du client, et comme les contrats sont secrets, personne ne sait combien paient les autres » , dénonce Marie Farge. Pour la première fois en France, le contrat négocié avec la firme Elsevier en octobre 2019 a été divulgué officiellement (certains ont déjà fuité par le passé) : pendant quatre ans, 227 établissements de recherche et d’enseignement supérieur pourront accéder à 2 300 revues et services pour 34,7 millions d’euros par an en moyenne.

      Pendant longtemps, les frais d’édition semblaient tout à fait justifiés et n’étaient pas remis en cause par la communauté scientifique. « Au moment de l’essor des revues spécialisées, au XIXe siècle, les sociétés savantes ont délégué le travail d’édition, d’impression et de diffusion à des libraires et des éditeurs , rapporte Valérie Tesnière, spécialiste des pratiques et politiques éditoriales scientifiques contemporaines à l’École des hautes études en sciences sociales. Le modèle économique a été conçu à un moment où les auteurs et les rédactions des journaux avaient bien du mal à écrire en anglais (pour les Européens) et à assurer les mises aux normes des données qui facilitent la circulation internationale de l’information. Les éditeurs ont fait payer ce service et plus il était performant, plus les marges ont été confortables, car un bon service se paie. »

      Le développement d’internet aurait pu signer la fin de ce système, mais c’est tout le contraire qui s’est produit. Et certains chercheurs estiment désormais que les prix pratiqués sont excessifs. « Bien sûr, il y a encore des frais liés aux serveurs, à la main-d’oeuvre, aux stockages des données , concède Laurette Tuckerman, physicienne à l’École supérieure de physique et de chimie industrielles à Paris, mais la distribution se fait désormais essentiellement par voie électronique et ce sont souvent les chercheurs eux-mêmes qui s’occupent de la mise en page. » « Les coûts ne sont pas si nuls , conteste Valérie Tesnière. Les éditeurs fournissent aussi d’autres services aux chercheurs. Ils assurent en outre une diffusion internationale, organisée et immédiate via des systèmes d’information élaborés, qui leur font gagner du temps. »

      Mais l’escalade des prix s’explique en grande partie par un autre phénomène : la mise en place d’un oligopole, qui peut donc dicter à sa guise les lois du marché. « En trente ans, nous avons assisté à l’émergence de grands consortiums par fusions et acquisitions » , rapporte Bernard Rentier. Sur les quelque 12 000 éditeurs dans le monde, cinq se partagent 40 % du chiffre d’affaires. Autre raison de cette hausse spectaculaire, la nature des biens échangés. « En principe, si une entreprise vend un bien trop cher, les consommateurs vont se tourner vers ses concurrents. Mais en sciences, c’est impossible car les biens sont uniques » , explique Laurette Tuckerman. En économie, on parle de « demande inélastique » : la consommation n’est pas modifiée - ou très peu - par l’augmentation des prix. Cette spécificité du secteur n’est pas passée inaperçue aux yeux des investisseurs. Dès le début des années 2000, la banque d’investissement Morgan Stanley constatait que « la nature de niche du marché et la croissance rapide du budget des bibliothèques universitaires ont fait du marché de la publication scientifique le secteur de l’industrie des médias le plus florissant de ces quinze dernières années » .

      Pour justifier ces hausses répétées des prix, les éditeurs se sont mis à proposer des bouquets de revues (les « big deals » ) à des tarifs plus intéressants que la vente à l’unité, puis à augmenter le nombre de revues (et donc d’articles). Plus récemment, ils ont développé une autre stratégie, calquée sur une idée chère à la communauté scientifique : l’accès libre, gratuit pour tous... sauf pour les auteurs. Depuis le milieu des années 2000, ils proposent aux chercheurs de payer des frais de publication (les Article Publishing Charges, ou APC) afin que leur travail soit diffusé gratuitement. « Les établissements de recherche déboursent deux fois , résume Florence Audier, chercheuse à l’université Panthéon-Sorbonne, dans un article publié en 2018 dans la revue La Vie de la recherche scientifique . D’un côté en payant les frais de publication open access et de l’autre en maintenant l’abonnement à ces mêmes revues. »

      Si les frais d’abonnement commencent tout juste à s’infléchir - comme l’atteste la baisse des coûts de 13,3 % négociée lors du dernier contrat entre la France et Elsevier -, les APC connaissent une croissance très importante. D’après le consortium Couperin, les charges demandées par article par les éditeurs ont augmenté de 12 % en France entre 2015 et 2017, passant de 1 500 à 1 700 euros. Ces frais peuvent s’élever jusqu’à 7 000 dollars pour certains journaux. Des sommes souvent décorrélées des coûts de publication : « Les coûts réels pour publier un article uniquement en ligne peuvent être estimés entre 260 et 870 dollars, selon la qualité du travail d’édition et de relecture. Pour une version imprimée, c’est 1 300 à 2 000 dollars » , indique Samuel Alizon, directeur de recherche au CNRS. Pour Marie Farge, ces pratiques « relèvent plus du droit de péage que de la tarification de services apportés aux auteurs et aux lecteurs des articles publiés électroniquement » . Contacté par Le Figaro , Elsevier n’a pas répondu aux questions soulevées dans cet article.

      Depuis une dizaine d’années, les initiatives se multiplient pour lutter contre ce système. Certains chercheurs refusent désormais de publier dans des revues commerciales ou de réviser les articles qui y sont soumis, des comités éditoriaux démissionnent pour protester contre l’augmentation des coûts de publication, et des bras de fer entre les éditeurs et les universités ont lieu un peu partout. Après tout, si les chercheurs quittaient la table des négociations, que deviendraient les éditeurs ?

      https://www.lefigaro.fr/sciences/le-business-tres-juteux-des-revues-scientifiques-20200612

    • Le business très juteux des revues scientifiques

      Les chercheurs produisent et révisent gratuitement des articles publiés dans des journaux dont l’accès est ensuite facturé très cher aux organismes de recherche dont ils dépendent.

      La crise sanitaire a mis les grands noms de l’édition scientifique sur le devant de la scène. Au début du mois de mars, la majorité des journaux scientifiques ont choisi de diffuser gratuitement les articles en lien avec le coronavirus, afin d’accélérer la recherche. Philanthropes ? Pas vraiment...

      En temps normal, les connaissances scientifiques se monnaient très cher. Les quelques maisons d’édition qui possèdent l’essentiel de ces revues sont parmi les entreprises les plus rentables au monde, affichant des marges de 30 % à 40 %. C’est plus que le géant de l’informatique Apple, qui enregistre une marge de 21 % sur ces dix dernières années. Le secret des éditeurs scientifiques réside en grande partie dans le fait qu’ils vendent des produits obtenus sans dépenser un sou... ou presque. Au sein de la communauté scientifique, les voix sont de plus en plus nombreuses à dénoncer ce système, source de profits considérables au détriment des fonds publics. Jeudi, le prestigieux Institut de technologie du Massachusetts (MIT) annonçait ainsi mettre fin aux négociations avec le leader du secteur, Elsevier.

      Le système est ainsi construit : un chercheur a tout intérêt à proposer des articles, puisque sa carrière (obtention d’un poste, de financements...) dépend étroitement du nombre d’articles qu’il publie et du prestige des journaux dans lesquels il publie. Lorsque le comité éditorial d’une revue est intéressé par un article qui lui a été proposé, il le soumet à des scientifiques spécialistes du domaine, qui sont chargés de l’évaluer. Ce travail essentiel, appelé « révision par les pairs » dans le jargon de l’édition scientifique, est réalisé bénévolement. Si l’article est accepté, le chercheur est alors contraint d’en céder les droits à l’éditeur, à titre exclusif et gracieux. L’entreprise revend ensuite aux bibliothèques universitaires et aux laboratoires de recherche des abonnements permettant d’accéder à ces articles. « Des personnes non rémunérées par l’éditeur produisent et évaluent gratuitement des résultats scientifiques que leurs institutions doivent ensuite acheter à l’éditeur » , résume Didier Torny, spécialiste de l’économie politique de la publication scientifique au CNRS. « Les profits arrivent ensuite dans la poche des actionnaires, c’est la poule aux oeufs d’or » , poursuit Marie Farge, mathématicienne et physicienne, directrice de recherche émérite au CNRS.

      Le secteur se porte mieux que jamais. En 2018, le marché pesait 25,7 milliards de dollars, selon l’Association internationale des éditeurs scientifiques, contre 21 milliards de dollars en 2010. Elsevier (désormais RELX), qui possède plus de 2 500 revues dont The Lancet et Cell , affichait en 2019 un chiffre d’affaires de 7,87 milliards d’euros (dont un tiers provient de l’édition), soit 5 % de plus qu’en 2018. Un succès qui s’explique notamment par l’augmentation des montants facturés aux clients. Lors des négociations, le rapport de force n’est pas en faveur des bibliothèques. « Nous étions contents quand nous arrivions à négocier une hausse de 12 % au lieu de 15 % » , se souvient Bernard Rentier, recteur de l’université de Liège (Belgique) entre 2005 et 2014. « Si nous refusions le contrat, nous nous entendions dire que notre établissement allait devenir un petit trou de province, faute de pouvoir accéder à cette littérature , poursuit l’universitaire, auteur de Science ouverte, le défi de la transparence (Éditions de l’Académie royale de Belgique). Ce sont des requins assumés, mais je ne leur jette pas la pierre : ils ont pour oeuvre de gagner de l’argent. On ne peut que reprocher aux clients d’être clients. »

      Actuellement, la France dépense environ 62 millions d’euros par an pour l’accès aux revues électroniques. Entre les années 1990 et 2018, la facture aurait augmenté annuellement de 2 % à 4 %, d’après une source proche du dossier. Mais il est difficile de le savoir précisément car la transparence n’est pas de mise. Jusqu’à récemment, les contrats noués entre Couperin (le consortium représentant plus de 250 acteurs de l’enseignement supérieur et de la recherche en France) et les éditeurs étaient confidentiels, à la demande de ces derniers. « Les négociations se font à la tête du client, et comme les contrats sont secrets, personne ne sait combien paient les autres » , dénonce Marie Farge. Pour la première fois en France, le contrat négocié avec la firme Elsevier en octobre 2019 a été divulgué officiellement (certains ont déjà fuité par le passé) : pendant quatre ans, 227 établissements de recherche et d’enseignement supérieur pourront accéder à 2 300 revues et services pour 34,7 millions d’euros par an en moyenne.

      Pendant longtemps, les frais d’édition semblaient tout à fait justifiés et n’étaient pas remis en cause par la communauté scientifique. « Au moment de l’essor des revues spécialisées, au XIXe siècle, les sociétés savantes ont délégué le travail d’édition, d’impression et de diffusion à des libraires et des éditeurs , rapporte Valérie Tesnière, spécialiste des pratiques et politiques éditoriales scientifiques contemporaines à l’École des hautes études en sciences sociales. Le modèle économique a été conçu à un moment où les auteurs et les rédactions des journaux avaient bien du mal à écrire en anglais (pour les Européens) et à assurer les mises aux normes des données qui facilitent la circulation internationale de l’information. Les éditeurs ont fait payer ce service et plus il était performant, plus les marges ont été confortables, car un bon service se paie. »

      Le développement d’internet aurait pu signer la fin de ce système, mais c’est tout le contraire qui s’est produit. Et certains chercheurs estiment désormais que les prix pratiqués sont excessifs. « Bien sûr, il y a encore des frais liés aux serveurs, à la main-d’oeuvre, aux stockages des données , concède Laurette Tuckerman, physicienne à l’École supérieure de physique et de chimie industrielles à Paris, mais la distribution se fait désormais essentiellement par voie électronique et ce sont souvent les chercheurs eux-mêmes qui s’occupent de la mise en page. » « Les coûts ne sont pas si nuls , conteste Valérie Tesnière. Les éditeurs fournissent aussi d’autres services aux chercheurs. Ils assurent en outre une diffusion internationale, organisée et immédiate via des systèmes d’information élaborés, qui leur font gagner du temps. »

      Mais l’escalade des prix s’explique en grande partie par un autre phénomène : la mise en place d’un oligopole, qui peut donc dicter à sa guise les lois du marché. « En trente ans, nous avons assisté à l’émergence de grands consortiums par fusions et acquisitions » , rapporte Bernard Rentier. Sur les quelque 12 000 éditeurs dans le monde, cinq se partagent 40 % du chiffre d’affaires. Autre raison de cette hausse spectaculaire, la nature des biens échangés. « En principe, si une entreprise vend un bien trop cher, les consommateurs vont se tourner vers ses concurrents. Mais en sciences, c’est impossible car les biens sont uniques » , explique Laurette Tuckerman. En économie, on parle de « demande inélastique » : la consommation n’est pas modifiée - ou très peu - par l’augmentation des prix. Cette spécificité du secteur n’est pas passée inaperçue aux yeux des investisseurs. Dès le début des années 2000, la banque d’investissement Morgan Stanley constatait que « la nature de niche du marché et la croissance rapide du budget des bibliothèques universitaires ont fait du marché de la publication scientifique le secteur de l’industrie des médias le plus florissant de ces quinze dernières années » .

      Pour justifier ces hausses répétées des prix, les éditeurs se sont mis à proposer des bouquets de revues (les « big deals » ) à des tarifs plus intéressants que la vente à l’unité, puis à augmenter le nombre de revues (et donc d’articles). Plus récemment, ils ont développé une autre stratégie, calquée sur une idée chère à la communauté scientifique : l’accès libre, gratuit pour tous... sauf pour les auteurs. Depuis le milieu des années 2000, ils proposent aux chercheurs de payer des frais de publication (les Article Publishing Charges, ou APC) afin que leur travail soit diffusé gratuitement. « Les établissements de recherche déboursent deux fois , résume Florence Audier, chercheuse à l’université Panthéon-Sorbonne, dans un article publié en 2018 dans la revue La Vie de la recherche scientifique . D’un côté en payant les frais de publication open access et de l’autre en maintenant l’abonnement à ces mêmes revues. »

      Si les frais d’abonnement commencent tout juste à s’infléchir - comme l’atteste la baisse des coûts de 13,3 % négociée lors du dernier contrat entre la France et Elsevier -, les APC connaissent une croissance très importante. D’après le consortium Couperin, les charges demandées par article par les éditeurs ont augmenté de 12 % en France entre 2015 et 2017, passant de 1 500 à 1 700 euros. Ces frais peuvent s’élever jusqu’à 7 000 dollars pour certains journaux. Des sommes souvent décorrélées des coûts de publication : « Les coûts réels pour publier un article uniquement en ligne peuvent être estimés entre 260 et 870 dollars, selon la qualité du travail d’édition et de relecture. Pour une version imprimée, c’est 1 300 à 2 000 dollars » , indique Samuel Alizon, directeur de recherche au CNRS. Pour Marie Farge, ces pratiques « relèvent plus du droit de péage que de la tarification de services apportés aux auteurs et aux lecteurs des articles publiés électroniquement » . Contacté par Le Figaro , Elsevier n’a pas répondu aux questions soulevées dans cet article.

      Depuis une dizaine d’années, les initiatives se multiplient pour lutter contre ce système. Certains chercheurs refusent désormais de publier dans des revues commerciales ou de réviser les articles qui y sont soumis, des comités éditoriaux démissionnent pour protester contre l’augmentation des coûts de publication, et des bras de fer entre les éditeurs et les universités ont lieu un peu partout. Après tout, si les chercheurs quittaient la table des négociations, que deviendraient les éditeurs ?

      https://www.lefigaro.fr/sciences/le-business-tres-juteux-des-revues-scientifiques-20200612

    • Privés de savoir ?

      Dans le monde de la recherche scientifique, publier ses travaux est un passage obligé. Cela permet aux chercheuses et chercheurs de faire connaître leur travail mais aussi d’être identifié par leurs pairs et pourquoi pas d’obtenir un poste, à condition d’être publié dans
      les bonnes revues. Sauf que cette mécanique de publication - qui permettait à la base de faire circuler le savoir - est devenue une vraie chasse gardée économique : celle des éditeurs scientifiques. Quelques grands noms comme le neerlandais Elsevier ou le groupe Springer/Nature se partagent un marché juteux et privatisent au passage des travaux scientifiques la plupart du temps financés par des fonds publics.

      https://www.youtube.com/watch?v=WnxqoP-c0ZE

      voir aussi ce fil de discussion dans lequel ce film est cité :

      On turning down poorly-paid, limited value, academic work

      https://seenthis.net/messages/653533

  • Statistiques sur les assassinats policiers

    1961-2016

    Homicides, accidents, « malaises », légitime défense : 50 ans de morts par la police
    Ivan du Roy, Ludo Simbille, Basta, 13 mars 2014
    https://seenthis.net/messages/236788

    2000-2014

    Ceci n’est pas une bavure. 2000-2014 : 127 personnes tuées par la police française
    Paris-Luttes Info, le 24 novembre 2016
    https://seenthis.net/messages/510906

    2005-2015

    Urgence-notre-police-assassine en toute impunité
    http://www.urgence-notre-police-assassine.fr/123663553

    2007-2017

    En 10 ans, 47 décès liés aux violences policières, aucun fonctionnaire en prison
    Maxime Grimbert, Street Press, le 23 mai 2017
    https://seenthis.net/messages/601067

    1977-2018

    En quarante ans, 478 morts à la suite d’interventions policières
    Ivan du Roy, Ludo Simbille, Basta, le 14 juin 2018
    https://seenthis.net/messages/702265

    –------------------

    A propos des #Etats-Unis (et discussion sur la comparaison avec la France) :

    The Counted (2015-2016)
    The Guardian
    https://seenthis.net/messages/397203

    #statistiques #France #Police #Violence_policière #brutalité_policière #Assassinats_policiers #racisme #racisme_systémique #racisme_d_Etat #recension #justice #impunité