• https://www.tiktok.com/@4dayweek/video/7324346593899990274

    –-
    Employee well-being outcomes from individual-level mental health interventions : Cross-sectional evidence from the United Kingdom

    Initiatives that promote mental well-being are formally recommended for all British workers, with many practices targeting change in individual workers’ resources. While the existing evidence is generally positive about these interventions, disagreement is increasing because of concerns that individual-level interventions do not engage with working conditions. Contributing to the debate, this article uses survey data (N = 46,336 workers in 233 organisations) to compare participants and nonparticipants in a range of common individual-level well-being interventions, including resilience training, mindfulness and well-being apps. Across multiple subjective well-being indicators, participants appear no better off. Results are interpreted through the job demands–resources theory and selection bias in cross-sectional results is interrogated. Overall, results suggest interventions are not providing additional or appropriate resources in response to job demands.

    Quelques passages :

    Problématique :

    Specific mental well-being interventions either seek change in the individual or in the organisation (LaMontagne et al., 2007). Despite formal recommendations (National Institute for Health and Care Excellence [NICE], 2022) and evidence supporting the effectiveness of organisational change and work redesign on improving worker well-being (Fox et al., 2022; Lovejoy et al., 2021), interventions that target the individual worker are most common.

    The benefits of individual-level approaches have been extensively researched, as well as increasingly debated. There is a large scholarship of experimental work testing the effects of participation in initiatives, with systematic reviews of controlled trials for stress management (e.g., LaMontagne et al., 2007), resilience training (Joyce et al., 2018), mindfulness (Michaelsen et al., 2023) and more. Despite the apparent scale, there are continual calls for more evidence from practitioners and academic researchers, led in part by technical, methodological limitations, but also a desire for more realist evaluation (Kowalski & Loretto, 2017; Nielsen & Miraglia, 2017). Disagreement has risen around the effectiveness of individual-level strategies when compared with organisational change, with suggestions that individual-level interventions are just easier to evaluate, misguided if they do not address working conditions and then take positive change for granted. Alongside these empirical concerns is a strategic and normative critique from sociologists and industrial relations scholars, with many criticisms levelled at such practices’ propagation of, in the words of trade unions (Trade Union Congress, 2018), ‘changing the worker, and not the workplace’. Others go further, arguing individualised well-being initiatives are more interested in social control than with improving well-being (Foster, 2018; Murphy & MacMahon, 2022), with qualitative organisational research substantiating some of these fears (Holmqvist & Maravelias, 2011; Islam et al., 2022; Zoller, 2004). While a management strategy could be a tool of social control and yet still improve subjective well-being outcomes, these criticisms highlight that evaluations are political, not only technical.

    conclusion :

    The results in this article pose a challenge to the popularity and legitimacy of individual-level mental well-being interventions like mindfulness, resilience and stress management, relaxation classes and well-being apps. I find little evidence in support of any benefits from these interventions with even some small indication of harm that would confirm fears from critics (e.g., Frayne, 2019; Lovejoy et al., 2021). Employee volunteering opportunities do offer one possible exception, but the estimated effects are small, probably selection-biased and these initiatives would not engage with the job demands and resources central to theoretical and empirical understandings of work well-being. Finally, this article also contributes, at a high level through survey data, to the study of ‘what works’, as well as expanding this question to consider ‘for whom and in what circumstances’ (Nielsen & Miraglia, 2017). Future research ought to evaluate if individual-level interventions are effective alongside organisational change, or whether improvements in working conditions are a superior alternative (Bakker et al., 2023; Kelloway et al., 2023; Lovejoy et al., 2021). A combination of approaches could benefit workers by, if implemented well, enhancing job resources whilst also mitigating job demands.

    Beyond research, this article also has important repercussions for policy on workers’ well-being. As it stands, it seems premature to recommend individual-level interventions to all workers (e.g. NICE, 2022). I concur with reviewers of the field that organisational interventions, such as changes to scheduling, management practices, staff resources, performance review or job design (Fox et al., 2022), appear more beneficial for improving well-being (Lovejoy et al., 2021). Recommendations from the likes of NICE (2022) and Stevenson and Farmer (2017) do acknowledge the importance of working conditions, but more emphasis must be placed on the greater benefits of organisational rather than individual change, as well as on the importance of high-quality intervention implementation.

    https://onlinelibrary.wiley.com/doi/10.1111/irj.12418

    #bien-être #travail #changements #développement_personnel #organisation #à_écouter #à_lire #well-being #management #relaxation #stress #résilience

    –—

    ajouté à ce fil de discussion :
    https://seenthis.net/messages/817228

    • #Roberto_Mozzachiodi, UK

      SOLIDARITY WITH ROBERTO MOZZACHIODI

      After years of unparalleled academic and political work at Goldsmiths, our colleague, friend, teacher, caseworker, union branch co-Secretary #Roberto_Mozzachiodi has been put through an unfair employment process, and as a result no longer holds a substantive teaching position at the College. Roberto’s case reflects the working conditions of hundreds of staff at Goldsmiths, and thousands of staff employed on precarious, fixed-term, temporary contracts across British Higher Education. It also reflects the risks that come with openly committing to collective, ground-up solidarity that challenges the principles of how university work is organised, and reimagines union work accordingly.

      Roberto has been a leading figure in the fight against casualisation at Goldsmiths, and has been at the heart of campaigns that have radically transformed our place of work and study. He was core in the Goldsmiths #Justice_for_Cleaners and Goldsmiths #Justice_for_Workers movements that brought cleaning and security staff in-house, and core in the fight to extend basic rights to casualised workers at Goldsmiths at the height of the pandemic. He has supported countless staff and students through the grinding labour of union casework, and has worked tirelessly on strengthening and transforming the Goldsmiths branch of UCU through a radical commitment to anti-casualisation, anti-racism, and anti-factionalism, often fighting and organising for the rights of others in far more secure positions.

      Roberto’s specific case mirrors that of thousands across the country employed on temporary, fixed-term, and casualised contracts. Roberto was denied his redundancy-related employment rights when his contract came to an end. This involved, amongst other things, not being consulted on suitable alternative employment, including a permanent position very similar to the role he had been performing on a fixed-term basis over three terms. This amounts to a denial of casualised workers’ employment rights, and is something that is commonplace at Goldsmiths, and across the sector.

      As signatories of this letter, we call on Goldsmiths to act on the unjust treatment of Roberto. We also urge all at Goldsmiths and beyond to actively resist and challenge the endemic nature of precarious work in university life - at all times and at all scales, as Roberto has always done.

      Signed,

      Alice Elliot, Lecturer, Goldsmiths University of London
      Victoria Chwa, President, Goldsmiths Students’ Union
      Alicia Suriel Melchor, Operations Assistant, Forensic Architecture / Goldsmiths.
      Vicky Blake, UCU NEC, former president & Uni of Leeds UCU officer, former Chair of UCU Anti-Casualisation Committee
      Cecilia Wee, Associate Lecturer, Royal College of Art & co-Chair/co-Equalities RCA UCU branch
      Joe Newman, Lecturer, Goldsmiths, University of London
      James Eastwood, Co-Chair, Queen Mary UCU
      S Joss, HW UCU Branch President
      Rehana Zaman, Lecturer Art Department, Goldsmiths University of London
      Marina Baldissera Pacchetti, anti-cas officer, Leeds UCU
      Sam Morecroft, USIC UCU Branch President and UCU Anti Casualisation Committee
      Kyran Joughin, Anti-Casualisation Officer, UCU London Region Executive Committee, UCU NEC Member, former Branch Secretary, UCU-UAL
      Rhian Elinor Keyse, Postdoctoral Research Fellow; Birkbeck UCU Branch Secretary; UCU Anti-Casualisation Committee; UCU NEC
      Joanne Tatham, Reader, Royal College of Art and RCA UCU branch committee member, London
      Bianca Griffani, PhD candidate, Goldsmiths University of London, London
      Paola Debellis, PhD student, Goldsmiths, University of London.
      Ashok Kumar, Senior Lecturer, Birkbeck, University of London
      Chrys Papaioannou, Birkbeck UCU
      Fergal Hanna, PhD Student, University of Cambridge, UCU Anti-Casualisation Committee and Cambridge UCU Executive Committee member
      Robert Deakin, Research Assistant, Goldsmiths, University of London
      Grace Tillyard, ESRC postdoctoral fellow, MCCS Goldsmiths
      Yari Lanci, Associate Lecturer, Goldsmiths University of London.
      Caleb Day, Postgraduate researcher, Foundation tutor and UCU Anti-Casualisation Officer, Durham University
      Rachel Wilson, PhD Candidate, Goldsmiths University of London
      Sean Wallis, Branch President, UCL UCU, and NEC member
      Yaiza Hernández Velázquez, Lecturer, Visual Cultures, Goldsmiths.
      Akanksha Mehta, Lecturer, Goldsmiths, University of London
      Cathy Nugent, PhD Candidate, Goldsmiths, University of London
      Janna Graham, Lecturer Visual Cultures, Goldsmiths
      Isobel Harbison, Art Department, Goldsmiths
      Susan Kelly, Art Department, Goldsmiths
      Jessa Mockridge, Library, Goldsmiths
      Vincent Møystad, Associate Lecturer, MCCS, Goldsmiths
      Dhanveer Singh Brar, Lecturer, School of History, University of Leeds
      James Burton, Senior Lecturer, MCCS, Goldsmiths
      Louis Moreno, Lecturer, Goldsmiths
      Jennifer Warren, Visiting Lecturer, Goldsmiths MCCS
      Anthony Faramelli, Lecturer, Visual Cultures, Goldsmiths, University of London
      Billy Godfrey, Doctoral Researcher, Loughborough University; GTA, University of Manchester
      Fabiana Palladino, Associate Lecturer, Goldsmiths, University of London
      Morgan Rhys Powell, Doctoral Researcher and GTA; University of Manchester
      Tom Cowin, Anti-Casualisation Officer, Sussex UCU
      Conrad Moriarty-Cole, Lecturer, University of Brighton, and former PhD student at Goldsmiths College
      Marina Vishmidt, MCCS Lecturer, Goldsmiths University of London
      George Briley, Universities of London Branch Secretary, IWGB
      Callum Cant, Postdoctoral Researcher, Oxford Internet Institute
      Daniel C. Blight, Lecturer, University of Brighton
      Marion Lieutaud, Postdoctoral Research Fellow, LSE UCU anti-casualisation co-officer, London School of Economics
      Lukas Slothuus, LSE Fellow, LSE UCU anti-casualisation co-officer, London School of Economics
      Matthew Lee, UCL Unison Steward & IWGB Universities of London Representative
      Jamie Woodcock, University of Essex
      Dylan Carver, Anti-Casualisation Officer, University of Oxford
      Annie Goh, Lecturer, LCC UAL
      George Mather, PGR Anti-Casualisation Officer, University of Oxford
      Zara Dinnen, Branch co-chair QMUCU
      Henry Chango Lopez - IWGB Union, General Secretary
      Rhiannon Lockley - Branch Chair Birmingham City University UCU; UCU NEC
      Sol Gamsu, Branch President, Durham University UCU
      Ben Ralph, Branch President, University of Bath UCU
      Myka Tucker-Abramson, University of Warwick UCU
      Lisa Tilley, SOAS UCU
      James Brackley, Lecturer in Accounting, University of Sheffield
      Alex Fairfax-Cholmeley, Communications Officer, Uni of Exeter UCU
      Ioana Cerasella Chis, University of Birmingham (incoming branch officer)
      Muireann Crowley, University of Edinburgh, UCU Edinburgh
      Jonny Jones, associate lecturer, UCL
      Danai Avgeri, University of Cambridge, postdoctoral fellow
      Stefano Cremonesi, Durham University UCU
      Jordan Osserman, Lecturer, Essex UCU Member Secretary
      Danny Millum, Librarian, Sussex UCU Exec Member
      Sanaz Raji, ISRF Fellow, Northumbria University, Founder & Caseworker, Unis Resist Border Controls (URBC)
      Alex Brent, GMB South London Universities Branch Secretary
      Gareth Spencer, PCS Culture Group President
      Floyd Codlin, Environmental & Ethics Officer, Birkbeck
      Clare Qualmann, Associate Professor, University of East London and UCU branch treasurer, UEL
      Kevin Biderman, Brighton UCU anti-casualisation officer
      David Morris, CSM / University of the Arts London UCU
      Ryan Burns, Brighton UCU Secretary
      Julie canavan Brighton UCU
      Charlotte Terrell, Postdoc, Oxford UCU
      Clara Paillard, Unite the Union, former President of PCS Union Culture Group
      Jasmine Lota, PCS British Museum United Branch Secretary
      Joe Hayns, RHUL.
      Adam Barr, Birkbeck Unison
      Dario Carugo, Associate Professor, University of Oxford
      Jacob Gracie, KCL Fair Pay for GTAs
      Rahul Patel, UCU London Region Executive and Joint Sec University of the Arts London UCU
      Billy Woods, Essex UCU
      Lucy Mercer, Postdoctoral Research Fellow, University of Exeter
      Goldsmiths Anti-Racist Action (GARA)
      Saumya Ranjan Nath, University of Sussex
      Islam al Khatib, 22/23 Welfare and Liberation Officer, Goldsmiths SU
      Mijke van der Drift, Tutor, Royal College of Art
      Marini Thorne, PHD student and teaching assistant, Columbia University and member of Student Workers of Columbia
      Genevieve Smart, PhD student, Birkbeck
      Francesco Pontarelli, Postdoctoral fellow, University of Johannesburg
      Gloria Lawton, Outreach Homeless Worker, HARP and undergraduate Birkbeck University.
      Grant Buttars, UCU Scotland Vice President
      Goldsmiths Community Solidarity
      Nicola Pratt, Professor, University of Warwick
      Robert Stearn, Postdoctoral Research Associate, Birkbeck, University of London
      Jake Arnfield, UVW Union
      Jarrah O’Neill, Cambridge UCU
      Owen Miller, Lecturer, SOAS
      Marissa Begonia, Director, The Voice of Domestic Workers
      Neda Genova, Research Fellow, University of Warwick
      Joey Whitfield, Cardiff University UCU
      Leila Mimmack, Equity Young Members Councillor
      Ross Gibson, University of Strathclyde
      Phill Wilson-Perkin, co-chair Bectu Art Technicians, London
      Isabelle Tarran, Campaigns and Activities Officer, Goldsmiths Students Union
      Leila Prasad, lecturer, Goldsmiths
      Malcolm James, University of Sussex
      Natalia Cecire, University of Sussex
      Daniel Molto, University of Sussex
      Emma Harrison, University of Sussex
      Margherita Huntley, University of the Arts London (Camberwell UCU)
      Gavin Schwartz-Leeper, Warwick University UCU Co-Chair
      Mary Wrenn, University of the West of England
      Aska Welford (United Voices of the World)
      855 Unterschriften:Nächstes Ziel: 1.000

      https://www.change.org/p/solidarity-with-roberto-mozzachiodi?recruiter=false

      #petition #UK #Goldsmiths #precarity #union_work #British_Higher_Education #fixed_term #UCU

    • #Maria_Toft, Denmark

      In #Denmark #scientists are rolling out a nationwide #petition for a commission to investigate #research_freedom

      –> https://seenthis.net/messages/1009865

      PhD student at the Department of Political Science #Maria_Toft, in addition to the mentioned petition, also started a campaign under the hashtag #pleasedontstealmywork to stop the theft of research.

      –> https://seenthis.net/messages/1009866

      The national conversation about exploitation with #pleasedontstealmywork campaign was at the cost of #Maria_Tofts Copenhagen fellowship.

      –> https://www.timeshighereducation.com/news/campaigning-doctoral-candidate-resigns-hostile-environment (access if registered)

      This article assesses the #working_conditions of #precariat_researchers in #Denmark.

      –> https://seenthis.net/messages/1009867

      Twitter link: https://twitter.com/GirrKatja/status/1640636016330432512

    • #Heike_Egner, Austria

      Unterstütze #Heike_Egner für Grundrechte von Profs

      https://youtu.be/6w-deHpsmr4

      Ich sammle Spenden für eine juristische Klärung, die zwar meine Person betrifft, jedoch weitreichende Bedeutung für Professorinnen und Professoren im deutschsprachigen Wissenschaftsbereich hat. Die Entlassung einer Professorin oder eines Professors aus einer (unbefristeten) Professur galt bis vor kurzem noch als undenkbar. Mittlerweile ist das nicht nur möglich, sondern nimmt rasant zu.

      Der Sachverhalt: Ich wurde 2018 als Universitätsprofessorin fristlos entlassen. Für mich kam das aus heiterem Himmel, da es keinerlei Vorwarnung gab. Erst vor Gericht habe ich die Gründe dafür erfahren. Der Vorwurf lautet, ich hätte Mobbing und psychische Gewalt gegen wissenschaftliche Nachwuchskräfte und andere Mitarbeiter ausgeübt. Vor Gericht zeigte sich, dass die Vorwürfe durchwegs auf von mir vorgenommene Leistungsbewertungen basieren, die von den Betreffenden als ungerecht empfunden wurden. Die Bewertung von Leistungen von Studierenden und Nachwuchswissenschaftlern gehört zu den Dienstaufgaben einer Universitätsprofessorin, ebenso wie die Evaluierung von Leistungen der Mitarbeiter jenseits der Qualifikationserfordernisse zu den Dienstaufgaben einer Institutsvorständin an einer Universität gehört.

      Mittlerweile liegt der Fall beim Obersten Gerichtshof in Österreich. Ich habe eine „außerordentliche Revision“ eingereicht, da ich der Meinung bin, dass die Art meiner Entlassung von grundlegender Bedeutung für die Arbeitsbedingungen von Professoren an Universitäten ist. Unter anderem ist folgendes zu klären:

      Darf eine Universitätsprofessorin oder ein Universitätsprofessor aufgrund von anonym vorgetragenen Vorwürfen entlassen werden?
      Darf eine Universitätsprofessorin oder ein Universitätsprofessor aufgrund von ihr oder ihm durchgeführten negativen Leistungsbewertungen entlassen werden?

      Sollte die Berufungsentscheidung rechtskräftig bleiben, ist damit legitimiert, dass eine Professorin oder ein Professor aufgrund von freihändig formulierten und anonym vorgetragenen Behauptungen jederzeit entlassen werden kann. Dies entspricht einer willkürlichen Entlassung und öffnet Missbrauch Tür und Tor, da es Universitäten ermöglicht, sich jederzeit ihrer Professoren zu entledigen. Eine Universität ist aufgrund ihrer Struktur und ihres Auftrags eine grundsätzlich spannungsgeladene Organisation; hier lassen sich jederzeit unzufriedene Studenten, Nachwuchskräfte oder Mitarbeiter finden, die eine Beschwerde äußern. Die Möglichkeit willkürlicher Entlassung steht nicht nur in Konflikt mit den Formulierungen und der Zielsetzung des Arbeitnehmerschutzes, sondern auch mit der in der Verfassung verankerten Freiheit von Wissenschaft, Forschung und Lehre.

      Wofür bitte ich um Unterstützung?
      Es ist ein ungleicher Kampf, da die Universität Steuergelder in unbegrenzter Höhe zur Verfügung hat und ich – ohne Rechtsschutzversicherung – das volle Risiko des Rechtsstreits persönlich trage. Die bisherigen Kosten des Verfahrens belaufen sich auf etwa 120.000 € (eigene Anwaltskosten und Anwaltskosten der Gegenseite). Damit sind meine Ersparnisse weitgehend aufgebraucht.

      Mein Spendenziel beträgt 80.000 €.
      Dies umfasst die etwa 60.000 € Anwaltskosten der Gegenseite, die ich aufgrund des Urteils in zweiter Instanz zu tragen habe. Die weiteren 20.000 € fließen in die Forschung über die Entlassung von Professorinnen und Professoren, die ich seit 2020 mit einer Kollegin aus privaten Mitteln betreibe.

      Publizierte Forschungsergebnisse zur Entlassung von Professorinnen und Professoren

      Egner, Heike & Anke Uhlenwinkel (2021). Entlassung und öffentliche Degradierung von Professorinnen. Eine empirische Analyse struktureller Gemeinsamkeiten anscheinend unterschiedlicher „Fälle“. Beiträge zur Hochschulforschung, 43(1-2), 62–84. Download PDF
      Egner, Heike & Anke Uhlenwinkel (2021). Zur Rechtsstaatlichkeit universitätsinterner Verfahren bei Entlassung oder öffentlicher Degradierung von Professor*innen. Ordnung der Wissenschaft, 3(3), 173–184. Download PDF
      Egner, Heike & Anke Uhlenwinkel (2023). Über Schwierigkeiten der betriebsrätlichen Vertretung von Professor(innen). Zeitschrift für Hochschulrecht(22), 57–64.
      Egner, Heike & Anke Uhlenwinkel (2023). Zertifikat als Grundrecht? Über Leistungsansprüche und -erwartungen im Kontext struktureller Veränderungen an Universitäten. Hochschulwesen(1+2), 28–43.

      https://www.gofundme.com/f/fur-grundrechte-von-professoren

      Aus dem Video: Rektor hat Betriebsratsvorsitzenden aufgetragen gezielt belastbares Material in Schriftform gegen Heike Enger zu sammeln. Betreibsrat kam Auffroderung bereiwilling nach und sprach gezielt Mitarbeitende an und bat sie aufzuschreiben, worüber sie sich geärgert haben und dies auszuhändigen. Zeuge der Universität hat dieses Vorgehen vor Gericht vorgetragen.

      #academia #university #Austria #Klagenfurt #professor #dismissal #arbitrary #publications #lawsuit #evaluation #scientific_freedom

    • #Susanne_Täuber, Netherlands

      Reinstate #Susanne_Täuber, protect social safety and academic freedom at the RUG

      10 March 2023

      To prof. Jouke de Vries, President, and members of the Board of the University of Groningen,

      We, the undersigned employees and students of the University of Groningen (UG), joined by concerned observers and colleagues at institutions around the world, are appalled at the firing of Dr. Susanne Täuber. The facts of this case are clear: Dr. Täuber was punished for exerting her academic freedom. The same court that allowed the UG to fire her also made it clear that it was the university’s negative reaction to an essay about her experiences of gender discrimination at the university that “seriously disturbed” their work relationship. Alarming details have also been made public about how the university pressured Dr. Täuber to censor future publications, in order to retain her position.

      The protest in front of the Academy Building on 8 March, International Women’s Day, and the continuing press attention and social media outcry, demonstrate that this case has consequences far beyond one university. Firing a scholar who publishes work that is critical of powerful institutions, including the university itself, sets a disturbing precedent for us all. We, the employees and students, ARE the UG, and we refuse to let this act be carried out in our names. We call on the University Board to reinstate Dr. Täuber, without delay, as an associate professor, and to ensure that she is provided with a safe working environment.

      The firing of Dr. Täuber has surfaced structural problems that necessitate immediate action by the University Board and all UG faculties. It is unacceptable that when a “disrupted employment relationship” emerges within a department, the more vulnerable person is fired. This points to a broader pattern at Dutch universities, as evidenced by the YAG Report (2021), the LNVH Report (2019), and other recent cases: in cases of transgressive behavior, Full Professors, Principal Investigators (PIs), and managers are protected, while employees of lower rank, or students, bear the consequences. If we are to continue performing our education and research mission, then this practice must be reformed, and the University of Groningen has an opportunity to lead here. We call on the University Board to work with labor unions, the LNVH, the University Council, and Faculty Councils to design and implement a safe, independent procedure for addressing violations of social safety: one that prioritizes the protection and support of vulnerable parties.

      Internal reforms will help ensure the safety of students and employees, but they will not repair the damage these events have caused to the reputation of the University of Groningen. The termination of a scholar who publishes field-leading research that is critical of academia has triggered doubts among employees, students, and the public about the UG’s commitment to academic freedom. This action is already raising concerns from talented job candidates, and we fear a chilling effect on critical research at the UG and beyond. We call on the University of Groningen, in partnership with the Universities of the Netherlands (UNL), the Ministry of Education, and the labor unions, to enshrine protections for academic freedom in the Collective Labor Agreement.

      Reinstate Dr. Täuber, reform complaint procedures, and establish binding protections for academic freedom. The relationship between the University of Groningen and the people it employs, teaches, and serves has been severely disrupted in the past weeks, but that relationship can be repaired if the Board begins taking these actions today.

      Sincerely,

      References:
      Leidse hoogleraar ging ‘meerdere jaren’ in de fout. (2022, October 25). NRC. https://www.nrc.nl/nieuws/2022/10/25/leidse-hoogleraar-ging-meerdere-jaren-in-de-fout-a4146291

      LNVH. (2019). Harassment in Dutch academia. Exploring manifestations, facilitating factors, effects and solutions. https://www.lnvh.nl/a-3078/harassment-in-dutch-academia.-exploring-manifestations-facilitating-factors-eff.

      Täuber, S. (2020). Undoing Gender in Academia: Personal Reflections on Equal Opportunity Schemes. Journal of Management Studies, 57(8), 1718–1724. https://doi.org/10.1111/joms.12516

      Upton, B. (2023, March 8). Court rules Groningen is free to fire critical lecturer. Times Higher Education (THE). https://www.timeshighereducation.com/news/court-rules-groningen-free-fire-critical-lecturer

      Veldhuis, P., & Marée, K. (2023, March 8). Groningse universiteit mag kritische docent ontslaan. NRC. https://www.nrc.nl/nieuws/2023/03/08/groningse-universiteit-mag-kritische-docent-ontslaan-a4158914

      Young Academy Groningen. (2021). Harassment at the University of Groningen. https://www.rug.nl/news/2021/10/young-academy-groningen-publishes-report-on-harassment-in-academia

      https://openletter.earth/reinstate-susanne-tauber-protect-social-safety-and-academic-freedom-at

      The article:

      Täuber, S. (2020) ‘Undoing Gender in Academia: Personal Reflections on Equal Opportunity Schemes’, Journal of Management Studies, 57(8), pp. 1718–1724.

      –> https://onlinelibrary.wiley.com/doi/10.1111/joms.12516

  • What were the historical reasons for the resistance to recognizing #airborne transmission during the #COVID‐19 pandemic? - Jimenez - 2022 - Indoor Air - Wiley Online Library
    https://onlinelibrary.wiley.com/doi/10.1111/ina.13070

    The question of whether SARS-CoV-2 is mainly transmitted by droplets or aerosols has been highly controversial. We sought to explain this controversy through a historical analysis of transmission research in other diseases. For most of human history, the dominant paradigm was that many diseases were carried by the air, often over long distances and in a phantasmagorical way. This miasmatic paradigm was challenged in the mid to late 19th century with the rise of germ theory, and as diseases such as cholera, puerperal fever, and malaria were found to actually transmit in other ways. Motivated by his views on the importance of contact/droplet infection, and the resistance he encountered from the remaining influence of miasma theory, prominent public health official Charles Chapin in 1910 helped initiate a successful paradigm shift, deeming airborne transmission most unlikely. This new paradigm became dominant. However, the lack of understanding of aerosols led to systematic errors in the interpretation of research evidence on transmission pathways. For the next five decades, airborne transmission was considered of negligible or minor importance for all major respiratory diseases, until a demonstration of airborne transmission of tuberculosis (which had been mistakenly thought to be transmitted by droplets) in 1962. The contact/droplet paradigm remained dominant, and only a few diseases were widely accepted as airborne before COVID-19: those that were clearly transmitted to people not in the same room. The acceleration of interdisciplinary research inspired by the COVID-19 pandemic has shown that airborne transmission is a major mode of transmission for this disease, and is likely to be significant for many respiratory infectious diseases.

    #économie #Gouvernement #militants_de_l'économie

    • Covid-19 : derrière le retard à reconnaître la transmission par l’air, le poids de l’histoire de la médecine
      https://www.liberation.fr/societe/sante/covid-19-derriere-le-retard-a-reconnaitre-la-transmission-par-lair-le-poids-de-lhistoire-de-la-medecine-20220903_FEWQARSVDVFJLJWLJO3BYGSKNM/?redirected=1

      Le 28 mars 2020, L’#OMS tweete « fait : le Covid-19 n’est pas aéroporté », propageant ainsi elle-même une grave #désinformation en matière de santé.

      En réaction à cette fausse affirmation, une petite équipe se forme autour de Lidia Morawska, spécialiste des aérosols à la Queensland University of Technology, et décroche un entretien – en vidéoconférence – avec les responsables de l’OMS. Aux côtés de l’universitaire sont notamment présents une physicienne américaine, Linsey Marr, ou encore l’ingénieur chimiste espagnol José Jimenez. « Nous n’étions ni médecins, ni très connus, nous n’avons pas été entendus », confie ce dernier à Libération.

      Le ton monte même pendant la réunion racontée par le magazine américain Wired. « Ils nous criaient “quelles sont vos preuves ?” J’ai été surpris par leur hostilité. Ils semblaient tellement convaincus de ce qu’ils disaient », se souvient José Jimenez.

      « Ils ne maîtrisaient pas les bases physiques »

      La doxa officielle qui leur est opposée pose que toute gouttelette d’une taille supérieure à cinq micromètres va tomber au sol dans un rayon d’un à deux mètres de distance. Elle ne reste pas en suspension dans l’air. Ces gouttelettes seraient la principale source d’infection. Dès lors, les consignes pour limiter la transmission du Covid seront de s’espacer physiquement, et de se laver les mains fréquemment. Rien sur l’importance de la #ventilation, donc, essentielle pour lutter contre l’#aérosolisation, c’est-à-dire le maintien en suspension de l’air de particules infectieuses.

      « Leurs arguments me semblaient vraiment légers. Ils ne maîtrisaient pas les bases physiques de ce dont ils parlaient. Si ce qu’ils disent était vrai, nous verrions tous les jours les nuages tomber rapidement au sol. Or, ce n’est pas le cas », raconte, encore aujourd’hui médusé, José Jimenez.

      Dès lors, la petite équipe va essayer de comprendre d’où vient cette taille limite de 5 microns qui leur a été opposée, et comment expliquer cette réticence à admettre un nouveau mode de transmission des maladies. Une véritable plongée historique dans la compréhension des épidémies. C’est le sujet de leur dernier article « Quelles étaient les raisons historiques de la résistance à reconnaître la transmission aérienne pendant la pandémie de Covid-19 ? »

      L’aérosolisation, de dogme à superstition

      De l’Antiquité au XIXe siècle, les maladies sont réputées se transmettre par l’air. C’est la théorie des miasmes, qui amènera les scientifiques à nommer le paludisme « malaria » une contraction de l’Italien pour « mauvais air ». Au XIXe siècle, plusieurs médecins mettent à mal ce dogme. Il s’agit de John Snow, qui démontre que l’épidémie de choléra à Londres en 1854 se transmet par l’eau contaminée. Ou encore de Ignaz Semmelweis, qui remarque, à Vienne en 1847, que les femmes ont moins de risques de mourir en couches si l’équipe soignante se lave les mains avant de les accoucher. Tous deux ont en commun de ne pas avoir été écoutés. « Comme nous, ils étaient des outsiders. Ils n’avaient pas beaucoup de #pouvoir », explique José Jimenez.

      Ils se heurtent aussi à des élites qui ont du mal à remettre en cause leurs pratiques et à reconnaître leurs torts. « Admettre que Semmelweis avait raison, c’était, pour les médecins, reconnaître qu’ils causaient du tort à leurs patientes. De même, reconnaître publiquement l’importance des aérosols, c’était, pour l’OMS, admettre son erreur initiale. On ne saura jamais quel contrôle sur l’épidémie on aurait pu avoir si on avait tout de suite considéré le bon mode de transmission, mais je suis persuadé que nous aurions moins de morts », peste encore José Jimenez.

      L’ingénieur William F. Wells a démontré, chez le lapin, que la tuberculose ne se transmettait que si la bactérie était contenue dans des particules de moins de… 5 microns.

      Il faudra encore Pasteur et l’avènement de la théorie microbienne pour que l’idée d’une transmission des maladies par contacts directs avec un malade – ou un animal comme le moustique dans le cas de la malaria – s’impose. En 1910, un épidémiologiste américain, Charles V. Chapin, ira jusqu’à dire que la transmission par aérosol est impossible et relève de la superstition.

      Littérature scientifique mal digérée

      Une position excessive qui ne va pas aider William F. Wells, un ingénieur d’Harvard, à faire connaître ses travaux sur la tuberculose au milieu du XXe siècle. L’histoire a été reconstituée par Katie Randall, membre de la petite équipe de chercheurs, et racontée dans un article d’octobre 2021. Wells a démontré la transmission aéroportée de la maladie en exposant des cochons d’inde à l’air prélevé dans la chambre d’un patient. Il a également démontré, chez le lapin cette fois, que la tuberculose ne se transmettait que si la bactérie était contenue dans des particules de moins de… 5 microns. Tiens, tiens.

      Après guerre, Alexander Langmuir, le premier directeur du département d’épidémiologie au Centre de contrôle des maladies américain, a contribué à populariser ces travaux. Il a aussi écrit un rapport sur le risque de création d’une arme biologique. Selon lui, le plus dangereux serait la création d’un pathogène pouvant être pulvérisé en aérosol de moins de 5 microns, là encore.

      Selon Katie Randall, il ne faut pas chercher plus loin. La fameuse limite entre les aérosols et les gouttelettes viendrait de cette littérature scientifique mal digérée. « Ce que nous espérons démontrer dans cet essai, c’est que bien que les idées sur la taille des gouttelettes et la plage de propagation soient apparemment bien acceptées, leur fondement est confus et trompeur, et n’est pas cohérent avec la physique », écrit-elle en conclusion de son article. Ironie de l’histoire, Wells lui-même avait un émis une taille limite pour l’aérosolisation. Il l’avait fixée à moins de 100 microns… soit 20 fois plus que les 5 micromètres finalement avancés par l’OMS. Il faut croire que cette partie de ces travaux n’a été ni lue, ni retenue.

      Mea culpa partiel

      L’OMS a fini par recommander l’#aération pour lutter contre le Covid-19. Mais les plus ardents défenseurs des « gouttelettes » conservent un schéma de pensée faussé. #Didier_Pittet, par exemple. Il est l’inventeur du gel hydroalcoolique et il a joué un rôle central dans l’approche française face au Covid-19 puisqu’il était président de la mission d’évaluation indépendante de l’exécutif sur la gestion de la pandémie. Interrogé en mai 2021 sur France Inter pour savoir s’il avait changé d’avis sur l’aérosolisation, il fait une réponse confuse : « Personne n’a vraiment changé d’avis en fait. On s’est mis d’accord davantage sur qu’est-ce qu’on appelle un aérosol, […] jusqu’où une gouttelette peut-elle être contagieuse, je pense qu’il n’y a pas eu changement de dogme, parce que si on avait eu un changement de dogme on aurait dû tout d’abord tous changer de #masque parce que les masques qu’on porte aujourd’hui ne sont absolument pas capables de retenir les aérosols. »

      La fin de sa réponse est importante et illustre une dernière raison derrière la réticence à parler d’aérosolisation. Il est beaucoup plus compliqué, et cher, de lutter contre une maladie qui se transmet par l’air que contre une maladie qui se transmet par contact. D’ailleurs la France n’a pas encore mis en place la moindre mesure d’ampleur sur le sujet.

      Mise à jour 4/09 à 9h43 : inversion de « par l’air » et « par contact » dans le dernier paragraphe.

  • #COVID-19 : Comment prévenir le risque dans le #train ? | santé log
    https://www.santelog.com/actualites/covid-19-comment-prevenir-le-risque-dans-le-train

    Les chercheurs décryptent à nouveau comment les maladies aéroportées telles que le COVID-19 se propagent sur toute la longueur du wagon et suggère qu’il ne reste que le port du #masque pour réduire le risque d’infection. Ces travaux publiés dans la revue spécialisée Indoor Air, rappellent également que rien ne vaut un bon système de #ventilation.

    Source : Modeling disease transmission in a train carriage using a simple 1D‐model - Kreij - 2022 - Indoor Air - Wiley Online Library
    https://onlinelibrary.wiley.com/doi/10.1111/ina.13066
    https://onlinelibrary.wiley.com/cms/asset/51de4721-15ae-43ae-ba2d-db73a6e1ad96/ina.v32.6.cover.jpg?trick=1656068874684

    Understanding airborne infectious disease transmission on public transport is essential to reducing the risk of infection of passengers and crew members. We propose a new one-dimensional (1D) model that predicts the longitudinal dispersion of airborne contaminants and the risk of disease transmission inside a railway carriage. We compare the results of this 1D-model to the predictions of a model that assumes the carriage is fully mixed. The 1D-model is validated using measurements of controlled carbon-dioxide experiments conducted in a full-scale railway carriage. We use our results to provide novel insights into the impact of various strategies to reduce the risk of airborne transmission on public transport.

    #aérosols

  • Global life expectancy drops two years since the start of the pandemic - World Socialist Web Site
    https://www.wsws.org/en/articles/2022/04/07/pers-a07.html

    A major study published in March in the journal Population and Development Review estimates that global life expectancy declined by roughly 0.92 years in 2020 and another 0.72 years in 2021. These are the first declines in global life expectancy since the United Nations began tracking this figure in 1950 and the worst since World War II killed an estimated more than 70 million people.

    [,..]

    The study estimates that in 53 countries, including the United States, life expectancy declined by over two years during the worst 12-month period of the pandemic. […] However, multiple countries in the Asia-Pacific region where elimination strategies were employed, including China with a population of 1.4 billion people, saw life expectancy climb.

    Source: Global and National Declines in Life Expectancy: An End‐of‐2021 Assessment - Heuveline - 2022 - Population and Development Review - Wiley Online Library
    https://onlinelibrary.wiley.com/doi/10.1111/padr.12477

    #espérance_de_vie #pandémie #politique

  • London taxi drivers: A review of neurocognitive studies and an exploration of how they build their cognitive map of London - Griesbauer - 2022 - Hippocampus - Wiley Online Library
    https://onlinelibrary.wiley.com/doi/10.1002/hipo.23395

    Eva-Maria Griesbauer,Ed Manley,Jan M. Wiener,Hugo J. Spiers
    First published: 16 December 2021 https://doi.org/10.1002/hipo.23395

    Abstract
    Licensed London taxi drivers have been found to show changes in the gray matter density of their hippocampus over the course of training and decades of navigation in London (UK). This has been linked to their learning and using of the “Knowledge of London,” the names and layout of over 26,000 streets and thousands of points of interest in London. Here we review past behavioral and neuroimaging studies of London taxi drivers, covering the structural differences in hippocampal gray matter density and brain dynamics associated with navigating London. We examine the process by which they learn the layout of London, detailing the key learning steps: systematic study of maps, travel on selected overlapping routes, the mental visualization of places and the optimal use of subgoals. Our analysis provides the first map of the street network covered by the routes used to learn the network, allowing insight into where there are gaps in this network. The methods described could be widely applied to aid spatial learning in the general population and may provide insights for artificial intelligence systems to efficiently learn new environments.

    1 INTRODUCTION
    The ability to navigate an environment depends on the knowledge of that environment. This knowledge can be gained in multiple ways, such as via instructions on GPS devices, memorizing a cartographic map, or through exploration. The knowledge formed can vary from very imprecise to extremely accurate, depending on the complexity of the environment, the level of exposure to the environment and individual differences (Ekstrom et al., 2018; Schinazi et al., 2013; Weisberg et al., 2014; Weisberg & Newcombe, 2016). Over the last decades, there has been increasing interest in understanding how different methods for learning impact the acquisition of spatial knowledge (e.g., Balaguer et al., 2016; Dahmani & Bohbot, 2020; Gardony et al., 2013; Hejtmánek et al., 2018; Ishikawa et al., 2008; Münzer et al., 2006, 2012; Siegel & White, 1975; Streeter & Vitello, 1986) and how individuals differ in their capacity to learn to navigate new environments (Burles & Iaria, 2020; Coutrot et al., 2018, 2019, 2020; Feld et al., 2021; Newcombe, 2018; Weisberg & Newcombe, 2016).

    Despite GPS devices being a preferred method of navigation for many (McKinlay, 2016), the increased use of GPS devices appears to have a negative impact on spatial memory (Dahmani & Bohbot, 2020; Ruginski et al., 2019) and is associated with habitual learning of a particular route (Münzer et al., 2006). In contrast to GPS-based instruction-guided navigation, “map-based navigation” (relying on memory for the map) has been found to support spatial learning, knowledge acquisition of the environment and improved flexible navigation performance (e.g., Ishikawa et al., 2008; Münzer et al., 2006, 2012). Such flexible navigation relying on long-term memory is associated with the construction of a cognitive map, which stores the allocentric information about the structure of the environment enabling shortcuts and efficient detours around unexpected obstacles (O’Keefe & Nadel, 1978; Tolman, 1948).

    A range of evidence indicates that within the brain the hippocampus provides a cognitive map of the environment to support memory and navigation (Epstein et al., 2017; Gahnstrom & Spiers, 2020; O’Keefe & Nadel, 1978) and damage to the hippocampus disrupts navigation (Morris et al., 1982; Spiers, Burgess, Hartley, et al., 2001). Hippocampal neurons encode spatial information (O’Keefe & Nadel, 1978) and for a selected group of individuals, who spend their daily lives navigating using map-based recall of space, their posterior hippocampal gray matter volume increases with years of experience and is larger than in the general population (Maguire et al., 2000). These individuals are licensed London taxi drivers. Here, we review the past literature from studies of London taxi drivers and explore how they learn the large amount of knowledge required to navigate London, which evidence suggests drives the changes in their hippocampus (Woollett & Maguire, 2011).

    2 A REVIEW OF RESEARCH ON LONDON TAXI DRIVERS
    Licensed London taxi drivers are unusual among taxi drivers. They are able to mentally plan routes across an environment that contains more than 26,000 streets within the six-mile area around Charing Cross, the geographic center of London (A to Z from Collins The Knowledge, 2020). They are required to have sufficient knowledge to also navigate main artery roads in the suburbs—known as “The Knowledge.” This area covers almost 60,000 roads within the circular M25 (The London Taxi Experience—The Knowledge, 2020; numbers may vary depending on sources, road types and the definition of the boundary of London). What makes licensed London taxi drivers unique is that they have to accomplish this using their own memory, without relying on physical maps or navigation aids. They are also the only taxi drivers permitted to pick up customers when hailed in the street, due to their license to operate. In the rest of this article, we refer to them as London taxi drivers, but readers should note that our analysis pertains only to licensed taxi drivers, who are also referred to as “London cabbies.”

    Changes in the hippocampal gray matter density in London taxi drivers were first reported by Maguire et al. (2000) using a cross-sectional study of London taxi drivers and magnetic resonance imaging (MRI) measures, including voxel-based morphometry (VBM). Maguire et al. (2000) speculated that because rodent and avian species can show variation in the size of their hippocampus with the demand on spatial memory (Lee et al., 1998; Smulders et al., 1995), it might be possible that London taxi drivers would show similar differences due to their profession. There were two main findings from this study: (i) compared to age and gender matched control participants, London taxi drivers had an increased gray matter density in their posterior hippocampus and a decreased gray matter density in their anterior hippocampus, (ii) years of experience was positively correlated with gray matter density in the right posterior hippocampus and negatively correlated with anterior cross sectional volume. Thus, there is no evidence for a globally larger hippocampus, but rather more experienced taxi drivers show a significant difference in the amount of gray matter along the long-axis of the hippocampus.

    Following the discovery of differences in hippocampal size in London taxi drivers by Maguire et al. (2000) numerous studies have explored their brain function and cognition. MRI has provided further evidence of structural differences in their hippocampus, with three further studies supporting the initial findings (Maguire, Woollett, & Spiers, 2006; Woollett et al., 2009; Woollett & Maguire, 2011). To provide a more precisely matched control group to London taxi drivers, MRI structural measures were contrasted between London taxi drivers and London bus drivers. If the gray matter changes in taxi drivers are driven by daily driving and/or daily exposure to London, then bus drivers should have a similar hippocampal size to taxi drivers as they daily drive routes through London. However, if it is using extensive spatial knowledge that underlies the differences in gray matter density then London taxi drivers and bus drivers should differ. Results revealed that compared to London bus drivers, London taxi drivers have increased posterior hippocampus gray matter density, decreased anterior hippocampal gray matter density (Maguire, Woollett, & Spiers, 2006), replicating previous results (Maguire et al., 2000). While bus drivers show no relationship between hippocampal volume and years of experience, London taxi drivers were again found to show a positive correlation between posterior hippocampal gray matter volume and years of experience (Maguire, Woollett, & Spiers, 2006).

    While cross-sectional studies of gray matter density provide evidence that changes in hippocampal volume may occur with exposure over time, they do not track individuals over time to provide a more reliable measure of structural changes with experience. Examining brain changes longitudinally within subjects, Woollett and Maguire (2011) found that an increase in the posterior hippocampus gray matter density after the years spent learning the Knowledge and passing the exam required to become a licensed taxi driver (Woollett & Maguire, 2011). Notably, taxi drivers showed no differences in hippocampal volume prior to starting training to non-taxi drivers, indicating that taxi drivers may not be predisposed to having a larger hippocampus as part of what predisposes someone to choose to train as a taxi driver. Intriguingly, those who failed to qualify did not show a change in their hippocampal size, indicating that it is not sufficient to spend time training, training must be applied effectively for changes in posterior gray matter density to become evident. Furthermore, cross-sectional evidence from measuring hippocampal size in medical professionals revealed no correlation between years of experience and hippocampal structural measures (Woollett et al., 2008). This suggests that it is unlikely to be storing the memory of all the street names that underlies the correlation between hippocampal volume and years of experience operating a London taxi.

    Following the discovery of gray matter differences in London taxi drivers a number of studies have explored the extent to which hippocampal size might predict navigation ability. The first study to explore this in a sample of 23 participants found no association between posterior gray matter volume and navigation ability on a virtual navigation task (Maguire et al., 2003). However, a number of subsequent studies have reported a relationship between measures of hippocampal structure and navigation performance (Bohbot et al., 2007; Brunec et al., 2019; Chrastil et al., 2017; He & Brown, 2020; Hodgetts et al., 2020; Konishi & Bohbot, 2013; Schinazi et al., 2013; Sherrill et al., 2018; see also Hao et al., 2017). More recently, two studies with larger samples have found no relationship between hippocampal structure and either navigation (Weisberg et al., 2019) or route sequencing (Clark et al., 2020). Thus it remains a matter of debate whether in non-taxi drivers there is a link between hippocampal structure and navigation performance (see Weisberg & Ekstrom, 2021 for review).

    Acquiring the Knowledge of London seems to come at a cost of learning and retaining new visuo-spatial information, which co-occurs with a concurrent volume decrease in the anterior hippocampus (Maguire, Woollett, & Spiers, 2006; Woollett & Maguire, 2009, 2012). However, in the small sample studied by Maguire, Woollett, and Spiers (2006) no significant correlation was present between anterior gray matter density reduction and the performance on visuospatial tasks. Functional neuroimaging studies have shown engagement of their posterior hippocampus when verbally recalling routes (Maguire et al., 1997) and at the start of the route when navigating a highly detailed virtual simulation of London (Spiers & Maguire, 2006a, 2007a). Other research with London taxi drivers has revealed insight into spontaneous mentalizing (Spiers & Maguire, 2006b), remote spatial memory (Maguire, Nannery & Spiers, 2006), emotions during navigation (Spiers & Maguire, 2008), the neural basis of driving a vehicle (Spiers & Maguire, 2007b), the features of street network that define a boundaries for navigation (Griesbauer et al., 2021) and the route planning process (Spiers & Maguire, 2008). London taxi drivers have also been shown to be better than non-taxi drivers at learning new routes (Woollett & Maguire, 2009).

    Despite the numerous studies exploring London taxi drivers, little attention has been paid to how London taxi drivers learn and memorize the layout and landmarks in London (Skok, 1999). Many questions arise when considering this. How is their exploration structured? What do they study when examining maps? How are map and physical travel experience integrated? What role does mental imagery play in aiding their learning? How do they exploit the hierarchical structure of London’s layout? Are major roads mastered before minor roads? In this observational report we provide the first investigation of London taxi driver’s learning process and the methods and techniques that enable them to retain and use such a large amount of real-world spatial information for efficient navigation.

    3 METHODS TO STUDY LEARNING OF THE KNOWLEDGE
    To understand the learning process of taxi drivers, different types of sources of information have been consulted. These sources included (a) a semi-structured interview (ethics approval was obtained under the ethics number CPB/2013/150) with a teacher from a London Knowledge school (here referred to as K.T. for “Knowledge Teacher”), (b) an email exchange with Robert Lordan, the author of “The Knowledge: Train Your Brain Like A London Cabbie” (Lordan, 2018), (c) an open introductory class of the Knowledge of London and regular scheduled classes for current students, (d) school specific study material, and (e) online information from the TfL (Learn the Knowledge of London, Transport for London, n.d.; Electronic blue book, 2019).

    The interview with the teacher from the Knowledge school was audio-recorded and transcribed. The transcription of the interview can be found in Appendix S1. The teacher gave written consent for the content of this interview to be cited and published. Additionally, attendances of Knowledge school training classes, including an introductory class and several classes with more advanced students, allowed us to observe and understand the training process in more detail.

    The information collected from these sources was systematically reviewed to report on (a) the ways spatial information is structured and presented for the learning process, (b) the techniques and methods used to learn this spatial information, and (c) how this knowledge is tested and the later perception of this knowledge as a taxi driver. A summary for each of these categories was created, starting with verbal reports (interview [Appendix S1], Knowledge school classes). This information was cross-referenced with and extended by unreported information from other, published, or official sources (e.g., study material, online booklets by TfL).

    4 OBSERVATIONS
    Taxi drivers in London have to demonstrate a thorough Knowledge of London within the six-mile radius originating at Charing Cross (see Figure 1a) to earn the green badge that qualifies them to drive a “black cab” taxi (Electronic blue book, 2019). Within this area, taxi drivers are expected to plan a route (i.e., the “runs”) based on the shortest distance between any two potential places of interest (i.e., the “points”) their customers might travel from or to, such as restaurants, theaters, hospitals, sports centers, schools or parks (cf. Electronic blue book, 2019, for a complete list). Taxi drivers are also expected to name all roads or streets that are part of that run in the correct, sequential order, including traveling instructions, such as turns (Electronic blue book, 2019).

    FIGURE 1


    The Knowledge of London and the Blue Book. (a) London taxi driver students are expected to learn the street network and all potential points of interest within the six-mile radius around Charing Cross (black circle), which is called the “Knowledge of London.” (b) To support the learning process of this area, the Blue Book was created. It contains 320 origin–destination pairs and the shortest route (i.e., “run”) connecting those pairs. When mapped chronologically in groups of 80 runs, the network of origin–destination pairs starts overlapping and becomes denser. Red: The first layer of the first 80 origin–destination pairs. Black: The second layer of the origin–destination pairs for runs 81–160. Purple: The third layer of origin–destination pairs for runs 161–240. Blue: The final layer of the last 80 origin–destination pairs for runs 241–320.
    Map sources: (a) Mapbox (2020) and (b) My Maps by Google Maps

    Historically, the exact roots of the Knowledge of London are unclear as written evidence is mostly missing. The first licenses and regulations for horse-driven carriages date back to the early 1600s by Oliver Cromwell (June 1654: An Ordinance for the Regulation of Hackney-Coachmen in London and the places adjacent, 1911; London Metropolitan Archives, 2013; Lordan, 2018; Newton, 1857). However, in 1851 the Great Exhibition in Hyde Park revealed incompetent navigation skills of the carriage drivers of those days. These initiated a series of complaints and forced authorities in the following years to set up stricter qualification requirements for drivers to test their knowledge of important streets, squares and public buildings (A to Z from Collins—The Knowledge, 2020; Lordan, 2018; Rosen, 2014). This scheme was officially introduced in 1865 (Learn the Knowledge of London, Transport for London, n.d.). The requirements in relation to the content of the Knowledge have since hardly changed and remained in place (The Knowledge, 2020) despite the technological innovations that have produced navigation aids, such as GPS devices, that facilitate and guide navigation. The following sections will outline how this is achieved by taxi drivers.

    4.1 Presentation of spatial information in Knowledge schools
    To help students to acquire the fundamentals of the Knowledge of London, the Blue Book (the origin of this name is unclear) was designed, which, in its current form, was put into place in 2000 (interview with K.T., Appendix S1). It contains 320 origin–destination pairs, their corresponding runs, as well as additional points related to tourism, leisure, sports, housing, health, education, and administration (Electronic blue book, 2019). In total, there are about 26,000 different streets and roads (Eleanor Cross Knowledge School, 2017) and more than 5000 points (Full set of Blue Book Runs, 2020) listed in the Knowledge schools’ versions of the Blue Book. However, this knowledge is incomplete. By the time students qualify, they will have extended their knowledge to identify more than 100,000 points (The London Taxi Experience—The Knowledge, 2020) in a street network of about 53,000 streets (OS MasterMap Integrated Transport Network, 2018). This covers not only the six-mile area, but extends to all London boroughs, including major routes in the suburbs.

    The 320 origin–destination pairs of the Blue Book with their corresponding runs are structured into 20 lists of 16 pairs each, which are designed to systematically cover the six-mile radius: In a chronological order, as listed in the Blue Book, the majority of origin–destination pairs have an origin in the same postal districts as the destination of the previous origin–destination pair and spread across London throughout each list (Electronic blue book, 2019). When mapped in layers of four, the first 80 runs (i.e., five lists) provide an initial rough coverage of London. This coverage becomes denser with each of the remaining three layers that are shifted slightly against each other to fill in the gaps (Figure 1b).

    Each of the origins and destinations in the Blue Book also require students to learn the nearby environment within the quarter mile range. That area around a Blue Book point is called the “quarter mile radius,” or in short: the “quarter-miles” and is considered as ideal for learning small areas of the environment without overloading students with information (interview with K.T., Appendix S1; Learn the Knowledge of London, Transport for London, n.d.; Electronic blue book, 2019). For the first and most famous run, which connects Manor House Station to Gibson Square, the quarter-mile radius is illustrated in Figure 2a. It contains about 8 additional points, numbered 1–8. These are chosen by each Knowledge school individually and can differ between schools. The additional points serve as initial motivation for students to explore the quarter-miles and learn which streets link these points to each other. Knowledge of the remaining, unmentioned points in the area will be obtained by each student gradually as they progress through the Knowledge of London by studying maps and exploring the quarter-miles in person.

    FIGURE 2


    Example of Knowledge school material in use. In Knowledge schools, wallpaper maps (a) are used to illustrate the coverage of London within the six-mile area by the quarter mile radii (b). These maps support the learning of relations between two places and clear up misconceptions such as Victoria being located further north than Waterloo, which is owed to a change in direction of the River Thames (c). “The cottoning up of two points,” a piece of string that is used to create a direct line between the points, is a common method to help with directional studies (c) and planning the most direct routes (d, e). Additionally, students use 50% and 75% markers along the direct line (e) to create subgoals that help to plan the runs
    Source: Knowledge Point School, Brewery Road, London, UK

    Mapping the origin–destination pairs with their corresponding quarter-miles, highlights how the areas locally link to each other (Figure 2b). To create such an overlap that sufficiently covers the whole six-mile area around Charing Cross (also see Figure 2a), 640 points are required, thus explaining the total number of 320 Blue Book runs. Since each point is closely surrounded by nearby origins and destinations of other runs, information is provided about how an area can be approached from or left in different directions. For Manor House (Figure 2b) these points have been indicated by blue and red quarter-miles for nearby origins and destinations, respectively, in Figure 2b. To visualize this information across the entire six-mile area of London and keep track of their progress while learning the Blue Book, trainee taxi drivers mark the origins and destinations, including the quarter-miles, in a large, all London map (Figure 2a,b; Source: Knowledge Point Central, Brewery Road, London, UK).

    Studying maps by visualizing the topological relationship between areas also helps to avoid misconceptions about the city’s geography that could lead to mistakes in route planning. For instance, deviations from the more generally perceived west–east alignment of the river Thames can cause distortions (cf. Stevens & Coupe, 1978). Often Victoria station, located north of the river, is incorrectly perceived further north than Waterloo Station, which is on the southern side of the river, but further east then Victoria (see Figure 2c). This misconception is due to a bend of the river Thames, that causes the river to flow north (instead of east) between Victoria and Waterloo.

    In the Blue Book, the 320 runs connect the origin–destination pairs through the route along the shortest distance for each pair (Electronic blue book, 2019). These pairs were chosen to create runs that are about two to three miles long and mainly follow trunk or primary roads. Here, trunk roads are the most important roads in London after motorways, providing an important link to major cities and other places of importance, with segregated lanes in opposite directions (Key:highway, 2020). Primary roads are defined as the most important roads in London after trunk roads, usually with two lanes and no separation between directions, linking larger towns or areas (Key:highway, 2020). Since these are often printed in orange and yellow in paper maps, taxi drivers also refer to them as “Oranges and Lemons” (interview with K.T., Appendix S1). Trainee taxi drivers visualize these runs on all London maps to learn and practice recalling them (Figure 2d, credit: Knowledge Point Central, Brewery Road, London, UK). Knowledge schools provide the 320 runs for the points of the Blue Book but encourage students to plan these runs before checking the up-to-date solution. To plan a run using the shortest distance and avoid major deviations (as required for the examinations), drawing the direct line (i.e., “as the crow would fly”) or spanning a piece of cotton between the points is essential (Figure 2e). This so-called “cottoning up” also helps students to learn relations between places (Figure 2c) and visualize the map to find ways around obstacles, such as Regent’s Parks, or to select bridges for crossing the river (Figure 2e) during the “call out” of the run (i.e., the recall of the street names in order along shortest route without using a map). Additionally, it provides opportunities to set subgoals, the “50% and 75% markers.” These markers are set where the line coincides with major roads or bridges, about halfway or three quarters along the line. These distances are guidelines only, and sometimes bullets are set at other distances for streets and places along the direct line that facilitate planning in stages. These markers help students to stay close to the direct line, while breaking down longer runs in smaller sections and reduce the number of steps they have to plan for at a time (Figure 2e). Due to one-way streets and turning restrictions, reverse runs from the initial destination to the initial origin can differ. Therefore, the streets and roads cannot simply be called in reverse order but have to be learned separately (Figure 3).

    FIGURE 3


    Runs and reverses runs. Due to one-way systems or turning restrictions, some runs differ when planned in reverse (dashed line), not allowing to simply invert the original sequence of streets taken (black line). This is the case for the run from Islington Police station (P) to the British Museum (B). When reversed, the one-way systems at Russell Square (1) and at Margery Street (2) require adaptation to traffic rules, resulting in differences between the runs and its reverse run. Figure is based on learning material from Taxi Trade Promotions
    The runs of the Blue Book form a network of routes that covers the six-mile area centered around Charing Cross (Figure 4a). However, the coverage of the London street network by the Blue Book runs systematically varies in density with respect to the distribution of points and the complexity of the street network: At its boundaries (Figure 4b) this network is less dense than in central London, where the runs are also overlapping more often (Figure 4c). This also reflects that more points are located closer to the center of London, whereas residential areas are more likely to cover larger regions at the boundaries of the six-mile radius. Similarly, areas of London with a more regular street network, such as in Marylebone and Fitzrovia, are covered by less runs (Figure 4d) than areas with a more complex and irregular street network, such as South Kensington and Chelsea (Figure 4e). These might require more practice to learn.

    FIGURE 4


    Network of Blue Book runs. A visualization of the 320 runs that connect the corresponding origin–destination pairs of the Blue Book forms a dense network of routes that overlaps, similar to the quarter mile radii (a). Across the network, density varies and is less dense closer to the six-mile boundary (b) then in Central London (c). This overlap also shows that more routes run through areas with higher irregularity in the street network (d) than areas of a more regular street network (e) in Central London
    Source: Adapted from Blue Book mapping by Prof Ed Manley, University of Leeds

    The Blue Book runs focus on connecting origin–destination pairs about three miles apart from each other. Since these are mostly main artery roads, they provide the main grid for efficient traveling between those origin–destination pairs. In contrast, minor roads and the areas between the Oranges and Lemons (i.e., main roads that are printed in yellow and orange in most maps) are learnt by studying the quarter-miles and linking the additional points in those areas (Figures 2a and 5b). Further understanding and flexible linking is gained from the Blue Book runs as students start considering continuations between them. For instance, one Blue Book run would have continued along a sequence of straight streets, but the run required a turn off from this straight sequence of streets to reach a destination. In contrast to the previous example, parts of a different run might continue straight, where the initial run required to turn off the straight sequence of roads. Both examples highlight the importance of the ability to flexibly use individual runs as part of the “bigger picture” (interview with K.T., Appendix S1).

    FIGURE 5


    The points of the Blue Book. Each origin–destination pair of the Blue Book is presented in relation to its quarter mile area. The origin of a run, here run 1 (a), Manor House Station, and the corresponding quarter mile radius (black circle) with additional eight other points of interest (numbered 1–8) are marked in a map. Labels are provided in a legend (left) and the most direct route (i.e., “run”) to the destination, including driving instructions (L on L: leave on left, L: left, R: right; F: forward) are listed on the right. The dense network of origin–destination pairs (b) results in an overlay of the neighboring quarter mile radii (black circles around purple arrows). For Manor House Station (purple circle) neighboring quarter-mile origins and destinations are highlighted in blue and red, respectively. These quarter-miles are covering the six-mile radius in London by linking places of interest through linking runs (c) as indicated by the dashed lines connecting run 1 (#) from Manor House Station and run 80 (!"), ending at Harringay Green Lanes Station.
    Source: Figures are based on learning material from Taxi Trade Promotions

    Ultimately, they cover large distances across London as such a combination of knowledge enables trainee drivers to link the Blue Book runs efficiently where they intersect, or through minor roads of the quarter miles where no intersection is available (Figure 2c). Over time, links become more efficient as the Knowledge is “ingrained” and minor roads are integrated to create shortcuts where possible. At this point, the Blue Book is no longer perceived as a list of individual routes, but as an entire network of runs (interview with K.T., Appendix S1).

    4.2 Learning methods
    The progress that Knowledge students have to make from learning the first points and runs to flexibly plan routes all across London is supported through a range of learning techniques as listed in Table 1. These methods can be categorized into theoretical, map-related studies and practical, “in situ” experiences (interview with K.T., Appendix S1; Lordan, 2018). Both support the development of planning strategies that are later used in situations where route planning is required. These include practicing the planning of Blue Book runs and general runs with a “call over partner” (i.e., a Knowledge school study partner) in preparation for exams and when driving a taxi as a qualified driver.

    TABLE 1. Learning techniques used in Knowledge schools
    Learning technique Supported skill and knowledge
    (A) Map study Bird’s eye view:
    General use of maps
    Visualizing street network
    Relational knowledge of streets and areas
    Areal knowledge (e.g., quarter miles)
    Traffic rules (e.g., one-way systems, turning restrictions)
    Sequential order of streets
    Dumbbell methoda,b
    Relational knowledge of places
    Areal knowledge
    Linking runs
    Flexible and efficient route planning
    Cottoning up
    Efficient route planning
    Relational knowledge of places
    50% and 75% markers
    Efficient route planning
    Relational knowledge of places
    Memory techniquesa:
    Acronyms and mnemonics
    Short stories
    Method of loci
    Historical connections
    Personal connections
    Memorizing groups of streets in consecutive order (1–3)
    Relational knowledge of streets in an area (e.g., quarter miles) (4)
    Visualizing street network (4)
    Relation to personal memories (5)
    (B) In situ experience In-street view
    Traveling in street
    Sequential order of streets
    Experience
    Mental simulation
    Visualizing places and streets
    Sequential order of streets
    (C) Combination of the above Bird’s eye and in-street view
    Call over partner
    Combination of all to simulate examination and fares
    Practice material
    Exam questions
    a Lordan (2018). b Learn the Knowledge of London.
    In general, maps are used to learn the structure of the street network from a bird’s eye view. They help obtain knowledge about relations between places and areas (e.g., quarter-miles and boroughs) and learn traffic rules that can limit route planning due to one-way systems and turning restrictions. Additionally, maps facilitate a better understanding of the sequential order of streets that are part of a run.

    Initially, when studying the Knowledge, this information is obtained mainly through the “dumbbell method.” This requires students to identify the quarter-miles of the origin and the destination and visualize the connecting Blue Book run by tracing it on the map. By including variations of origins and destinations from the quarter-miles on the map, students start to connect nearby points with the original Blue Book origins and destinations and create a network that is forming the “dumbbell” (Figure 3). This method is later extended to other places, as students learn to flexibly link runs and cover larger distances across London. This is also supported by the “cottoning-up” and the use of subgoals, called the “50% markers,” which are not included in the blue book and must be determined by the trainee (interview with K.T., Appendix S1). These 50% markers (not always chosen halfway along the direct line) are bridges if the river needs to be crossed to ensure efficient planning through these bottlenecks at early stages, or other major roads and places. Additional subgoals are added before and after, as needed, to help give initial direction for the route planning without overwhelming the students. Both methods, the “cottoning-up” and the “50% markers,” when used during initial stages of the training, help students to correctly visualize the map and relations between places. At a later stage of the Knowledge, when route planning is carried out mentally and without a physical map, these methods are integrated in the planning process automatically. Notably, the process involves focusing on distance rather than time between locations. The route with the shortest distance might be extremely slow, but during the training taxi drivers are required to find this route. This relates to the assessment used which uses distance to determine the correct answer (see Section 4.3). After qualifying drivers taxi drivers describe incorporating time into their choice of routes.

    To help students memorize sequences of street names that are often used for runs, different memory techniques are applied during the learning process and often remembered years after obtaining the license. The most common techniques are creations of acronyms and mnemonics, inventions of short stories that contain street name references, mental walks through rooms of an imaginary house, historical connections and personal memories that logically structure (cf. Table 2, Lordan, 2018). Trainees use the range of techniques in combination to learn, rather than starting with one method and moving to another. Thus, the learning techniques listed in Table 2 provide a set of cognitive tools for learning the layout of London.

    TABLE 2. Common memory techniques to learn runs
    Technique name Example Streets or places Run Book reference
    Acronym “MEG”
    (1) Melton St

    (2) Euston Rd

    (3) Gower St

    (4) …

    121 p. 22
    Mnemonic
    A: “bask under nice fair weather”

    (1) Blackfriars Bridge

    (2) Unilever Circus

    (3) New Bridge St

    (4) Farringdon St

    (5) West Smithfield

    153 p. 26
    B: “little apples grow quickly please”
    Lyric, Apollo, Gielgud

    Queen’s, Palace

    (order of Shaftesbury Av theaters)

    – p. 20
    Short story “In the scary monster film (1), the creatures burst out from behind the closed doors, riling (2) their victims with sheer terror (3). […]”
    (1) Munster Rd, Filmer Rd

    (2) Rylston Rd, Dawes Rd

    (3) Sherbrooke Rd

    (4) …

    20 p. 92
    Method of loci “On the wall of the lobby are several framed certificates (1). Below them is a bookcase where a guide to New York City sticks out, the cover of which is illustrated with an image of Park Avenue (2). A train ticket to Macclesfield is tucked inside as a bookmark (3). […]”
    (1) College Crescent

    (2) Avenue Rd

    (3) Macclesfield Bridge

    (4) …

    7 p. 148
    History
    “It’s believed that Copenhagen House was named either in honor of the King of Denmark or the Danish Ambassador, both of whom stayed there in the 17th century.

    Consequently the first roads on this run have a Danish theme. Matilda Street is named after Queen Caroline Matilda who was born in London but became Queen consort to Denmark after her marriage to Christian VII. […]”

    (1) Matilda St

    (2) Copenhagen St

    (3) …

    2 p. 106
    Experience
    “I remember arriving at Manor House very early one Sunday morning; it was cold and misty and, as I expected many fellow students did, had a brief moment of crisis when I asked myself what on earth I was getting myself into.

    But this thought was quickly expelled when I stood up to stretch my legs – and promptly trod in some dog mess, which in hindsight was probably a symbol of good luck although it certainly did not feel like that at that time. […]”

    (1) Manor House

    (2) …

    1 p. 190
    Source: Adapted from Lordan (2018).
    Location specific information from an in-street view is learnt through “in situ” visits to the 320 origin–destination pairs of the Blue Book, their quarter-miles and driving the corresponding runs. These visits—carried out multiple times, often on a scooter with a map of the Blue Book run attached to the windscreen—are essential to learning and recalling the Knowledge. These experiences of runs and the quarter miles create memories that drivers use to later recall sequences of streets (Table 2, Lordan, 2018) and visualize routes during planning (interview with K.T., Appendix S1). For instance, memories of traveling a run for the first time might help the recall of sequences of streets, places of interest and specific traffic rules that must be obeyed. These memories become an essential source of information when planning and calling out similar runs, linked to the original. Students use them for mental simulations that facilitate decisions about where to pick up or set down passengers, in which direction to leave or to approach an area and how to find the most optimal route. Thus, students incorporate their study from maps into egocentric representations of directions and turns when driving the runs in situ and this is vital for the planning process. Trainees are not paid so the process of learning is expensive as well as time consuming.

    4.3 Assessment scheme
    The assessment scheme for trainee taxi drivers in London was designed to support the learning process and guide students from early stages of learning the initial Blue Book runs to final stages, where their knowledge of London and suburban artery roads is rigorously challenged (Figure 6; interview with K.T., Appendix S1, Learn the Knowledge of London, Transport for London, n.d.). Initially, Knowledge schools offer an introductory class to provide basic information and an overview of the content of the Knowledge. This introductory class includes expectations, procedures, and requirements of the qualification process, before preparatory examinations (Figure 6, light gray) can be taken. Within the first 6 months of starting the Knowledge, students are expected to sit an assessment that is testing the Knowledge on the initial 80 runs (five lists) of the Blue Book. Even though this assessment is unmarked, it is obligatory and of supportive and informative purpose at the same time (i.e., formative assessment). Feedback is given and the performance is discussed with teachers to help students identify problems in their learning process that need adjustment at an early stage to enable students to successfully progress at later stages. Following this initial self-assessment, students have 18 months to sit a marked multiple-choice exam that tests their knowledge of the Blue Book, to ensure they have acquired the basics that are necessary to progress to the appearance stages (Figure 6, dark gray). To test this, the multiple-choice exams consist of two parts, where (a) the shortest, legal route out of three possibilities has to be identified for 5 randomly chosen Blue Book runs, and (b) the correct location out of six possible locations has to be selected for 25 points of interest that are likely to be part of the learning of the Blue Book runs.

    FIGURE 6


    Knowledge examination process. The initial stage (light gray) of the Knowledge examination process provides feedback (Self-Assessment) on the individual progress of learning the first 80 runs of the Blue Book and assesses the minimum knowledge on all 320 Blue Book runs needed (Multiple Choice Exam) to start the oral examination (Appearances). The main part of the examination process (dark gray) consists of a series of oral examinations, the so-called “appearances,” consisting of three different stages (the 56s, 28s, and 21s, named after the intervals between each exam in the corresponding stage). Even though the requirements to students sitting these exams become more rigorous as they proceed, there are general rules that apply across all stages. These are related to the general layout of each appearance (e.g., duration, number of runs), expectations (e.g., shortest route), format of call out (e.g., identifying the location of origin and destination, sequentially naming streets and providing turning instructions), penalties (e.g., traffic rule violations, deviations from shortest route, hesitations), awarded points and progressing to the next stage. Following the appearances, students are required to pass an exam on suburban Knowledge before they obtain their license
    Source: Adapted from Learn the Knowledge of London; Knowledge of London learning and examination process, p. 21

    After passing the two entry assessments, trainee taxi drivers enter what is known as the “appearances,” a set of oral examinations. At each appearance, students are expected to call runs from any two points that the examiner names. The appearances also comprise the longest and most difficult part of the Knowledge examination process. It is quite common that several of the stages have to be retaken by students due to shorter intervals between appearances coupled with the growing expectations of the examiners as they proceed. In total, there are three stages of appearances, the 56s, 28s, and 21s, which correspond to the number of days between any two appearances in that stage.

    Even though the requirements for students sitting these exams become more rigorous as they proceed, there are general rules that apply across all stages: Each appearance is about 20 min long and can consist of up to 4 runs that students have to call, using the shortest route, disregarding traffic and temporary roadworks. The call outs (i.e., naming streets in sequential order) include identifying the location (i.e., the correct street) of the origin and destination (points of interest), naming streets and giving turning directions along the run in correct sequential order, as well as including instructions for leaving and setting down passengers. Possible errors that will cause deductions of points are incorrect street names, any divergence from the shortest route, violation of traffic rules, impossible leaving or setting down instructions and hesitations during the call of the run. In each appearance, 3–6 points are awarded and 12 points are needed to progress to the next stage. Per stage, students are allowed to fail a maximum of three appearances, before the stage has to be repeated (first time) or students have to go back to a previously successfully passed stage (failing second time), limiting the number of exams per stage to a maximum of seven appearances.

    In contrast to later appearance stages, the “‘56s” are very closely related to the Knowledge obtained from the Blue Book. Here, examiners closely stick to runs from the Blue Book, which reflects a good knowledge of primary and secondary roads (i.e., the “oranges and lemons”). At this stage, examiners also take into account differences in the choice of additional points of the quarter-miles that different Knowledge schools provide in their version of the Blue Book (Figure 2a). Additionally, runs are structured in a way that they will not contain obstacles (e.g., road closures), special requirements (e.g., requests to avoid traffic lights) or theater shows and temporary events (e.g., Chelsea Flower Show). Students are also allowed to correct mistakes by going back in their call out and changing their run. At the next stage, the “28s,” examinees are expected to be able to link runs, using some minor roads and avoid obstacles or comply with special requests without being granted a chance of correcting faulty runs. At the final stage, the 21 s, trainee drivers have to demonstrate an overarching knowledge that is up to date and can additionally refer to particular topics (e.g., new tourist attractions, changes in hotel names) and temporary events, such as the Chelsea Flower Show.

    After passing all appearances, the final exam is set to test the knowledge of suburban London. This knowledge covers 22 specific routes, including major points along those routes, radiating from the six-mile radius to the borough boundaries of London. In this final appearance, trainee drivers will be asked six questions relating to the 22 routes and points along those routes.

    For the learning process of a Knowledge student, the Blue Book is central, as it provides them with “the ability to know where streets and roads are going to and where all those places are” (interview with K.T., Appendix S1). However, over the course of obtaining the Knowledge and learning how to link Blue Book runs efficiently, there seems to be a change in the perception of London. Initially it consists of distinct routes and locally focused areas on a map. Over the course of time, this fades into a connected, large-scale, inseparable network of streets and places in the real world (Appendix S1). During consulting conversations with taxi drivers, they reported that they just knew where they had to go without much planning. For well-known places, Robert Lordan described the planning and execution of a run as “I wouldn’t even have to think; my brain would be on autopilot. […] like a moth drawn to a light!” (email conversation with Robert Lordan, Appendix S2). For longer distances, subgoals (as trained with the 50% markers) are used automatically: “I’d find that my brain would often plan in stages; essentially I’d envision a set of waypoints and the route would then come to me as I progressed” (email conversation with Robert Lordan, Appendix S2).

    The overall impact of the Knowledge also seems to foster a deeper connection (“I already loved the city, but in studying it I now love it all the more. It feels like an old, familiar friend,” email conversation with Robert Lordan, Appendix S2). It provides a constant drive to stay up to date with changes in the city (“The Knowledge made me crave detail! To this day I want to know as much as I can about London,” email conversation with Robert Lordan, Appendix S2) and new curiosity (“The Knowledge also makes you want to know as much as you can about new locations that you’ve never been to before,” email conversation with Robert Lordan, Appendix S2).

    5 DISCUSSION
    Here we examined the process by which licensed London taxi drivers learn and are examined on the Knowledge of London, which includes the network of ~26,000 streets and thousands of points of interest. In summary, to learn the Knowledge of London, taxi drivers use a wide range of theoretical and practical methods and learn specific methods for efficient planning. Such training primarily includes map-related study, based on an overlapping network of basic points of interest and list of routes (Blue Book) that systematically covers London. This knowledge is combined with visits to the locations used in the routes and retracing of the theoretically learnt routes on motorbikes. Both experiences are reported to be vital for linking theoretically learned information to specific real-world locations and flexible navigation in London. We also observed a range of techniques to improve memory, such as acronyms and stories linked to sequences of streets, visualizing the locations and travel along streets, and the strategic use of subgoals. We discuss: (i) how these findings relate to other studies examining spatial learning, (ii) how the learning compares with taxi drivers in other cities, (iii) why the knowledge is still required and trained when GPS aided navigation systems exist, and (iv) how these methods and techniques might benefit the general population in spatial learning.

    Research based studies of spatial navigation have employed a variety of methods to train participants learning unfamiliar environments. These include instructed learning of paths (e.g., Brunec et al., 2017; Meilinger et al., 2008; Meilinger, Frankenstein, & Bülthoff, 2014; Meilinger, Riecke, & Bülthoff, 2014; Wiener et al., 2013), learning from cartographic maps (e.g., Coutrot et al., 2018, 2019; Grison et al., 2017; Hölscher et al., 2006, 2009), landmark-based navigation (e.g., Astur et al., 2005; Newman et al., 2007; Wiener et al., 2004, 2012, 2013; Wiener & Mallot, 2003), exploration of the environment without a map (e.g., de Cothi et al., 2020; Hartley et al., 2003; Spiers, Burgess, Hartley, et al., 2001; Spiers, Burgess, Maguire, et al., 2001) or a combination of map study with in situ exploration (e.g., Javadi et al., 2017; Javadi, Patai, Marin-Garcia, Margois, et al., 2019; Javadi, Patai, Marin-Garcia, Margolis, et al., 2019; Newman et al., 2007; Patai et al., 2019; Spriggs et al., 2018; Warren et al., 2017; Wiener et al., 2004; Wiener & Mallot, 2003). The general assumption is that the method used for learning is efficient, or a standard way of learning the environment. Here we found that for London taxi drivers the training is significantly more intensive and elaborate than any of these studies, which relates to the dramatically increased demands of learning 26,000 streets and thousands of points of interest.

    Several methods for learning, such as guided turn-based navigation (e.g., Wiener et al., 2013), have not found an application in the training phase of London taxi drivers. The absence of this approach might be explained through the advantage of in situ experience, understanding the changes with lighting over day time and the very regular changes to the environment (e.g., temporary road closures, name changes of hotels or restaurants, and temporary events). Indeed, being able to adapt to these changes and being aware of some of the temporary events are considered essential knowledge, especially at later stages of the training process.

    Successfully recalling mental images of locations, retrieving specific street names and judicious uses of subgoal planning were described as key to being a London taxi driver. These observations help to explain results of by Spiers and Maguire (2008) where London taxi drivers were asked to recall their thoughts watching video replay of their navigation of a highly detailed virtual reality simulation of London. London taxi drivers often reported sequential planning to subgoals along the route, comparison of route alternatives or mental visualizations of places and route sequences. Many taxi drivers reported “picturing the destination,” planning with a bird’s eye view, and “filling-in” the plan as they navigated, which indicate a use of mental visualization as trained through the Knowledge. We found teachers and examiners claim to know when students “see the points” as they actively visualize origins and destinations as part of their planning process. It may be that trainee taxi drivers need some ability with mental imagery to succeed in the train process. Not all trainees will pass the examination process (Woollett & Maguire, 2011). The ability to use spatial visualization strategies has been found to differ between individuals and vary with age and experience (Salthouse et al., 1990), education levels or gender differences (e.g., Coluccia & Louse, 2004; Fennema & Sherman, 1977; Moffat et al., 1998; Montello et al., 1999; Wolbers & Hegarty, 2010). There is also evidence that certain spatial visualization skills can be improved through training (Sorby, 2009). In our study we found that it was expected that the visualization improves with the training. Further investigation of the visualization process in novice trainees and expert drivers would be useful and may relate to the changes in the hippocampus observed in those that past the exam to obtain a license (Woollett & Maguire, 2011). The multifaceted learning approach reported here may relate to why changes in gray matter density have consistently been observed in taxi drivers.

    Further evidenced use of mental simulation during navigation was found in the way taxi drivers are required to call out the runs in the exam by using instructions and phrases such as “forward,” “left/right into,” and “comply” (traffic rules). These provide an egocentric description of movement through London. Conversely, during the early stages of the Knowledge training, the planning process is reported to rely on an allocentric reference frame by studying maps to train students on planning shortest paths. At later stages, as experience is gained from planning runs and through in situ visits to locations, the aim is to build an automatic awareness of the direction of travel or a particular route. This is consistent with the reports that experienced taxi drivers very rapidly determined the direction to a requested destination (Spiers & Maguire, 2006a, 2008).

    We found that the examination process appears to provide a layered approach to learning the London street network. There is an initial focus on testing the Blue Book routes (runs) or routes along main arterial roads (i.e., “oranges and lemons”) and only at later stages are minor roads integrated into the assessments. However, we found the actual learning process requires students to learn minor roads in the quarter-miles from the beginning (i.e., with the first run). This differs from the requirements in other cities, such as Paris, where drivers have to demonstrate knowledge of a limited number of major points of interest, as well as predefined major routes. There, taxi drivers are expected to expand their knowledge to the minor street network through experience while working as a taxi driver (Préfecture de Police, Démarches, & Services, 2020; Skok, 2004). Similar to the “oranges and lemons” of the London street network, the Parisian street network covers the city in two layers: The base network, an uneven grid-like pattern that allows travel on major roads, helps to reduce traffic on the secondary network, a network of minor streets (Chase, 1982; Pailhous, 1969, 1970, 1984). For Parisian taxi drivers, such a selective learning of the base network was found to be also reflected in their mental representation of the street network in form of these two layers (Pailhous, 1969, 1970, 1984). In contrast to London taxi drivers, Parisian taxi drivers’ awareness of the secondary network only grows and becomes more efficient and optimal through experience rather than in the training and is almost nonexistent at the beginning of their career (Chase, 1982; Giraudo & Peruch, 1988, 1988b; Peruch et al., 1989).

    The approach that London has taken to train and test their taxi drivers on the Knowledge as described above, is historically motivated and has been retained over centuries since its implementation, only allowing for adaptations and improvements. This concept of learning all possible points, their locations, the street names and how to flexibly plan routes and adjust to specific requirements is globally unique. In contrast, other cities, such as Paris (Préfecture de Police, Démarches, & Services, 2020) or Madrid (Federación Profesional del Taxi de Madrid: Departamento de Formación, 2010; Skok & Martinez, 2010), often only require applicants of the trait to learn the major grid of the street network (i.e., the base network) and expect the knowledge of the minor street network (i.e., the secondary network) to be obtained through experience. Instead, taxi drivers are also required to demonstrate knowledge on other trade related areas, such as knowledge related to driving a car, professional regulations, safety and business management, a language test (Skok, 2004), fares and legislations (Skok & Martinez, 2010). Considering these alternative qualification requirements for Paris or Madrid, the London qualification scheme, that relies on a thorough knowledge of London streets, can be questioned as regards to its adequacy and value, in times of GPS systems that can guide navigation.

    Given that GPS in general successfully supports navigation and thus is omnipresent in daily life, it remains a key question as to why London taxi drivers continue to rely on their own abilities to plan routes. We found that this to be their sense of accomplishment of a difficult, and in this case, almost impossible task. They often find pride in their ability to master challenging navigation tasks in a complex city only by using their spatial memory independently from external devices that could be sources of mistakes (McKinlay, 2016). This ability to flexibly navigate beyond a base network of major streets, enables London taxi drivers to rapidly follow their route plan even to points in the secondary network, quickly adapt to any changes on-route due to customer preferences or traffic flow (i.e., congestion or road closures) and avoid errors that might result from incorrect instructions given by passengers (e.g., Lordan, 2018). For instance, they might confuse Chelsea’s buzzing shopping mile, King’s Road, with the quiet King Street near St James’s Park, Westminster. These adaptations, that taxi drivers can make instantly, might even outperform GPS systems that sometimes need manual adjustments and additional information input to get to a similar result. In contrast to London, it takes taxi drivers in Paris, Madrid and other cities years to acquire this type of knowledge in their cities and in the end, they might never achieve a similar, highly accurate knowledge of their cities as some areas might be less frequently traveled. Moreover, their experience to filling the gaps in their knowledge might strongly rely on their use of GPS devices, which have been found to impair spatial learning (e.g., Ishikawa et al., 2008) and interfere with spatial navigation (Johnson et al., 2008; McKinlay, 2016). These methods of training taxi drivers might be less efficient and it is thus not surprising that there have been requests from taxi trades of cities like Tokyo, asking London Knowledge teachers to develop a similar method for their taxi schools (interview with K.T., Appendix S1).

    How might the Knowledge training process be improved? The Knowledge in its current form, based on the 320 Blue Book runs, has been in place for about two decades, but the study methods have remained the same over many more decades. However, there has been a tendency of involving new technologies and creating online resources, such as apps that can hold and test students on the Blue Book runs. By providing the first plot of all the blue book runs we were able to identify regions in the road network that were poorly sampled and it may be possible for this information to be useful should new routes be required in updating the runs.

    It is possible that a database of videos of Blue Book runs would be useful. However, updating this database is a challenge due to the regular change in London’s appearance and layout. Online maps and applications could provide a platform that could be regularly updated. Here, the focus could be on Knowledge requirements that allow general contribution, similar to OpenStreetMaps (n.d.), and individual modification, as with Google My Maps (Google Maps. My Maps, n.d.), to support the individual learning process. Such a platform could include updates on points asked in recent appearances that students use for preparation or an option to train with and challenge other students, as well as their call-over partner. Past research has shown it is possible to probe navigation effectively using Google Street View (Brunec et al., 2018, 2019; Patai et al., 2019). However, these platforms would not be able to replace the social situations that students find themselves in at Knowledge schools and when practicing face to face with their call-over partners. These social interactions also have a psychologically motivating, supportive effect. Neither can these digital maps overcome some obvious visual limitations due to screen sizes. These will not allow for a similar view of the “bigger picture” that a wallpaper map is able to convey.

    How might the learning process described here be exploited for the general population to learn new places, or emergency workers, or those with wayfinding difficulties caused by a clinical condition? A number of recommendations could be made. One is the focus on street-names. Much navigation in cities can be based on landmarks and the rough knowledge of the area. Recent work has explored how navigation could be improved by enhanced acquisition of landmark knowledge using audio information (Gramann et al., 2017; Wunderlich et al., 2020; Wunderlich & Gramann, 2019). While landmark acquisition is important for navigation (points of interest for the taxi drivers), our analysis of how London taxi drivers learn shows the extra value of learning street names. Learning the street names makes it possible to plan precise paths through the network of streets. This allows for flexible planning that goes beyond chaining sets of landmarks together. This learning can be enhanced by a focus on methods to draw out the street names such as acronyms and rhymes (“East to West Embankment Best”). The memory techniques used in Knowledge schools to memorize sequences of streets such as the “dumbbell method” that links small areas through routes, or mental visualizations of familiar places could initiate new ways of displaying spatial information in maps or GPS devices. A focus on mental imagery is also worth considering in future research to explore how this may benefit new navigation. Finally, teaching a method for efficient planning of longer routes would be a benefit. More research will be required to fully explore these possibilities and understand how they may be integrated with other technology for efficient spatial learning. In such research understanding the order in which information and training is provided would be an important step. Trainee taxi drivers do not have a set order by which they use the different methods, other than the prescribed order in which they learn the blue book runs. Future route guidance systems for learning a new environment might exploit the approach of integrating a set of routes as taxi drivers do here.

    Another question arising is how might these discoveries be useful for researchers seeking to build efficient artificial intelligence systems capable of rapid learning and planning? Recent work has explored methods for learning environments and navigating them from street view data or video (Hermann et al., 2020; Mirowski et al., 2016; Xu et al., 2021). The main discoveries here that may be relevant are (1) the organized learning of a set of interconnected routes that allows for flexible planning in the future, (2) the focus on learning a route and then exploring the points at the start and end and then connecting the route to other routes, and (3) learning to create subgoals during the planning process. These approaches to learning may extend not just to improving guidance for how humans learn but for considering the construction of agents that optimally learn structures in the layout of a large city network.

    In conclusion, studying the training process of licensed London taxi drivers has provided a useful opportunity to better understand learning strategies and methods that efficiently support the learning process of a large and complex environment. In this observational report, information was gathered on licensed London taxi drivers, who acquire unique spatial knowledge to navigate an enormous street network independently from external support, such as GPS. Forming such mental representations of real-world spaces is essential for the job they perform. Essential strategies include memory techniques, map-based strategies using tactical subgoal selection to improve planning efficiency and mental visualization of places and routes based on experiences. Further research is needed to understand the mental representation that results from these training methods and how this representation affects navigation related planning in brain circuits including the hippocampus.

    #Taxi #Neurologie #Hirnforschung

  • Risk factors and abnormal cerebrospinal fluid associate with cognitive symptoms after mild #COVID‐19 - Apple - - Annals of Clinical and Translational Neurology - Wiley Online Library https://onlinelibrary.wiley.com/doi/10.1002/acn3.51498

    Des anomalies du liquide céphalo-rachidien en faveur d’une inflammation découverts chez les patients #post-Covid léger, en sachant qu’ils avaient au départ plus de facteurs de risque de perturbation des fonctions cognitives ; les auteurs affirment qu’ils ne peuvent exclure l’existence de ces anomalies du LCR avant le Covid-19. Dans le cas contraire cela démontrerait, via l’existence d’un processus immuno-inflammatoire, l’organicité du #covid-long.

    Cognitive post-acute sequelae of #SARS-CoV-2 (PASC) can occur after mild COVID-19. Detailed clinical characterizations may inform pathogenesis.

    We evaluated 22 adults reporting cognitive PASC and 10 not reporting cognitive symptoms after mild SARS-CoV-2 infection through structured interviews, neuropsychological testing, and optional cerebrospinal fluid (CSF) evaluations (53%).

    Delayed onset of cognitive PASC occurred in 43% and associated with younger age.

    Cognitive PASC participants had a higher number of pre-existing cognitive risk factors (2.5 vs. 0; p = 0.03) and higher proportion with abnormal CSF findings (77% vs. 0%; p = 0.01) versus controls.

    Cognitive risk factors and immunologic mechanisms may contribute to cognitive PASC pathogenesis.

    Covid-19 et “brouillard cérébral” : des anomalies du liquide céphalo-rachidien pourraient expliquer cette séquelle
    https://news.dayfr.com/nouvelles/264545.html

    • Investigations supplémentaires de la même équipe qui renforcent la théorie Immuno-inflammatoire.

      More Evidence COVID ’Brain Fog’ Is Biologically Based
      https://www.medscape.com/viewarticle/971408

      Researchers found elevated levels of CSF immune activation and immunovascular markers in individuals with cognitive post-acute sequelae of SARS-CoV-2 infection (PASC). Patients whose cognitive symptoms developed during the acute phase of COVID-19 had the highest levels of brain inflammation.

  • COVID-19 isn’t just a cold

    This thread is long, and hard to read - not just because of the technical language, but because “it’s just a cold,” “the vaccine protects me,” and “at least our children are safe” are comforting fairy tales.

    I wish they were true.

    This virus is like measles and polio: a virus with long-term impact.

    Even a “mild” case in a vaccinated individual can lead to long-term issues which cause a measurable uptick in all-cause mortality in the first 6 months, and get progressively worse with time.

    SARS-CoV-2 is a systemic disease which has multiple avenues to induce long-term impairment, attacking the brain, heart, lungs, blood, testes, colon, liver, and lymph nodes, causing persistent symptoms in more than half of patients by six months out.

    The CoVHORT study, limited to non-hospitalized patients in Arizona - “mild” cases - found a 68% prevalence of 1 or more Covid symptom after 30 days, rising to 77% after 60 days. (We will explore an explanation later).

    https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0254347

    To prevent panic, @CDCgov has been using the term “mild” to describe any case of COVID-19 which does not require hospitalization.

    #LongCOVID, however, is anything but “mild”, as the replies to @ahandvanish’s thread make heartbreakingly clear.

    https://twitter.com/ahandvanish/status/1423017721822949376

    A University of Washington study found that 30% of Covid patients had reduced Health Related Quality of Life, with 8% of the patients limited in routine daily activities.

    https://jamanetwork.com/journals/jamanetworkopen/fullarticle/2776560

    These patients are struggling with real physical issues.

    This Yale study demonstrated reduced aerobic capacity, oxygen extraction. and ventilatory efficiency in “mild” COVID patients even after recovery from their acute infection.

    https://journal.chestnet.org/article/S0012-3692(21)03635-7/abstract

    It’s also a vascular disease. A Columbia study found “significantly altered lipid metabolism” during acute disease, which “suggests a significant impact of SARS-CoV-2 infection on red blood cell structural membrane homeostasis.”

    https://pubs.acs.org/doi/full/10.1021/acs.jproteome.0c00606

    Oregon Health & Science University found that “symptomatic or asymptomatic SARS-CoV-2 infection is associated with increased risk of [fatal] cardiovascular outcomes and has causal effect on all-cause mortality.”

    https://www.medrxiv.org/content/10.1101/2021.12.27.21268448v1

    Let’s review: SARS-CoV-2 causes an increase in mortality and reduced aerobic capacity even after asymptomatic cases, and remains in the body months after the initial infection.

    No, it’s not “just a cold.”

    But we’re just getting started. It gets worse. Way worse.

    The virus appears to be able to cross the blood-brain barrier and cause significant neurological damage.

    The ability of the spike protein to cross the blood-brain barrier was demonstrated in mice at the University of Washington.

    https://pubmed.ncbi.nlm.nih.gov/33328624

    A joint study by Stanford and Germany’s Saarland University found inflammation in the brain, and “show[ed] that peripheral T cells infiltrate the parenchyma.”

    https://www.nature.com/articles/s41586-021-03710-0

    For context, the parenchyma is the functional tissue of the brain - your neurons and glial cells. It isn’t normally where T cells are:

    “In the brain of healthy individuals, T cells are only present sporadically in the parenchyma.”

    https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6751344

    The Stanford study also discovered microglia and astrocytes which displayed “features .. that have previously been reported in human neurodegenerative disease.”

    Post-mortem neuropathology in Hamburg, Germany found “Infiltration by cytotoxic T lymphocytes .. in the brainstem and cerebellum, [with] meningeal cytotoxic T lymphocyte infiltration seen in 79% [of] patients.”

    https://www.sciencedirect.com/science/article/pii/S1474442220303082#

    An autopsy of a 14-month-old at Brazil’s Federal University of Rio de Janeiro found that “The brain exhibited severe atrophy and neuronal loss.”

    https://www.thelancet.com/journals/lanam/article/PIIS2667-193X(21)00038-7/abstract

    The UK Biobank COVID-19 re-imaging study compared before and after images of “mild” cases, and found “pronounced reduction in grey matter” and an “increase of diffusion indices, a marker of tissue damage” in specific regions of the brain.

    https://www.medrxiv.org/content/10.1101/2021.06.11.21258690v3

    That seems to explain why there is evidence of persistent cognitive deficits in people who have recovered from SARS-CoV2 infection in Great Britain.

    https://www.thelancet.com/journals/eclinm/article/PIIS2589-5370(21)00324-2/fulltext

    Also worrisome are syncytia, where an infected cell extrudes its own spike protein and takes over its neighbors, fusing together to create a large multi-nucleus cell.

    Delta’s particular aptitude for this may partly explain its severity.

    https://www.news-medical.net/news/20211006/SARS-CoV-2-emerging-variants-display-enhanced-syncytia-formation.aspx

    And, yes, syncytia formation can happen in neurons. For our visual learners, here is video of syncytia and apoptosis (cell death) in a (bat) brain:

    https://twitter.com/nytimes/status/1429604323047133185

    Luckily, the University of Glasgow found that “Whilst Delta is optimised for fusion at the cell surface, Omicron .. achieves entry through endosomal fusion. This switch .. offers [an] explanation for [its] reduced syncytia formation.”

    https://www.gla.ac.uk/media/Media_829360_smxx.pdf

    If you’re interested in further understanding the host of neurological symptoms and the mechanisms underlying them, this Nature article is an excellent primer:

    https://www.nature.com/articles/d41586-021-01693-6

    Let’s review: SARS-CoV-2 can cross the blood-brain barrier, and even “mild” or asymptomatic cases can cause loss of neurons and persistent cognitive defects?

    That doesn’t sound “mild” to me; I like my brain.

    But it keeps getting worse.

    The brain isn’t the only organ affected: Testicular pathology has found evidence of “SARS-Cov-2 antigen in Leydig cells, Sertoli cells, spermatogonia, and fibroblasts” in post-morten examination.

    https://onlinelibrary.wiley.com/doi/10.1111/andr.13073

    A Duke pathology study in Singapore “detected SARS-CoV-2 .. in the colon, appendix, ileum, haemorrhoid, liver, gallbladder and lymph nodes .. suggesting widespread multiorgan involvement of the viral infection.”

    https://gut.bmj.com/content/gutjnl/early/2021/06/13/gutjnl-2021-324280.full.pdf#page1

    The same study found “evidence of residual virus in .. tissues during the convalescent phase, up to 6 months after recovery, in a non-postmortem setting,” suggesting that “a negative swab result might not necessarily indicate complete viral clearance from the body.”

    It also causes microclots: “Fibrin(ogen) amyloid microclots and platelet hyperactivation [were] observed in [Long COVID] patients,” in this work by Stellenbosch University of South Africa, which also explored potential treatments.

    https://www.researchsquare.com/article/rs-1205453/v1

    Let’s review - SARS-CoV2 attacks our veins, blood, heart, brain, testes, colon, appendix, liver, gallbladder and lymph nodes?

    No, it’s not “just a respiratory virus”.

    Not even close.

    There are also immunology implications:

    Johns Hopkins’ @fitterhappierAJ found that “CD95-mediated [T cell] differentiation and death may be advancing T cells to greater effector acquisition, fewer numbers, and immune dysregulation.”

    https://www.frontiersin.org/articles/10.3389/fimmu.2020.600405/full

    This Chinese military study of the initial Wuhan outbreak concluded that “T cell counts are reduced significantly in COVID-19 patients, and the surviving T cells appear functionally exhausted.”

    https://www.frontiersin.org/articles/10.3389/fimmu.2020.00827/full

    The study authors went on to warn, “Non-ICU patients with total T cells counts lower than 800/μL may still require urgent intervention, even in the immediate absence of more severe symptoms due to a high risk for further deterioration in condition.”

    Those warnings have since been proven by discovery of autoimmune features.

    This study of 177 Los Angeles healthcare workers found that all had persistent self-attacking antibodies at least 6 months after infection, regardless of illness severity.

    https://translational-medicine.biomedcentral.com/articles/10.1186/s12967-021-03184-8

    In the words of T-cell immunologist Dr. Leonardi (@fitterhappierAJ)

    https://twitter.com/fitterhappierAJ/status/1475227891034210314

    This Kaiser Permanente S.California study found that, although natural immunity provided substantial protection against reinfection, “Hospitalization was more common at suspected reinfection (11.4%) than initial infection (5.4%).”

    https://www.clinicalmicrobiologyandinfection.com/article/S1198-743X(21)00422-5/abstract

    In fact, remember those cytokine storms? It turns out that even that even severe COVID-19 may not be a viral pneumonia, but an autoimmune attack of the lung.

    https://twitter.com/DaveLeeERMD/status/1413816137570205697

    Let’s review - it’s autoimmune: SARS-CoV2 convinces our body to attack itself.

    That might explain why the Arizona study saw more symptoms after 60 days than at 30 days.

    It also means “natural immunity” isn’t something to count on.

    But if you’re counting on vaccination to feel safe, there’s even more bad news.

    A study of Israel healthcare workers found that “Most breakthrough cases were mild or asymptomatic, although 19% had persistent symptoms (>6 weeks).”

    https://www.nejm.org/doi/full/10.1056/NEJMoa2109072

    Perhaps the most terrifying study is from Oxford University, which examined the effects of vaccination on long COVID symptoms, because not only did it find that vaccination does not protect against Long Covid, but that Long Covid symptoms become more likely over time:

    In the words of the study authors, “vaccination does not appear to be protective against .. long-COVID features, arrhythmia, joint pain, type 2 diabetes, liver disease, sleep disorders, and mood and anxiety disorders."

    https://www.medrxiv.org/content/10.1101/2021.10.26.21265508v3

    “The narrow confidence intervals rule out the possibility that these negative findings are merely a result of lack of statistical power. The inclusion of death in a composite endpoint with these outcomes rules out survivorship bias as an explanation.”

    That finding contradicts the findings from the UK Zoe app study, which found that “the odds of having symptoms for 28 days or more after post-vaccination infection were approximately halved by having two vaccine doses.”

    https://www.thelancet.com/journals/laninf/article/PIIS1473-3099(21)00460-6/fulltext

    However, the structural limitations of the Zoe study - discussed in detail by @dgurdasani1 in the linked thread - may explain why it is particularly susceptible to bias against detecting a progressive degenerative condition.

    https://twitter.com/dgurdasani1/status/1422802883632893952

    Let’s review: we’ve now shown that vaccination appears to offer no protection against the long-term autoimmune effects of COVID - which we know causes T-cells to attack the lungs, and can cause T-cells to enter the brain.

    Why are we letting this run wild?!

    You may think, at least our children are safe.

    They are not.

    The CDC is tracking incidence of a life-threatening multisystem inflammatory syndrome in children following an acute COVID-19 infection, with 5,973 cases as of November 30, 2021.

    https://covid.cdc.gov/covid-data-tracker/#mis-national-surveillance

    Children also suffer from Long Covid.

    “More than half [of pediatric patients] reported at least one persisting symptom even 120 days [after] COVID-19, with 42.6% impaired by these symptoms during daily activities.”

    https://www.medrxiv.org/content/10.1101/2021.01.23.21250375v1

    Focusing exclusively on pediatric deaths is vastly underselling the danger to children.

    Anybody telling you that SARS-CoV-2 is “just a cold” or “safe for children” is lying to you. They are ignoring the massive body of research that indicates that it is anything but.

    Since our vaccines don’t stop transmission, and don’t appear to stop long-term illness, a “vaccination only” strategy is not going to be sufficient to prevent mass disability.

    This isn’t something we want to expose our kids to.

    Let’s review: even for children and vaccinated people, a “mild” case of COVID causes symptoms that point to long-term autoimmune issues, potentially causing our own body to attack our brains, hearts, and lungs.

    Scared? Good.

    Now we’re ready to get to work.

    “This is the virus most Americans don’t know. We were born into a world where a virus was a thing you got over in a few weeks.” — @sgeekfemale, to whom I owe a “thank you” for her editing assistance on this thread.

    The viruses they know in Kolkota, Kinshasa, and Wuhan are different: dangerous, lethal beasts.

    Since 2020, the field has been leveled. Willing or no, we’ve rejoined the rest of the world. We are, all of us, vulnerable in the face of an unfamiliar threat.

    The first step is acknowledging the threat.

    That means acknowledging that our response has been woefully inadequate, and that is going to be uncomfortable.

    The thought that we could have prevented this, but didn’t, will feel unconscionable to some.

    The knowledge that we could start preventing this today, but haven’t, is unconscionable to me.

    https://twitter.com/IanRicksecker/status/1426584062827712512

    It’s time to quit pretending “it’s just a cold,” or that there is some magical law of viruses that will make it evolve to an acceptable level.

    There’s no such law of evolution, just wishful thinking, easily disproven by:

    Ebola. Smallpox. Marburg. Polio. Malaria.

    There are things we can do to reduce our individual risk, immediately.

    That starts with wearing a good mask - an N95 or better - and choosing to avoid things like indoor dining and capacity-crowd stadiums.

    https://twitter.com/LazarusLong13/status/1440398111445188618

    This isn’t a choice of “individual freedom” vs “public health”. It isn’t “authoritarian” to ask people to change their behavior in order to save lives.

    https://www.thehastingscenter.org/individual-freedom-or-public-health-a-false-choice-in-the-covid-e

    As Arnold @Schwarzenegger argued so convincingly in @TheAtlantic, it is our patriotic duty:

    “Generations of Americans made incredible sacrifices, and we’re going to throw fits about putting a mask over our mouth and nose?”

    https://www.theatlantic.com/ideas/archive/2021/08/schwarzenegger-schmuck-mask-vaccines/619746

    “Those who would sacrifice essential liberty for a little bit of temporary security deserve neither!”

    What is the essential liberty here?

    It is the liberty to be able to breathe clean air, to live our lives without infecting our families and risking disability.

    To get there, we need to listen to our epidemiologists and public health experts - the ones who have been trying to tell us this since the beginning:

    https://twitter.com/EpiEllie/status/1444088804961304581

    It is time — long past time — to give up on the lazy fantasy that we can let it become “endemic” and “uncontrolled” because it inconveniences us, because it is killing our political opponents, or because the virus will magically evolve to some “mild” state.

    It is time — long past time — to begin controlling this virus.

    It’s possible: Japan, New Zealand, and South Korea have done it.

    It saves lives:

    It’s even good for the economy:

    “Globally, economic contraction and growth closely mirror increases and decreases in COVID-19 cases... Public health strategies that reduce SARS-CoV-2 transmission also safeguard the economy.”

    https://bmcinfectdis.biomedcentral.com/articles/10.1186/s12879-021-06357-4

    It’s time.

    https://threadreaderapp.com/thread/1478611650760437765.html

    sur twitter :
    https://twitter.com/IanRicksecker/status/1478611650760437765

    #long-covid #covid-19 #coronavirus #covid_long #long_covid #séquelles #post-covid

  • #SARS‐CoV‐2 virulence evolution: Avirulence theory, immunity and trade‐offs - Alizon - - Journal of Evolutionary Biology - Wiley Online Library
    https://onlinelibrary.wiley.com/doi/10.1111/jeb.13896

    In the long run, immune escape strategies may not be viable for coronaviruses because they impose too many constraints on their genomes (Belshaw et al., 2008). Such reasoning largely rests on our knowledge of the current seasonal coronaviruses, for which large pandemics of immune escape mutants have not been recorded. However, recent results from a time shift experiment conducted using human serum collected from 1985 and 1990 and synthesized spike proteins of the seasonal alphacoronavirus 229E from 1984 to 2016 found that our immune system appears to be less efficient at recognizing ‘future’ coronaviruses (Eguia et al., 2021). This would mean that regular reinfections by seasonal coronaviruses may not just be related to their ability to infect URT, where the immune response is limited, but could also depend on antigenic evolution of the viral spike. Furthermore, an important lesson from this pandemic is that extreme care should be taken before comparing SARS-CoV-2 to other viruses, even human coronaviruses. Indeed, this has led to underestimating the transmission before symptoms onset, the airborne transmission and even the magnitude of the pandemic. One of the most recent seasonal coronaviruses is thought to have emerged in the 1950s (Forni et al., 2017). As suggested by Figure 1b, even though half a century ago the age pyramids were different in many countries, the IFR of a coronavirus with a virulence pattern similar to SARS-CoV-2 would not have gone unnoticed, although the baseline immunity in the population to viral infections could have been higher at the time due to higher exposition to infectious diseases. This suggests that the virulence of the new virus, which is lower than SARS-CoV and MERS, with increased transmission before symptoms, but higher than the seasonal coronaviruses, is the worst in terms of population mortality. Again, basing our strategies on immune escape patterns from known coronaviruses can be extremely hazardous.

    The high virulence of SARS-CoV-2 and its evolution makes it essential to closely monitor this trait. Beyond the definition issues raised in the introduction, a major difficulty for this resides in the proportion of asymptomatic or paucisymptomatic infections, meaning that the IFR is much more difficult to measure than the CFR. To minimize the biases in virulence estimation, the random testing strategy implemented in countries such as the UK seems ideal because it allows controlling for the proportion of variants (Challen et al., 2021; Davies, Jarvis, et al., 2021). International coordination for such random testing appears to be particularly urgent, especially in the context of vaccination (Kennedy & Read, 2020).

    On a more positive note, the successful implementation of RNA vaccines does change the dark picture painted by immune escape risk. Indeed, these vaccines theoretically have the potential to follow the coevolutionary race with the virus, at least whereas its genetic diversity remains limited (Dearlove et al., 2020), and this could prove decisive, given the evolutionary rates observed so far. However, we also know that virulence-blocking vaccines tend to select for strains that are more virulent in nonvaccinated hosts (Gandon et al., 2001). More than ever, we need to monitor virus evolution to avoid an arms race between SARS-CoV-2 and public health policies (Kennedy & Read, 2020; Van Baalen, 1998).

  • The #COVID‐19 pandemic is a global indoor air crisis that should lead to change: A message commemorating 30 years of Indoor Air - Li - 2021 - Indoor Air - Wiley Online Library
    https://onlinelibrary.wiley.com/doi/10.1111/ina.12928

    Article très riche, à lire de bout en bout.

    In 1969, the American author Michael Crichton wrote in his novel The Andromeda Strain about the effort to contain a deadly extraterrestial pathogen, “A crisis is the sum of intuition and blind spots, a blend of facts noted and facts ignored.” What are the blind spots and the facts ignored in the COVID-19 pandemic?

    […]

    The dominant view in public health toward fearful airborne transmission fails to account for the power of #dilution. Sufficient dilution of airborne infectious aerosols is the key to reducing inhalation transmission, both at close range and at room scale. Sufficient ventilation and filtration reduce infection to be as low as outdoors. A paradigm shift10 is needed toward a new ventilation standard accounting for managing infection risk. This goal should also apply to other respiratory viruses, such as influenza and the common cold.

    #sars-cov2 #aérosols #transmission_aéroportée

  • CRISE CORONAVIRALE

    Entretien avec le toxicologue Jean-Paul Bourdineaud, professeur de biochimie et toxicologie environnementales à l’Université de Bordeaux, membre du conseil scientifique du CRIIGEN.

    1) Bonjour Jean-Paul Bourdineaud, pouvez-vous vous présenter pour mes lecteurs ? Quels sont votre formation, votre profession et votre domaine de compétence scientifique ? Avez-vous par ailleurs des conflits d’intérêts, quels qu’ils soient ?

    JP.B. — De formation, je suis ingénieur chimiste, je possède un DEA (maintenant appelé mastère) de chimie organique, puis j’ai bifurqué vers la biologie et je suis titulaire d’un doctorat de biologie moléculaire et cellulaire.
    Avant de débuter ma carrière d’universitaire, j’ai travaillé pendant trois ans en tant qu’ingénieur de recherche dans l’industrie de la parfumerie chez Givaudan, une filiale de Roche. Désormais, je suis professeur à l’Université de Bordeaux, où j’enseigne la microbiologie, la biochimie et la toxicologie environnementale. Mon domaine de compétence est celui de la microbiologie, de la biochimie et de l’écotoxicologie. Je suis éditeur associé du Journal of Toxicological Sciences et de l’International Journal of Molecular Sciences, section Molecular Role of Xenobiotics. Mes travaux scientifiques et ceux de mes collaborateurs sont référencés dans la base de données National Center for Biotechnology Information et 85 articles apparaissent, et pour ceux qui connaissent la signification des critères quantitatifs, mon indice h collecté par le Web of Science est égal à 29 (indice lié à la fréquence avec laquelle nos travaux sont cités par les autres chercheurs, et donc leur rayonnement). Il ne s’agit pas de vanité de ma part, mais je suis contraint de devoir le souligner car mon expertise en sciences biochimiques et microbiologiques a été mise en cause après la publication de ma lettre à Charlie Hebdo, et entre autres, par Antonio Fischetti, le référent scientifique de Charlie Hebdo.

    https://criigen.org/wp-content/uploads/2021/08/2021-07-29_Lettre-a-Charlie-Hebdo-juillet-2021-02_D.pdf

    À titre de comparaison, les indices h de Didier Raoult (Institut Hospitalier Universitaire – IHU - de Marseille), Christian Perronne (hôpital de Garches), Karine Lacombe (hôpital Saint-Antoine), et Benjamin Davido (hôpital de Garches) sont égaux à 147, 37, 28, et 12, respectivement. Je cite ces deux derniers médecins car ils ont été très médiatisés et sont des anti-raoultiens virulents et pugnaces.
    J’ajoute que c’est aussi le citoyen éclairé (parce que possédant les connaissances scientifiques nécessaires) qui parle, et que mes propos n’engagent en rien l’Université de Bordeaux, ni même le CRIIGEN dont je suis membre du conseil scientifique, car ces entités se veulent apolitiques et neutres. Or, intervenir dans le champ de l’imposition du passe sanitaire et de la vaccination de masse est un acte éminemment politique puisque ces mesures sont elles-mêmes avant tout politiques et non médicales.

    Le but de mes recherches est de comprendre comment les organismes réagissent aux contaminants environnementaux, en termes de stratégies moléculaires utilisées pour s’adapter et éliminer les polluants. Mon approche rompt d’avec celle de la toxicologie traditionnelle, laquelle se concentre sur une exposition aiguë à fortes doses, proche de la DL50 (dose qui provoque 50 % de létalité), et donc non pertinente d’un point de vue environnemental. Je focalise au contraire sur les doses qui sont celles rencontrées dans l’environnement et auxquelles sont confrontés les organismes animaux et humains. Par exemple, j’ai pu démontrer l’impact nocif des nanoparticules métalliques sur plusieurs espèces animales aquatiques et terrestres à des doses environnementales. Un thème principal qui m’occupe depuis plusieurs années concerne les contaminations au mercure par consommation de poisson et l’influence des différentes espèces chimiques du mercure sur la santé.

    Enfin, pour répondre à votre dernière question, contrairement à quantités de médecins présents sur les plateaux de télévision depuis le début de la crise coronavirale, je ne présente aucun « conflit d’intérêts », c’est-à-dire que je ne suis pas rémunéré ni gratifié en nature ou en honneur pour quelque activité que ce soit (conseil, expertise, travaux de recherche) par des intérêts privés, et je pense notamment aux entreprises pharmaceutiques. Je suis, comme vous, un serviteur de l’État et de la République, et je ne mange pas ni ne m’abreuve à plusieurs gamelles.

    2) Merci. Comment en êtes-vous arrivé à vous intéresser aux traitements contre la Covid, à la vaccination anti-SARS-CoV-2, au passe sanitaire, et à rendre publique votre opinion sur le sujet ?

    JP.B. — Vous avez bien compris que j’œuvrais en tant que chercheur dans le domaine des sciences environnementales. De nombreuses épidémies virales sont liées à la destruction des habitats des animaux porteurs des virus émergents, par la déforestation, l’urbanisation et l’industrialisation qui accompagnent l’accroissement démographique humain et la quête obligatoire en système capitaliste de la croissance économique, laquelle dans les pays occidentaux est liée pour presque moitié à l’accroissement des populations, comme l’a montré Thomas Picketty dans son ouvrage Le capital au XXIe siècle.
https://www.seuil.com/ouvrage/le-capital-au-xxie-siecle-thomas-piketty/9782021082289
Sonia Shah a pointé la responsabilité du désastre environnemental et les dangers de l’élevage industriel dans la survenue d’épidémies, pour certaines terrifiantes telles que celles du virus du Nil occidental et du virus Ebola.

    https://www.monde-diplomatique.fr/2020/03/SHAH/61547

    Mais en tant que toxicologue environnemental, au-delà de la destruction des habitats naturels, c’est la pollution environnementale qui me préoccupe. Et comme l’a rappelé mon collègue Christian Vélot dans votre entretien, le coronavirus SARS-CoV-2 ne fait que porter le coup de grâce final (Christian emploie le mot d’estocade) aux personnes déjà largement diminuées par leurs pathologies chroniques.
https://blogs.mediapart.fr/laurent-mucchielli/blog/080721/covid-19-vaccins-experimentaux-strategie-vaccinale-entretien-avec-ch
Le problème des maladies chroniques dans nos sociétés occidentales est crucial ; l’Organisation Mondiale de la Santé s’en est fait l’écho à plusieurs reprises, et le Conseil Économique Social et Environnemental (CESE) a rappelé dans son rapport livré le 11 juin 2019 que 10,7 millions de personnes bénéficient en France du dispositif des « affections de longue durée », et que l’Assurance Maladie dénombre 20 millions de personnes recevant des soins liés à une pathologie chronique.

    https://www.lecese.fr/sites/default/files/pdf/Avis/2019/2019_14_maladies_chroniques.pdf
    Le CESE écrit que « les évolutions des habitudes et conditions de vie et de travail, les pollutions de l’environnement, jouent un rôle majeur dans l’apparition, le développement et l’aggravation de ces maladies ».

    La pollution atmosphérique est la principale cause de mortalité liée à la pollution environnementale et se traduit par le décès prématuré de millions de personnes chaque année. L’Agence Environnementale Européenne (EEA), dans son rapport sur la qualité de l’air publié en octobre 2017, a estimé le nombre de décès prématurés (avant 65 ans) causés par la pollution de l’air en Europe à 520 400 personnes pour l’année 2014.

    https://www.eea.europa.eu/publications/air-quality-in-europe-2017

    La pollution de l’air se traduit par les pathologies chroniques principales suivantes : infarctus du myocarde (36 %), accidents vasculaires cérébraux (36 %), cancers du poumon (14 %), broncho-pneumopathies chroniques obstructives (8 %), et les infections respiratoires pédiatriques (6 %). On remarquera que de manière similaire aux polluants atmosphériques, le covid-19 dans sa forme grave touche particulièrement les fonctions respiratoires et cardiaques. Les personnes déjà sensibilisées par les polluants atmosphériques avec leur cortège de maladies chroniques associées constitueraient donc des proies vulnérables pour le coronavirus SARS-CoV-2. L’OMS, dans son rapport de 2016 sur la pollution de l’air, estime à 2,97 millions le nombre de morts attribuables à la pollution de l’air dans le monde entier pour la seule année 2012. Il serait déraisonnable de refuser d’admettre que ces pathologies chroniques d’origines environnementales ne fragilisent pas ceux qui en sont affligés après infection par le SARS-CoV-2. La pollution de l’air tue donc annuellement et prématurément plus de citoyens européens que le covid, sans que cela semble émouvoir nos autorités sanitaires.

    J’étais donc déjà attentif et mobilisé lorsque la controverse de l’hydroxychloroquine (HCQ) a éclaté en février 2020. À ma grande stupéfaction, l’HCQ a été classée substance vénéneuse par le directeur général de la santé, Jérôme Salomon, le 13 janvier 2020, juste au début de la pandémie, alors qu’il savait bien que ce médicament venait d’être utilisé avec succès en Chine.
    https://pubmed.ncbi.nlm.nih.gov/32074550https://academic.oup.com/jmcb/article/12/4/249/5814654

    Puis, les médecins courtisans et leurs relais médiatiques l’ont déclarée être un poison violent, cardiotoxique redoutable. Dans le même temps, des médecins stipendiés par Gilead promouvaient le Remdesivir, fabriqué par cet industriel. Or, en tant que toxicologue, j’ai immédiatement compris que l’on nous racontait des bobards (« fake news » dans le jargon des journalistes parisiens). Car précisément, c’est l’inverse : le Remdesivir est très toxique, d’emblée aux doses nécessaires pour obtenir un effet antiviral, alors que l’HCQ est utilisée depuis des décennies sur des personnes elles-mêmes fragilisées par des maladies auto-immunes telles que le lupus érythémateux et les affections rhumatoïdes. D’ailleurs l’OMS a fini par reconnaître la possibilité d’importants effets secondaires du Remdesivir et a déconseillé son utilisation dans le traitement du covid.

    https://www.lemonde.fr/planete/article/2020/11/20/l-oms-deconseille-le-remdesivir-dans-le-traitement-des-malades-du-covid-19-h

    Puis, l’imposition du passe sanitaire est arrivée et ce qui m’a navré et agacé a été le traitement médiatique réservé aux opposants au sésame sanitaire et en particulier aux personnels soignants réfractaires. Dans les médias dominants, nous avons été vilipendés, poussés vers les marges de l’extrême droite, qualifiés d’antisémites, et d’illuminés irrationnels. Puis, Charlie Hebdo a chanté le même refrain, avec le talent satirique qu’on lui connaît. Je suis un ami de Charlie et un abonné. On ne peut pas être en permanence en accord avec ses amis, mais plusieurs unes et articles virulents, et en réalité manquant de discernement (c’est une règle de la caricature et de la satire que je reconnais bien volontiers à Charlie), m’ont suffisamment titillé pour que je décide d’adresser une lettre à Charlie, lui présentant des arguments rationnels et même scientifiques bien étayés. Cette lettre fut envoyée à Charlie le 29 juillet qui m’a répondu le 2 août par la plume de Marika Bret : « Bonjour, merci pour votre message, courrier argumenté qui participe au débat. En vous souhaitant un bel été… » Puis l’association CRIIGEN – qui a pour vocation d’informer le public sur les biotechnologies et le génie génétique – et dans laquelle je suis un membre du conseil scientifique, a décidé de publier et d’héberger ma lettre à Charlie début août. Le CRIIGEN est naturellement fondé à informer le public sur les vaccins, car ceux adoubés et distribués en France sont tous issus du génie génétique.

    Ce fut pour moi une surprise : ma lettre a été remarquée, lue et appréciée par beaucoup (mais pas tous). Des collectifs de lutte anti-passe sanitaire m’ont contacté à la mi-août, et notamment ceux des « Blouses blanches » et des « Citoyens libres des Pyrénées ». Les « Blouses blanches » m’ont dirigé vers le réalisateur Magà Ettori qui procédait à la confection d’un film documentaire sur les soignants en lutte et sur le thème des libertés. J’ai accepté sa proposition d’apparaître et de témoigner, et dans son film « Liberté », et dans le débat diffusé en vif qui a suivi la diffusion du film, le 5 septembre dernier sur YouTube. Et comme le monde est presque parfait, vous m’avez contacté et proposé cet entretien.

    https://www.youtube.com/watch?v=KueedqdpJTw

    3) Vous contestez la toxicité de l’HCQ et son supposé manque d’efficacité contre le traitement du covid. Vous êtes très peu nombreux à assumer publiquement une telle position parmi les scientifiques. Ne vous sentez-vous pas isolé et mis en défaut en tant que scientifique ?

    JP.B. — Tout d’abord, en matière scientifique, le nombre ne fait pas le poids. Un seul scientifique peut avoir raison de la multitude. Le consensus dans le monde scientifique n’est possible que sur les acquis, et sur ce qui est incorporé dans le grand corpus des connaissances scientifiques. Par exemple, on ne dispute plus le fait que les humains sont des mammifères au même titre que les primates : trop de preuves sont abondantes y compris dans l’esprit des non scientifiques. La molécule d’eau est formée de deux atomes d’hydrogène et d’un atome d’oxygène. Là aussi, les preuves, inaccessibles d’emblée au grand public, sont de nature spectroscopiques, biochimiques, et dans les laboratoires de biologie moléculaire, nous réalisons quotidiennement des électrophorèses de protéines et d’acides nucléiques où l’on sépare ces molécules par l’imposition d’un champ électrique : on observe le dégagement de l’hydrogène à la cathode et de l’oxygène à l’anode avec une production de bulles gazeuses deux fois plus importante à la cathode ; il s’agit bien d’une électrolyse de l’eau. C’est toujours un ravissement de le vérifier et de le montrer aux étudiants. C’est donc la répétabilité et la banalité des observations réalisées par quantité de personnes sur une longue durée qui permet le consensus scientifique.

    En revanche, le dissensus prévaut dans la science en train de se faire, c’est-à-dire celle qui est à l’œuvre et en cours dans les laboratoires de recherche. La controverse est de mise et même souhaitable lorsqu’elle n’est pas polluée par les « conflits d’intérêts » des chercheurs, car la dispute permet de susciter de nouvelles théories, lesquelles conduisent à la mise en œuvre d’expériences, dont les résultats permettront à leur tour de moduler, d’infléchir, de corriger le modèle théorique, nouveau modèle se prêtant à son tour à un nouveau cycle d’hypothèses et d’expérimentation. C’est la démarche positiviste comtienne développée en 1865 par Claude Bernard (Introduction à l’étude de la médecine expérimentale) et mise en œuvre dans ses travaux sur le diabète et la régulation de la glycémie par la sécrétion pancréatique. Bruno Latour (La science en action, 1989) a bien expliqué cette dialectique, et il appelle la science en cours d’élaboration la science en action. Je vais donner quelques exemples où un scientifique, seul, peut se dresser contre la communauté entière de son champ disciplinaire, et se voir rendre justice des années plus tard.

    En son temps (le milieu du 19ème siècle), Ignace Semmelweis était seul contre tous les médecins de l’hôpital de Vienne en Autriche, lorsqu’il a mis en place les premiers rudiments et gestes de l’asepsie. Il a été moqué, renvoyé de l’hôpital et interné dans un asile d’aliénés. L’obstétricien qu’il était avait fait diminuer de 75 à 20 % la mortalité puerpérale des parturientes. Les femmes suppliaient pour pouvoir accoucher dans son service. Le trublion fut déclaré cinglé par ses collègues jaloux. Cette histoire, véridique, est superbement contée par Céline, dans un ouvrage qui a constitué sa thèse de médecin généraliste.

    http://www.gallimard.fr/Catalogue/GALLIMARD/L-Imaginaire/Semmelweis

    De même, Louis Pasteur avait raison contre les Académies des Sciences et de Médecine, non seulement concernant la vaccination (celle pasteurienne), mais également sur la controverse de la génération spontanée qui l’avait opposé à Pouchet.
    Autre exemple : Stanley Prusiner, finalement récipiendaire du Prix Nobel de médecine, a dû batailler quinze ans pour faire admettre que la maladie de la tremblante chez le mouton, le kuru frappant les indigènes de Papouasie Nouvelle-Guinée, la maladie de Creutzfeldt-Jakob, et ce que les journalistes ont nommé la maladie de la « vache folle », étaient toutes dues à un agent pathogène non vivant, dépourvu de génome - et donc sans gène de virulence puisque sans aucun gène -, lequel se résumait à n’être qu’une bête protéine nommée prion, exprimée dans le cerveau, et qui pouvait adopter une configuration tridimensionnelle pathologique (étiologie variée : génétique, spontanée, ou par consommation de viandes d’animaux malades, ou de cerveaux humains dans le cas du kuru).

    https://www.nobelprize.org/uploads/2018/06/prusiner-lecture.pdf

    Enfin, Oswald Avery, Colin MacLeod et Maclyn McCarty avaient raison contre toute la profession des biochimistes et généticiens lorsqu’ils affirmaient en 1944 que le support de l’information génétique était l’ADN et non pas les protéines. Ils durent attendre huit années pour que leur découverte soit acceptée par la communauté scientifique après l’expérience de Martha Chase et Alfred Hershey qui montrait que le virus bactériophage T2 se fixe à la surface du colibacille, et lui injecte son ADN, et que seul l’ADN viral – et non les protéines virales - permet une multiplication virale ultérieure dans les cellules bactériennes.

    https://www.editionsladecouverte.fr/histoire_de_la_biologie_moleculaire-9782707172594

    Venons-en maintenant à Didier Raoult. Renaud Piarroux, spécialiste du choléra, en collaboration avec Didier Raoult, a montré que l’épidémie de choléra ayant frappé Haïti juste après le tremblement de terre de 2010, avait eu pour origine le campement des soldats népalais mandatés par les Nations Unies et l’OMS afin de rétablir l’ordre.

    http://www.michel-lafon.fr/livre/2415-Epidemies_Vrais_dangers_et_fausses_alertes.html

    Leur article envoyé au Lancet a été refusé car l’hypothèse chez les scientifiques de l’OMS était que cette épidémie de choléra était la première épidémie écologique due au réchauffement climatique et à l’effet El Niño. La conséquence de ce refus d’accepter les résultats des travaux de Piarroux et Raoult fut que le choléra continua à sévir à Haïti tuant des personnes qui aurait pu éviter la maladie et pour certaines la mort, si l’OMS et l’ONU avaient accepté leur responsabilité et fait procéder à la désinfection du camp népalais et au traitement par antibiotique des soldats. L’OMS s’est très longtemps entêtée sur le sujet avant de reconnaître son tort.
    Autre exemple de l’avance de Didier Raoult et de ses approches sur le reste de la communauté scientifique : en 1998, lui et ses collaborateurs démontrent, en analysant des dents retrouvées dans des charniers, que les personnes mortes de la peste à Marseille en 1720, ainsi que celles tuées par les pestes du Moyen-Âge et justinienne, l’ont été par la seule souche bactérienne Yersinia pestis orientalis (alors qu’un modèle attribuait des souches différentes à chaque peste, et qu’un autre modèle incriminait des virus), et que le principal vecteur n’était pas la puce de rat mais les poux. Leurs résultats ont immédiatement été contestés et notamment par une équipe anglaise qui n’a pas réussi à les confirmer à ce moment-là du fait de son retard méthodologique relativement à l’équipe de Raoult. Treize ans plus tard, en 2011, la même équipe anglaise publiait un article confirmant la découverte des français.
    https://www.humensciences.com/livre/La-science-est-un-sport-de-combat/39

    Ces différents exemples montrent qu’un seul chercheur ou une équipe peut détenir la vérité contre le reste des scientifiques ou l’institution académique. Pour être juste, l’inverse est vrai : la multitude peut avoir raison sur la minorité en matière scientifique. Alors qu’en conclure ? Et bien qu’un débat scientifique ne saurait être décidé par le seul argument du nombre. La vérité scientifique ne se met pas aux votes, elle est vraie indépendamment du nombre et de la qualité de ses opposants ou partisans : seuls les résultats expérimentaux, leur répétabilité, et l’exercice de la raison peuvent trancher le nœud gordien.
    Je n’ai pas la prétention de me comparer aux titans de la science que je viens d’évoquer, mais j’ai voulu devenir scientifique parce que je les admirais. Quand j’affirme que l’HCQ ne présente pas de dangers toxicologiques lui interdisant d’être prescrite en traitement contre le SARS-CoV-2, contre une majorité de médecins courtisans, je n’ai pas tort a priori au seul motif de la quantité de personnes prétendant l’inverse.

    Des collègues me disent que mes arguments présentés dans la lettre à Charlie sont certes recevables, mais que je prends le risque de discréditer l’institution et la communauté scientifique en contribuant à une controverse rendue publique, et notamment par le fait que les réseaux anti-vaccinalistes se sont emparés de ma lettre. Tout d’abord, je ne suis pas responsable de l’usage que peuvent faire de ma lettre les différents réseaux militants, et je ne peux interdire à personne la possibilité de reprendre les arguments que j’avance (s’ils ne sont pas modifiés ou tronqués, ou présentés de manière parcellaire hors contexte, ce qui serait malhonnête). La controverse, la dispute et le dissensus sont nécessaires pour démêler les résultats de la science en action, et je ne vois pas pour quelles raisons ce processus devrait être escamoté et dissimulé au public, au motif spécieux et plutôt méprisant que nos contemporains non scientifiques ne pourraient pas comprendre et se poseraient des questions sur la pertinence et la portée des avis scientifiques. Au CRIIGEN, nous estimons plutôt que les citoyens devraient s’emparer des grands débats scientifiques et technologiques puisque la technoscience et ses réalisations modifient nos existences et nos sociétés, pour le bien et le pire. La philosophe Barbara Stiegler est du même avis et écrit « que plutôt que de se taire par peur d’ajouter des polémiques à la confusion, le devoir des milieux universitaires et académiques est de rendre à nouveau possible la discussion scientifique et de la publier dans l’espace public ».
    http://www.gallimard.fr/Catalogue/GALLIMARD/Tracts/De-la-democratie-en-Pandemie

    De surcroît, nous avons été mis au pied du mur. La nécessité du grand déballage nous a été imposée sans que le débat entre scientifiques (non soudoyés par les industriels) ait pu avoir lieu en préalable. À rebours, ce sont les professeurs Christian Perronne et Didier Raoult qui ont été victime de calomnies, de menaces de mort, et de tentatives d’interdiction de l’exercice de la médecine par l’Ordre national des médecins et ses diverticules départementaux, une entité créée par le régime félon de Vichy et qui a curieusement survécu à l’épuration à la Libération. Alors que cet Ordre accuse le Pr Raoult de charlatanisme (plus précisément, sa branche départementale des Bouches-du–Rhône), le même Ordre ne s’était pas opposé et n’avait émis aucune objection ou protestation contre les lois antisémites excluant les médecins juifs sous Vichy. Ainsi, qui discrédite la Science, moi ou bien l’Ordre avec ses complaisants relais médiatiques, ainsi que les médecins à la solde de l’industrie pharmaceutique, les agences d’expertise (Agence nationale de sécurité sanitaire de l’alimentation, de l’environnement et du travail, ANSES ; Agence Nationale de sécurité du médicament et des produits de santé, ANSM, anciennement AFSSAPS ; Agence Européenne du Médicament, EMA), bienveillantes vis à vis des industriels et gangrénées par les « conflits d’intérêts », ou les scientifiques qui publient des données frauduleuses comme l’ont révélé les affaires du Lancet et du New England Journal of Medicine ?

    https://reporterre.net/Fabrice-Nicolino-L-Agence-nationale-de-securite-sanitaire-fait-partie-du
    https://www.monde-diplomatique.fr/2020/11/DESCAMPS/62393
    http://www.editionslesliensquiliberent.fr/livre-Le_crime_est_presque_parfait-572-1-1-0-1.html
    https://blogs.mediapart.fr/laurent-mucchielli/blog/260520/fin-de-partie-pour-l-hydroxychloroquine-une-escroquerie-intellectuel

    Je constate d’ailleurs que les industriels ne sont pas en reste quand il s’agit de mettre en évidence les désaccords entre scientifiques, et surtout d’en tirer profit en les exploitant. Par exemple à propos des risques liés aux pesticides, aux perturbateurs endocriniens, aux nanoparticules, aux OGMs végétaux, à la téléphonie mobile, à l’amiante, et à certains médicaments. Face aux études montrant la toxicité pour l’environnement et la santé des humains de ces molécules et nouvelles technologies, les industriels et leurs groupes de pression harcèlent les parlementaires, déjeunent avec les journalistes influents et les patrons de presse, et mettent en avant les travaux lénifiants de leurs scientifiques liges, tant et si bien qu’ils en appellent à l’arbitrage, et du public, et des agences d’expertises conseillant les gouvernements, en minaudant de la sorte : « mais enfin, si même les scientifiques ne sont pas d’accord entre eux , c’est bien que les données toxicologiques ne sont pas suffisamment probantes ; laissez-nous donc encore 20 ans d’exploitation de notre affaire ». Cette stratégie a été éventée par un universitaire étatsunien, Sheldon Krimsky, professeur de politique urbaine et environnementale à l’Université de Tufts, qui constata que 35 % des 789 articles qu’il avait scrutés avaient au moins un auteur ayant des intérêts financiers dans le domaine de recherche étudié.

    https://www.librairie-gallimard.com/livre/9782846711234-recherche-face-aux-interets-prives-la-sheldon-kri

    Enfin, il faut rappeler que le propre de l’esprit scientifique est de douter. Douter de ses propres résultats que l’on vérifie en s’assurant de leur répétabilité, et douter des nouvelles merveilles technologiques censées révolutionner nos existences. Se poser des questions sur ces vaccins biotechnologiques en phase d’essai ne consiste pas à refuser l’avancée de la science, mais à exercer son esprit critique et exiger une somme de certitudes suffisantes avant de se faire injecter un ensemble hétéroclite de molécules à effets biologiques. En revanche, les zélotes de ces biotechnologies vaccinales, eux, ne doutent absolument pas, et prétendent être dans la démarche scientifique idoine, et renversent l’accusation de déni scientifique contre ceux qui précisément doutent, en dépit de tous les acquis de l’épistémologie en matière heuristique. Laissons le dernier mot au plus grand d’entre nous autres, microbiologistes et biochimistes, Louis Pasteur (cité par Latour) : « Dans les sciences expérimentales, on a toujours tort de ne pas douter alors que les faits n’obligent pas à l’affirmation ». 
http://www.bruno-latour.fr/node/276

    4) Revenons à la question relative à la toxicité de l’HCQ et plus actuellement de l’ivermectine. Quels sont vos arguments permettant d’affirmer que ces substances ne présentent pas de dangers majeurs en utilisation thérapeutique ?

    JP.B. – Tout médicament est toxique, et la combinaison entre la dose (ou la concentration sanguine) et la durée de traitement déterminera la survenue d’évènements toxiques (plus la dose et la durée de traitement sont élevés, et plus grands sont les risques toxiques). Il faut donc s’assurer qu’aux doses efficaces et durant la durée de traitement, la toxicité soit la plus faible possible. Les anti-raoultiens mettent en avant des données toxicologiques redoutables, celles obtenues avec de très hautes doses, non pertinentes quant aux dosages thérapeutiques, et bien évidemment mortelles, mais qui doivent être obligatoirement acquises sur les animaux (les test dits de toxicité aigüe ; le but est de préciser les doses mortelles tuant la moitié de l’effectif, DL50, en 24 h ou 48h), ce qui permet aux agences sanitaires de préciser les doses limites en divisant la DL50 par 100 ou 1000.

    L’HCQ est utilisée en indication contre le paludisme et contre certaines maladies auto-immunes telles que le lupus érythémateux systémique (LES) et les affections rhumatoïdes. Avant 2020, donc avant la pandémie de SARS-CoV-2, l’essentiel de la littérature toxicologique concernant l’HCQ avait trait principalement au risque de rétinopathies chez des patients atteints de maladies auto-immunes, et seulement secondairement à sa cardiotoxicité éventuelle. Cette focalisation sur le cœur et la rétine était motivée par le fait que les patients atteints du LES sont sujets aux rétinopathies et aux maladies cardiovasculaires, indépendamment de la prise d’HCQ.

    https://pubmed.ncbi.nlm.nih.gov/29948002
    https://pubmed.ncbi.nlm.nih.gov/27227346
    Il fallait donc vérifier si la prise d’HCQ chez ces patients ne serait pas un facteur aggravant. Pour la rétine, et chez des patients souffrant du LES, et qui prennent donc l’HCQ quotidiennement, une étude espagnole montrait en 2019 qu’en deçà d’une dose de 5 mg/kg/jour, aucun effet toxique n’était observable quant à la rétine et la macula.

    https://journals.sagepub.com/doi/abs/10.1177/0961203319829826?journalCode=lupa

    Quant au cœur, la combinaison HCQ plus azithromycine (AZI) testée sur des dizaines de milliers de personnes souffrant de maladies auto-immunes n’a déclenché aucune augmentation avérée de l’arythmie cardiaque. Puis une méta-analyse (incorporant et synthétisant les résultats obtenus par 46 études avec tirage au sort) a conclu que l’usage de l’HCQ était sûr, et qu’aucune augmentation significative de risque cardiovasculaire et ophtalmologique n’avait été enregistrée.
https://pubmed.ncbi.nlm.nih.gov/33832827
Également, sur plusieurs centaines de patients atteints du covid et hospitalisés, l’administration d’HCQ n’a pas révélé de lien avec la nécessité d’intubation ou l’issue fatale, relativement aux patients non traités, alors même que les auteurs de l’étude reconnaissent que les patients traités avec l’HCQ étaient plus sévèrement atteints.

    https://www.nejm.org/doi/full/10.1056/nejmoa2012410

    En réalité, c’est le SARS-CoV-2 lui-même qui cause de graves dommages cardiaques et des arythmies, et cela était su depuis le début de la crise coronavirale.
https://onlinelibrary.wiley.com/doi/full/10.1111/jce.14479https://jamanetwork.com/journals/jamacardiology/fullarticle/2763524
Des médecins chinois ont très rapidement alerté sur le fait que « contrairement aux autres infections à coronavirus, qui provoquent principalement des infections pulmonaires, ce cas d’infection à coronavirus s’est caractérisé par une atteinte cardiaque ».

    https://academic.oup.com/eurheartj/article/42/2/206/5807656

    Et donc des tentatives de traitement à l’HCQ sur des patients en réanimation (déconseillés par le Pr Raoult) ont conclu à la cardiotoxicité de l’HCQ alors qu’il s’agissait des effets du virus. Et là, les médias ont claironné la nouvelle de la cardiotoxicité de l’HCQ sans demander d’essais par tirage au sort (« randomisés », disent les journalistes).
Quant à l’ivermectine, elle est utilisée en tant qu’antiparasitaire (contre la gale et des vers intestinaux).
https://pubmed.ncbi.nlm.nih.gov/21321478
Sur sa sûreté d’administration, une méta-analyse portant sur 452 études, montrait que jusqu’à une dose égale à 0,4 mg/kg, aucun effet indésirable ou toxique n’était constaté. En traitement chez des enfants contre la gale et le ver intestinal causant la trichocéphalose, elle s’est révélée efficace et sûre.

    https://pubmed.ncbi.nlm.nih.gov/31960060
    https://academic.oup.com/cid/article/67/8/1247/4956651?login=true
    https://onlinelibrary.wiley.com/doi/abs/10.1111/bjd.18369

    5) Mais si l’HCQ et l’ivermectine sont à la fois efficaces et non toxiques aux doses indiquées, pourquoi sont-elles autant ostracisées à votre avis ?

    JP.B. — La dévalorisation et l’opprobre jeté sur l’HCQ ont démarré très tôt et au plus haut niveau de l’administration puisque la direction générale de la santé l’a classée substance vénéneuse dès janvier 2020, avant même les premiers foyers infectieux déclarés en France. Puis l’affaire de l’article bidonné du Lancet va permettre au ministère de la santé d’interdire ce médicament. L’interdiction sera maintenue après même que la fraude scientifique aura été éventée, et alors que l’OMS sera, elle, revenue sur sa décision. Mais avant que l’affaire du Lancet ne trucide définitivement les chances de l’HCQ (le 22 mai 2020), un épisode quasi burlesque avait déjà entamé la longévité de l’HCQ : c’est l’affaire de l’aquariophile maladroit mort après avoir ingéré de manière préventive une quantité mortelle de phosphate de chloroquine (23 mars 2020) ce qui n’a strictement rien à voir avec le protocole thérapeutique raoultien. Le ministre Véran participa de l’embrouillamini et exploita le fait divers devant la représentation nationale : « Les cardiologues m’alertent également sur le fait que l’hydroxychloroquine peut entraîner des troubles cardiaques. Aux États-Unis, aujourd’hui, une personne qui en avait utilisé en automédication a été victime d’un arrêt cardiaque qui lui a été fatal ».
    https://www.lemonde.fr/sante/article/2020/03/27/la-surdose-mortelle-a-la-chloroquine-expliquee-en-sept-questions_6034694_165

    Le journaliste qui cite M. Véran ne se demande pas quels cardiologues, et à partir de quelles bases observationnelles et cliniques ces mystérieux cardiologues parleraient. Le ministre se mélange les pinceaux ou les médocs puisque c’est le phosphate de chloroquine et non l’HCQ qui est impliquée dans ce cas d’empoisonnement. Or l’HCQ est utilisée en lieu et place des autres congénères de la famille (phosphate de chloroquine et chloroquine) précisément parce qu’elle est nettement moins toxique que ces dernières et frappée d’innocuité aux doses thérapeutiques.

    La toxicité à très hautes doses des congénères de l’HCQ était déjà connue, ce cas isolé n’apportait donc rien à leur toxicologie. Et pourtant, la propagande déployée allait instrumentaliser ce fait divers et laisser entendre que cette information était neuve, fracassante, et permettait de revenir sur une supposée sûreté de l’usage thérapeutique de l’HCQ avancée par le Pr Raoult puisqu’il était dès lors établi qu’un membre de la famille de l’HCQ était mortel. Conclusion imposée par cette propagande : l’HCQ ne saurait constituer un médicament fiable et sûr. Or, il s’agissait d’un accident provoqué par la bêtise avant toute chose.
    Aujourd’hui, on nous rejoue ce scénario stupide avec l’ivermectine, et la propagande se déchaîne aux États-Unis en prétendant qu’il s’agit d’un médicament à usage vétérinaire exclusif et utilisé chez les chevaux et les vaches (ce surdosage vétérinaire existe bien mais à destination de ces animaux seulement), après qu’un autre nigaud, en Australie cette fois, se soit empoisonné avec une formulation chevaline. L’Agence américaine des produits alimentaires et médicamenteux (FDA) ment copieusement par omission en occultant le fait que l’ivermectine est utilisée contre la gale et certains vers intestinaux chez les humains.

    Le Pr Raoult signalait à juste titre que le paracétamol absorbé en excès était mortel également, et qu’il ne venait néanmoins à l’idée de personne de l’interdire. Le paracétamol (ou acétaminophène) est un hépatotoxique redoutable.
https://www.annualreviews.org/doi/abs/10.1146/annurev.me.35.020184.003045https://www.sciencedirect.com/science/article/abs/pii/0002934383902401
Le taux de décès par empoisonnement au paracétamol (nombre de morts divisé par le nombre total de suicidés) est de l’ordre de 0,2 à 2 % selon les pays.
https://pubmed.ncbi.nlm.nih.gov/11210057
Par exemple, aux États-Unis, de 2000 à 2018, il y eut 327 781 hospitalisations pour des suicides par antalgiques et 1 745 morts : le paracétamol à lui seul a contribué pour 48 % de ces hospitalisations et 64,5 % de ces décès.

    https://pubmed.ncbi.nlm.nih.gov/32715560

    Alors, quel est donc le vrai problème ? Et bien tout simplement, il s’agit de jeter l’opprobre sur tout médicament ou traitement thérapeutique non protégé par un brevet. Le Plaquenil ne rapporte plus grand chose puisque l’HCQ est tombée dans le domaine public ; idem pour l’AZI et l’ivermectine. L’industrie pharmaceutique désire ardemment répondre à chaque nouvelle maladie ou épidémie par un médicament ou vaccin miracle, breveté et donc rémunérateur pour l’actionnariat. Lors de l’affaire du bacille du charbon envoyé par courrier à des sénateurs et journalistes étatsuniens en 2001, le gouvernement étatsunien a réagi face à ces menaces bioterroristes - et après une propagande médiatique intense et hystérique, semant la panique auprès du public - en décidant de recourir au stockage de tonnes d’un antibiotique. Alors que la pénicilline et la doxycycline étaient efficaces pour tuer le bacille, elles présentaient la faiblesse d’être bon marché, et ce fut la très coûteuse ciprofloxacine de Bayer, protégée par un brevet, qui fut choisie ; le centre de contrôle des maladies (CDC) conseilla de la sorte le gouvernement fédéral. Le gouvernement français emboîta le pas et commanda également cet antibiotique pour un coût considérable. L’éviction des médicaments qui ne sont plus protégés par un brevet, implique donc de crier haro sur les médicaments génériques.

    http://www.michel-lafon.fr/livre/2415-Epidemies_Vrais_dangers_et_fausses_alertes.html

    Quelle est donc la stratégie industrielle : instiller le doute. Donc mettre en avant toutes les études qui ne distinguent pas d’effets bénéfiques du médicament générique, minimiser celles qui montrent l’inverse, en mobilisant tous les professionnels stipendiés qui expliqueront sur les plateaux de télévision et dans les radios que les études ne montrent pas de manière statistiquement significative un effet, et que de nombreuses autres études sont indispensables avant de se prononcer. Les mêmes vont dénigrer les études observationnelles pour exiger celles par tirage au sort ; ils parlent d’essais « randomisés » et les journalistes parisiens reprennent cette formulation euphémisante sans expliquer au public que cela implique de tirer au sort des malades et de les répartir en deux groupes : ceux qui reçoivent le médicament testé et ceux qui reçoivent un placebo, donc de l’eau salée ou sucrée. C’est bien entendu immoral de procéder de la sorte avec des personnes malades risquant de mourir, et c’est la raison pour laquelle Didier Raoult et les médecins de l’IHU de Marseille ont refusé de pratiquer ce tirage au sort. Ils ont refusé de réaliser une expérience scientifique sur des patients infectés et ont fait le choix de soigner. Ils ont préféré une attitude pleine d’humanisme envers leurs semblables, quitte à écorner leur immense prestige scientifique. La société et la nation devraient leur en être reconnaissantes et admiratives.

    Puis, les mêmes personnes liges et autres valets rémunérés de l’industrie propageront une campagne visant à salir ceux qui observent des effets bénéfiques : on les traitera de charlatans, d’agités du bocal, d’être orgueilleux et méprisants, de falsificateurs de données scientifiques, notamment en utilisant leur qualité d’éditeurs de journaux scientifiques pour publier plus facilement leurs articles dans lesdites revues, et de manquements à la déontologie. Toute cette campagne diffamatoire est réalisée avec le tambour des relais médiatiques dominants, tous détenus par des millionnaires dont on peut se demander si les avocats d’affaire n’ont pas judicieusement garni les portefeuilles d’actions de leurs clients avec des actions boursières de Pfizer et consorts (s’ils ne le faisaient pas, ils manqueraient de compétence).
    Cette stratégie est connue et dénoncée depuis longtemps. Ainsi le Dr Mayer Brezis écrivait : « Les industries chimiques, du tabac et de l’alimentation partagent des tactiques similaires [à celles des industries pharmaceutiques] : proclamer des doutes sur les questions de sécurité, acheter des chercheurs, infiltrer les universités, les conseils d’administration, les médias et les agences législatives ».
    https://pubmed.ncbi.nlm.nih.gov/18982834

    Ce qui vaut pour les médicaments vaut également pour les composés toxiques produits et libérés dans l’environnement par les industriels. Dans le premier cas, il s’agira de discréditer l’efficacité des médicaments génériques (au moyen des scientifiques à la solde des industriels et des groupes de pression), et dans le second de nier ou de minimiser la dangerosité de leurs merveilles chimiques. Cette stratégie a été abondamment utilisée dans le cas de l’amiante : la connaissance toxicologique de sa cancérogénicité et de l’étiologie des mésothéliomes chez les travailleurs exposés est acquise depuis 1960. Et pourtant, grâce aux agissements des groupes de pression et des scientifiques liges, il faudra attendre 1997 pour qu’elle soit interdite en France. De même, il aura fallu des décennies avant que le tétraéthyl de plomb (TEP), utilisé comme agent antidétonant dans l’essence automobile ne soit interdit malgré la démonstration de sa toxicité pour les humains en 1965 par Clair Patterson. Là également, des scientifiques à la solde des industriels ont produit des études fausses et certains d’entre eux ont même porté plainte contre Herbert Needleman, un autre chercheur qui a contribué à la connaissance sur la toxicité du TEP, mais il a également été attaqué par les avocats des industriels pour malhonnêteté intellectuelle, puis désavoué par les Instituts Nationaux de la Santé, et par sa propre Université, celle de Pittsburgh. Là encore, il s’agissait d’imposer un produit breveté (le TEP), en réalité peu efficace quant à sa qualité d’antidétonant, contre l’utilisation d’un produit beaucoup plus efficace mais peu coûteux qu’était l’éthanol.

    Le problème est bien économique, financier et donc capitaliste. Les industries pharmaceutiques n’ont pas pour vocation de soigner les malades mais d’enrichir leurs actionnaires ; d’ailleurs les vaccins n’iront qu’aux plus riches en vertu de la protection des brevets et des coûts afférents insupportables pour les pays peu fortunés (et le côté immoral du procédé ne choque aucun de nos dirigeants et ne suscite aucune réaction permettant de réguler par amendements le droit des brevets sur les médicaments). Souvent, tout de même, leurs intérêts financiers coïncident avec celui sanitaire des malades, sinon tant pis. Quand le médicament est par trop toxique, on engrange d’abord les bénéfices, et puis on nie pendant des années la toxicité du produit, en utilisant la stratégie que je viens de décrire, c’est-à-dire inonder la littérature médicale d’articles prétendant qu’il n’a pas été possible d’observer une toxicité du médicament, en utilisant le réseau de scientifiques liges stipendiés. Et d’autres scientifiques liges, installés dans les agences sanitaires, fermeront les yeux le plus longtemps possible. La tragédie du Mediator de Servier est exemplaire : ce médicament mortifère ne fut interdit qu’en 2009 par L’AFSSAPS - aujourd’hui rebaptisée ANSM – alors que sa toxicité, ainsi que celle de la famille moléculaire à laquelle il appartient, était bien connue depuis la fin des années 1980.

    https://www.librairiedialogues.fr/livre/1250568-mediator-150-mg-combien-de-morts--irene-frachon-editions-

    Ceci pose deux problèmes fondamentaux.

    D’abord celui des « conflits d’intérêts » dans lesquels sont empêtrés beaucoup de scientifiques et de médecins, mais également les experts des agences de sécurité alimentaire ou du médicament (qui se recrutent parmi les premiers). « Conflit d’intérêts » est une expression importée des pays anglo-saxons et imposée par ce qui est appelé là-bas une attitude « politiquement correcte ». En langue française, on appelle ça de la corruption. Le plus stupéfiant est que cela soit légal.

    Ensuite celui du financement de la recherche publique, lequel explique en partie le problème des « conflits d’intérêts ». En effet, la loi d’autonomie des Universités ou loi Pécresse, a instauré en 2007 une paupérisation accrue des Universités et des laboratoires de recherche publics. Les crédits récurrents qui étaient alloués chaque année par les institutions aux équipes ont disparus. Il faut maintenant en passer par l’Agence nationale de la recherche (ANR), qui satisfait au plus 10 % des demandes. Concrètement, les chercheurs doivent répondre à un appel d’offre – il s’agit bien d’un concours et donc d’une mise en concurrence des équipes françaises entre elles – et rédiger un copieux dossier scientifique, et prévoir le budget total pour des recherches non encore effectuées et prévisionnelles (cela prend bien deux mois car il faut mobiliser d’autres équipes autour du projet). L’institution nous recommande instamment d’avoir un partenaire industriel ou privé. Si l’ANR n’adoube pas leur projet, les chercheurs n’ont plus comme solutions que l’Europe (mais c’est encore bien plus sélectif), les régions (mais pour des projets très ponctuels, appliqués, et peu financés), et enfin « les acteurs privés ». Comme le disait André Picot, toxicologue, dans ce livre : « Pour nous, au CNRS, mais aussi à l’Université, la situation n’a jamais été aussi catastrophique… On n’a plus d’argent et c’est la ‘prostitution généralisée’ ».
    https://www.editionsladecouverte.fr/silence_on_intoxique-9782707146380

    6) Vous évoquez le problème de l’évaluation des risques par les agences et celui des « conflits d’intérêts » qui mineraient ces institutions. Pourriez-vous nous donner des exemples et précisez selon vous la manière d’y remédier ?

    JP.B. – Le scandale du Vioxx de Merck est maintenant oublié. Le Vioxx était un médicament anti-inflammatoire censé être un vrai miracle pour les patients souffrant d’arthrose. Autorisé en 1999, il apparaît rapidement qu’il provoque des accidents cardiovasculaires et un article est publié relatant ses dangers en 2001 dans le Journal of The American Medical Association (JAMA) par l’équipe du Dr Eric Topol.
https://pubmed.ncbi.nlm.nih.gov/15641522
La FDA ne bouge pas, et en France L’AFSSAPS reprend même l’argumentaire lénifiant de Merck (toute l’histoire est racontée : https://halldulivre.com/livre/9782753300132-au-nom-de-la-science-souccar-goliszek). Merck tente d’acheter le silence du Dr Topol qui refuse. Dans les années qui suivent, d’autres publications mettent en cause le Vioxx et l’associe à une augmentation dramatique des infarctus chez les patients, mais ni l’EMA ni l’AFSSAPS ne demanderont le retrait de l’autorisation de mise sur le marché. C’est finalement Merck qui décide de le retirer du marché malgré la décision de la FDA en faveur du maintien, et au grand dépit du ministre de la santé français. L’AFSSAPS déclarera, après le retrait du Vioxx par Merck, assumer totalement la décision de n’avoir pas retiré du marché ce médicament.

    En 2002, la Direction générale de la santé saisit l’Agence française de sécurité sanitaire environnementale (AFSSE) concernant les risques sanitaires de la téléphonie mobile.
https://www.editionsladecouverte.fr/silence_on_intoxique-9782707146380
Un groupe de travail est créé sous la direction de Bernard Veyret (Université de Bordeaux), Denis Zmirou (AFSSE) et René de Sèze (INERIS, Institut national de l’environnement industriel et des risques). Très curieusement, des spécialistes incontestés dans ce domaine sont écartés, et qui avaient publiés des travaux sur les perturbations bioélectromagnétiques (Pierre Aubineau, CNRS ; Pierre Le Ruz, société française de radioprotection ; Roger Santini, Institut National des Sciences Appliquées). Mais la veille de la remise du rapport en avril 2003 – qui dédouanera la téléphonie mobile de tout effet sanitaire dommageable – il est dévoilé que les trois compères étaient en contrat publicitaire avec l’entreprise Orange, et qu’ils avaient publié une plaquette publicitaire dans laquelle ils se montraient rassurants, alors même qu’ils avaient débuté leur mission. Le rapport est même en retrait des recommandations écrites par Denis Zmirou en 2001 au ministère de la santé et imposant une distance supérieure à 100 mètres des crèches, écoles et hôpitaux, pour l’implantation d’antennes. Le même osera proclamer, à propos des financements privés des experts : « Cela n’affecte pas l’intégrité des chercheurs : les contrats garantissent une totale indépendance des études lors de leur conduite et de leur interprétation ».

    Comment remédier à cette situation déplorable de nos agences d’expertise sanitaires ? Dans un récent article publié dans Toxicological Research, Christian Vélot, des collègues et moi-même préconisions la création d’une Haute Autorité de l’Expertise composée de parlementaires, de représentants des grands organismes nationaux de recherche, de chercheurs reconnus pour leurs travaux dans le domaine scientifique concerné par la saisine, de juristes qualifiés (en droit du travail, de l’environnement, et de la santé publique), de représentants d’associations, et de représentants des syndicats majeurs. Ces personnalités pourraient être désignées par les commissions parlementaires idoines et le CESE, après réponse à un appel public. Les élus seraient soumis à une enquête visant à s’assurer qu’ils ne sont pas entravés par des « conflits d’intérêts », puis leur désignation finalement adoubée par le Conseil d’État.
    https://link.springer.com/article/10.1007/s43188-020-00075-w

    Enfin, ce que doit comprendre le public c’est que ces agences, l’ANSM et l’EMA, pour le cas des vaccins biotechnologiques actuels, prennent leur décision sur la seule base des documents adressés par les entreprises demandeuses de l’autorisation de mise sur le marché. Elles ne procèdent à aucune étude scientifique ni évaluation expérimentale indépendante. Les entreprises demanderesses ont donc toutes les cartes en main, et de plus, en situation d’urgence et sous la pression exercée par la gent politique, deux semaines seulement suffirent pour que les entreprises anglaise et étasuniennes soient adoubées. En revanche l’Union Européenne et la France ont clairement écarté Valneva et son vaccin (Valneva est une société de biotechnologie spécialisée dans les vaccins et produit ceux contre l’encéphalite japonaise et le choléra ; ceux contre le chikungunya et la maladie de Lyme sont en phase III d’essais). Des commentateurs politiques se désolent continuellement que la France, pays de Pasteur, ne soit pas plus enthousiaste pour la vaccination anti-covid. Mais les vaccins biotechnologiques ne sont pas pasteuriens ; en revanche c’est bien le cas du vaccin Valneva qui repose sur une méthodologie traditionnelle, mais éprouvée, dans laquelle le virus atténué ou tué est injecté, et dans ce cas la réponse immunitaire concerne toutes les protéines du virus et non pas une seule, et en conséquence la protection est a priori supérieure. Mais au pays de Pasteur, une entreprise française concevant un vaccin pasteurien a été méprisée sans qu’aucune justification ne soit avancée.

    7) Vous critiquez l’imposition de la solution vaccinale comme seule réponse possible au coronavirus SARS-CoV-2. Mais pourquoi nos dirigeants prendraient-ils une telle orientation si elle n’était pas la plus judicieuse et bénéfique pour notre peuple ?

    JP.B. – Comment expliquer le choix funeste de la vaccination en tant que solution unique ? Comment en est-on arrivé là ? Tout simplement les politiques sont principalement mus par leur désir de réélection, une motivation puissante chez eux, que l’on peut comprendre. Mais leur gros problème réside dans le fait qu’à Sciences Po et à l’ENA, ils n’ont pas été confrontés ni appris à réagir à une pandémie de cet ordre-là. Donc, ils s’en remettent aux médecins, aux médicastres en cour à l’Élysée. Or, beaucoup de ces gens ne sont plus en activité, ils sont retraités et continuent à bénéficier, grâce à leur entregent, de missions, expertises et autres sinécures. Ce déplacement de la gouvernance par les élus du peuple vers celle par les médecins pose un énorme problème car beaucoup d’entre ces médecins sont en « conflit d’intérêts », et il s’agit là d’un euphémisme désignant en fait une corruption morale, et une grave flétrissure déontologique. Ils sont en réalité soudoyés par les industriels. Une partie des chercheurs de l’INSERM et des praticiens hospitaliers susceptibles de faire de la recherche sont en « conflit d’intérêts », c’est-à-dire qu’ils sont à la solde de l’industrie pharmaceutique. Or, c’est à eux que le gouvernement demande conseil. Bien entendu, après l’échec du Remdesivir, néphrotoxique finalement banni par l’OMS, la solution unique qu’ils proposèrent fut la vaccination, et en conséquence il convenait d’éliminer tout autre traitement non protégé par un brevet, et donc peu rémunérateur pour les industriels auxquels ils sont inféodés.

    Parmi nos gouvernants - nous voulons continuer à croire que certains sont de bonne foi tout de même – certains s’imaginent, parce qu’ils y sont poussés et persuadés par les médecins courtisans (ceux du conseil dit scientifique), que la vaccination serait la seule solution. À partir du moment où l’on veut promouvoir la vaccination et la rendre en fin de compte quasiment obligatoire, il faut qu’il n’y ait aucun traitement disponible parce que dans l’éventualité contraire où un traitement serait doté d’une certaine efficacité, la vaccination obligatoire ou à très grande échelle n’aurait plus de sens et serait dénuée de pertinence. Il convenait dès le départ de crier haro sur les traitements et tuer dans l’œuf toute tentative de traiter par voie chimique. Donc, l’HCQ et l’AZI ont été promues au rang de poisons violents, et quant à l’ivermectine, elle est assimilée à un médicament à usage vétérinaire. Ainsi, tout est fait pour qu’il n’y ait aucun traitement susceptible de juguler cette maladie. Reste donc la solution unique vaccinale qui nous est serinée. Or, nous ne nous en sortirons pas par la seule grâce de la vaccination puisque la variante indienne delta se joue du vaccin et rend l’immunité collective inatteignable, la transformant en concept mythique. Il faudra combiner à la fois les traitements et une vaccination pour les rares personnes jeunes mais fragiles et surtout celles âgées puisque plus de 80 % de la mortalité concerne les plus de 70 ans.
https://www.science.org/news/2021/08/grim-warning-israel-vaccination-blunts-does-not-defeat-deltahttps://www.theguardian.com/world/2021/aug/10/delta-variant-renders-herd-immunity-from-covid-mythical

    Le traitement combiné HCQ plus AZI fonctionne, n’en déplaise aux médicastres médiatiques ; le Pr Christian Perronne a apporté suffisamment d’éléments probants puisés dans la littérature scientifique dans son dernier ouvrage. L’ivermectine est également efficace contre le covid et est devenue le traitement préconisé par les autorités médicales de plusieurs pays, par exemple au Pérou et au Brésil et dans certains états de l’Inde fédérale. De nombreuses études et méta-analyses, ignorées (ou passées sous silence par) des journalistes, appuient sa pertinence thérapeutique contre le covid.

    [https://blogs.mediapart.fr/laurent-mucchielli/blog/300921/crise-coronavirale-entretien-1-avec-le-toxicologue-jean-paul-bourdineaud](https://blogs.mediapart.fr/laurent-mucchielli/blog/300921/crise-coronavirale-entretien-1-avec-le-toxicologue-jean-paul-bourdin

    --
    https://www.francesoir.fr/opinions-tribunes/etat-du-kerala-inde-vaccination-et-contamination
    https://pubmed.ncbi.nlm.nih.gov/34145166
    https://pubmed.ncbi.nlm.nih.gov/33278625
    https://pubmed.ncbi.nlm.nih.gov/34418758
    https://www.sciencedirect.com/science/article/abs/pii/S0006291X20319598
    https://pubmed.ncbi.nlm.nih.gov/33389725
    https://pubmed.ncbi.nlm.nih.gov/33293006
    https://journals.lww.com/americantherapeutics/fulltext/2021/06000/review_of_the_emerging_evidence_demonstrating_the.4.aspx
    https://onlinelibrary.wiley.com/doi/abs/10.1111/bjd.18369
    https://pubmed.ncbi.nlm.nih.gov/34491955
    https://pubmed.ncbi.nlm.nih.gov/32736876
    https://journal.chestnet.org/article/S0012-3692(20)34898-4/fulltext
    https://www.sciencedirect.com/science/article/pii/S2052297521000883
    --

  • Les prix Ignobels 2021 viennent d’être publiés ! (TLDR : rien pour Raoult.)
    https://www.improbable.com/2021/09/09/announcing-the-2021-ig-nobel-prize-winners

    The 2021 Ig Nobel Prizes were awarded at the 31st First Annual Ig Nobel Prize ceremony, on Thursday, September 9, 2021. Each winner has done something that makes people LAUGH, then THINK.

    Je suis assez fasciné par celui-ci : Obesity of politicians and corruption in post‐Soviet countries
    https://onlinelibrary.wiley.com/doi/10.1111/ecot.12259

    We collected 299 frontal face images of 2017 cabinet ministers from 15 post-Soviet states (Armenia, Azerbaijan, Belarus, Estonia, Georgia, Kazakhstan, Kyrgyzstan, Latvia, Lithuania, Moldova, Russia, Tajikistan, Turkmenistan, Ukraine and Uzbekistan). For each image, the minister’s body-mass index is estimated using a computer vision algorithm. The median estimated body-mass index of cabinet ministers is highly correlated with conventional measures of corruption (Transparency International Corruption Perceptions Index, World Bank worldwide governance indicator Control of Corruption, Index of Public Integrity). This result suggests that physical characteristics of politicians such as their body-mass index can be used as proxy variables for political corruption when the latter are not available, for instance at a very local level.

  • Le travail de recherche de #Emilio_Distretti sur l’#Italie_coloniale

    Je découvre grâce à @cede le travail de recherche de #Emilio_Distretti, post-doc à l’Université de Bâle, sur le #colonialisme_italien et les #traces dans l’#architecture et l’espace.

    Sa page web :
    https://criticalurbanisms.philhist.unibas.ch/people/emilio-distretti

    Je mets dans ci-dessous des références à des travaux auxquels il a participé, et j’ajoute ce fil de discussion à la métaliste sur le colonialisme italien :
    https://seenthis.net/messages/871953

    #colonisation #colonialisme #Italie #histoire #géographie_urbaine #urban_matter

  • #COVID-19 : Le #variant « brésilien » Gamma consacré comme « plus mortel » | santé log
    https://www.santelog.com/actualites/covid-19-le-variant-bresilien-gamma-consacre-comme-plus-mortel

    Cette équipe de virologues et généticiens de la Harvard T.H. Chan School of Public Health utilise l’étude d’association pangénomique (GWAS : genome-wide association study) pour évaluer avec précision la virulence des différents #variants de #SARS-CoV-2. Cette méthodologie qui permet de comparer les mutations d’un grand nombre de souches, d’estimer leur #virulence et le risque de #mortalité identifie une variante du SRAS-CoV-2 comme particulièrement mortelle, le variant #P.1, apparu au Brésil et rebaptisé Gamma par l’Organisation mondiale de la Santé.

    Au-delà, la méthodologie, documentée dans la revue Genetic Epidemiology, apparaît déjà précieuse pour la surveillance, dans l’avenir, des variantes qui doivent être contenues.

    Source : Genome‐wide association analysis of COVID‐19 mortality risk in SARS‐CoV‐2 genomes identifies mutation in the SARS‐CoV‐2 spike protein that colocalizes with P.1 of the Brazilian strain - Hahn - - Genetic Epidemiology - Wiley Online Library
    https://onlinelibrary.wiley.com/doi/10.1002/gepi.22421

  • #COVID-19 : Un coup de chaleur assomme le #SARS-CoV-2 en moins d’une seconde | santé log
    https://www.santelog.com/actualites/covid-19-un-coup-de-chaleur-assomme-le-sars-cov-2-en-moins-dune-seconde

    [...] cette recherche menée à l’Université Texas A&M montre que l’exposition à une température élevée neutralise le SARS-CoV-2 en moins d’une seconde. Il s’agit de « chauffer » le coronavirus à 72° C, un niveau certes pas supportable pour l’Homme mais qui ouvre des applications de désinfection via des systèmes d’aération existants, tels que les systèmes de chauffage, de ventilation et de climatisation. Ces travaux de laboratoire, publiés dans la revue Biotechnology and Bioengineering laissent ainsi espérer l’efficacité de traitements thermiques ultra-rapides des bâtiments publics.

    Source :
    Sub‐second heat inactivation of coronavirus using a betacoronavirus model - Jiang - 2021 - Biotechnology and Bioengineering - Wiley Online Library
    https://onlinelibrary.wiley.com/doi/10.1002/bit.27720

  • #COVID-19 : Remonter aux #origines du #SARS-CoV-2 | santé log
    https://www.santelog.com/actualites/covid-19-remonter-aux-origines-du-sars-cov-2

    Ce travail d’analyse aboutit à une arborescence qui résume l’évolution des hôtes du SARS-CoV, MERS-CoV et SARS-CoV-2. L’analyse conclut ainsi que les chauves-souris sont les hôtes fondamentaux communs de ces coronavirus humains :
     
    – les #chauves-souris ont été les premiers hôtes des coronavirus humains SRAS-CoV (SRAS) et SRAS-CoV-2 et les hôtes ancestraux des infections à MERS-CoV chez les dromadaires avant leur propagation à l’Homme ;
    – le MERS-CoV a évolué chez les dromadaires (et leurs éleveurs) après la transmission du virus par chauves-souris. De même, le SRAS-CoV a été transmis à l’Homme par la chauve-souris avant sa transmission interhumaine ainsi que de l’Homme aux civettes. Une transmission similaire est constatée pour le SRAS-CoV-2, des éleveurs à leurs visons. L’analyse montre ainsi que certaines des transmissions de l’Homme à l’animal se sont produites après l’infection humaine d’origine par des lignées de coronavirus hébergées au départ chez des chauves-souris ;
    – ces transmissions secondaires à la civette ou au vison n’ont donc pas joué de rôle majeur dans l’émergence des coronavirus humains ;
    – les hôtes d’origine d’autres coronavirus humains sont également identifiés (HCoV-NL63 : chauves-souris, HCoV-229E : dromadaires, HCoV-HKU1 : rongeurs et HCoV-OC43 et HECV-4408 : vaches).
     
    La transmission des coronavirus, des animaux aux humains reste épisodique : de 1966 à 2020, la communauté scientifique a décrit 8 lignées de coronavirus hébergées par l’Homme. Il reste impossible de prédire avec précision quand un nouveau coronavirus hébergé par l’Homme pourrait émerger, cependant l’équipe suggère que
    nous devons nous préparer à cette éventualité.

     « La transmission d’un #coronavirus d’un animal à un hôte humain se produisant de manière épisodique à des intervalles totalement imprévisibles, nous sommes dans l’incapacité de prévoir l’émergence du prochain coronavirus humain. Cependant, les recherches sur les virus transférés des animaux aux humains devraient être poursuivies en continu plutôt qu’en cas de crise pandémique et sanitaire ».

    #cladistique

    Source:
    Fundamental evolution of all Orthocoronavirinae including three deadly lineages descendent from Chiroptera‐hosted coronaviruses: SARS‐CoV, MERS‐CoV and SARS‐CoV‐2 - Jacob Machado - - Cladistics - Wiley Online Library
    https://onlinelibrary.wiley.com/doi/10.1111/cla.12454

  • Que vaut l’étude de Toubiana et Mucchielli sur la « très faible » surmortalité due au Covid ?
    https://www.lemonde.fr/les-decodeurs/article/2021/04/01/que-vaut-l-etude-de-toubiana-et-mucchielli-sur-la-tres-faible-surmortalite-d

    L’épidémiologiste Laurent Toubiana, proche des « rassuristes », affirme que la surmortalité en 2020 a été nulle pour les moins de 65 ans et de 4 % pour les plus de 65 ans. Mais son analyse comporte des biais sur le fond et la forme.

    C’est « une étude édifiante », affirme Sud Radio, qui aime donner la parole aux antirestrictions et l’a publiée en avant-première. Vendredi 26 mars, l’épidémiologiste Laurent Toubiana a cosigné, avec trois autres auteurs, une analyse affirmant que « le Covid-19 a eu un impact relativement faible sur la mortalité en France ». On y lit que l’épidémie due au SARS-CoV-2 :
    • n’a pas eu d’incidence sur la mortalité des moins de 65 ans ;
    • a entraîné une surmortalité de seulement 3,66 % chez les plus de 65 ans (depuis rectifiée à 4,1 %) ;
    • est loin des prédictions « catastrophiques » (500 000 morts) annoncées ;
    • a été gérée avec des mesures sanitaires « disproportionnées ».

    Que peut-on dire de la fiabilité de cette étude ? Eléments de réponse.

    Une étude qui pose question sur la forme
    Avant même d’aborder le contenu, signalons que le texte sur lequel s’appuie Sud Radio ne répond pas aux normes habituelles d’une publication scientifique reconnue.
    • Un « preprint » à l’autorité scientifique limitée
    Premier élément à rappeler : le texte publié est un « preprint » (ou prépublication), c’est-à-dire un article qui n’a pas été évalué par ses pairs, étape indispensable pour pouvoir parler de « publication scientifique ».

    L’étude porte sur des questions de démographie, mais seul Laurent Toubiana, épidémiologiste de métier, a une formation en démographie. Ses coauteurs, Laurent Mucchieli et Jacques Bouaud, sont respectivement sociologue de la criminalité et expert en systèmes informatiques d’aide à la décision médicale.

    Plus troublant, le quatrième signataire, Pierre Chaillot, attaché statisticien, est présenté comme chercheur à l’Institut national de la statistique et des études économiques (Insee). Or, l’institut assure au Monde n’être « associé en aucune façon à cette étude » et affirme que « la mention de l’affiliation de son auteur à l’Insee est à la fois erronée et trompeuse ». M. Chaillot précise qu’il appartient au corps de l’Insee mais est en détachement dans une collectivité territoriale depuis 2019. L’Institut national de la santé et de la recherche médicale (Inserm), institut d’appartenance de Laurent Toubiana, s’est également désolidarisé de l’article.

    Des concepts démographiques confondus
    Ce manque d’expertise des auteurs conduit à un manque de rigueur dans les termes et méthodes employés, estime France Meslé, directrice de recherche à l’Institut national d’études démographiques (INED) et membre de l’unité de recherche mortalité, santé, épidémiologie :
    « Il y a une confusion permanente entre mortalité [le rapport entre le nombre annuel de décès et la population totale] et nombre de décès ; le calcul de la différence entre décès attendus et décès observés n’est pas clair ; la méthodologie est très peu expliquée. »

    Des biais dans l’approche
    • L’impossible comparaison avec le scénario du pire
    Cette étude entend démontrer que les mesures de restrictions sanitaires étaient disproportionnées et que le risque lié à la pandémie était surévalué. Pour cela, elle cite la prévision de « 500 000 morts » (en réalité, entre 400 et 500 000) avancée mi-mars 2020 par l’épidémiologiste Neil Ferguson, de l’Imperial College à Londres. « Ils sont où aujourd’hui, ces morts ? », s’interroge M. Toubiana.
    Il ne précise pas que cette estimation était un scénario du pire, qui se fondait sur les hypothèses de mortalité les plus élevées qui auraient pu être observées en l’absence de mesures radicales de prévention. Or, ce scénario ne s’est pas produit, puisque, justement, deux confinements ont été mis en place (au printemps puis à l’automne 2020), empêchant de mesurer la précision de ces prédictions. Une incohérence qui n’en est pas une, estime l’épidémiologiste, qui nie farouchement l’efficacité, pourtant documentée, du confinement.

    • Un calcul sur l’année qui lisse les deux pics épidémiques
    L’objet de cette étude est d’analyser la mortalité sur l’ensemble de l’année 2020. Or, cette analyse sur un an tend à lisser le nombre de décès. « En 2019, la mortalité était inférieure à la moyenne des dernières années en raison de l’absence d’épidémie de grippe. C’est aussi vrai pour janvier-février 2020 », rappelle France Meslé, de l’INED. Or, c’est au printemps et dans une moindre mesure en novembre 2020 que la surmortalité liée au Covid-19 a été la plus forte. Le pays a dépassé les 2 000 morts presque tous les jours entre le 16 mars et le 19 avril, et très fréquemment du 21 octobre au 16 décembre 2020, et a même connu 2 800 décès par jour, quand la moyenne en temps normal tourne entre 1 400 et 1 900.

    « Bien entendu, c’est ce qu’on appelle le théorème de Shannon », convient Laurent Taubiana :
    « Si on veut voir un phénomène court, on choisit un échantillonnage court. Là, on a choisi non pas l’élément fugace, mais sur une année entière. Cette année-là, il y a eu deux épidémies, c’est exceptionnel, et j’essaie de voir au total ce qu’elles ont produit comme morts, sur l’année. »
    A ses yeux, le Covid est « un virus pas très méchant, qui n’a touché que les personnes sensibles ».

    Quelques conclusions qui font l’unanimité…
    Certaines des conclusions de l’étude corroborent celles des chercheurs spécialisés sur la question.
    • Pas de surmortalité pour les moins de 65 ans
    L’étude de M. Toubiana affirme que l’épidémie n’a pas eu d’effet sur le nombre de décès chez les moins de 65 ans. C’est vrai. L’Insee en faisait déjà part à la mi-janvier 2021 ; la surmortalité est de + 2 % pour les 50-64 ans, mais de – 1 % pour les 25-49 ans et même de – 6 % pour les moins de 25 ans. Un phénomène qui s’explique à la fois par la faible létalité du Covid-19 chez les populations jeunes, mais aussi par la chute des autres causes de décès comme les morts sur la route, en baisse de 21,4 % par rapport à 2019, selon les chiffres du ministère de l’intérieur.

    • Une partie des décès s’explique par le vieillissement de la population
    L’étude évoque « l’évolution de la structure de la population française marquée par un vieillissement et donc une augmentation tendancielle de la mortalité ». Là aussi, c’est vrai : la tendance en France est structurellement à la hausse depuis plusieurs années. Comme l’expliquait au Monde Sylvie Le Minez, chef du département des études démographiques et sociales à l’Insee, ce phénomène s’explique par « l’arrivée des générations du baby-boom, beaucoup plus nombreuses que les autres, dans des âges où l’on meurt plus souvent ». L’année 2019 détenait déjà le record de l’année la plus meurtrière de l’après-guerre. « C’est un effet important, qui a été minimisé par le démographe Gilles Pison. Il l’estime à 13 000, moi à 17 000 », précise au Monde Laurent Toubiana.

    … mais une interprétation générale qui fait débat
    • Plusieurs chiffres concurrents pour la surmortalité
    L’étude portée par M. Toubiana compare la mortalité de 2020 à celle qui aurait dû être la mortalité en 2020 sans Covid-19. « Ma référence pour ce calcul, c’est ce que j’ai pu lire ou faire à l’époque de la canicule, et notamment les travaux de Denis Hémon et Eric Jougla sur la surmortalité liée à la canicule en 2003 », précise M. Toubiana, qui juge les autres méthodes « peu classiques ».

    En démographie, la surmortalité s’obtient en comparant deux séries entre elles (par classe d’âge, par sexe, par année, etc.), mais il existe plusieurs manières de calculer celle-ci. « On peut discuter à l’infini là-dessus. Que prend-on comme niveau de mortalité normal ? La moyenne de ces dernières années ? 2019 ? Avec ou sans la grippe, qui est un accident épidémique ? », interroge France Meslé.

    Le mode de calcul retenu par cette étude minimise l’impact de l’épidémie. Selon l’Insee, qui prend un autre point de comparaison (en l’occurrence, l’année 2019), la surmortalité globale en 2020 a été de 9 %. « L’année 2019 n’avait pas été une année à forte mortalité. Pour éviter ce biais, j’ai fait une intégration sur trois ans », se justifie Laurent Toubiana. Après avoir réajusté un calcul, il a néanmoins relevé le taux de surmortalité de quelques dixièmes de points, à 4,1 %.

    • Des experts divisés sur la gravité de l’épidémie
    D’une manière générale, les conclusions de Laurent Toubiana et de ses collègues ne font pas l’unanimité. Leur ligne consistant à minimiser la gravité de l’épidémie n’est pourtant pas isolée. Dans une tribune au Monde, l’historien et démographe Hervé Le Bras, directeur d’études à l’Ecole des hautes études en sciences sociales (EHESS) invitait lui aussi à « nuancer la gravité de l’épidémie », estimant que « la crainte engendrée par le virus semble en relation inverse de sa létalité ».

    Mais d’autres experts ont de la situation une lecture plus noire. L’Insee, qui a publié le 29 janvier un bilan consolidé de son analyse de l’année 2020, évoque au contraire « une hausse des décès inédite depuis soixante-dix ans », une mortalité « exceptionnelle », dont l’augmentation est « notamment très supérieure à celle observée lors des épisodes grippaux et caniculaires sévères des années précédentes » Dans une étude de mars 2021, l’INED évoque elle aussi une augmentation nette du nombre de décès, et un bilan « accablant » de 68 000 décès liés au Covid-19 en 2020, « en dépit des mesures prises pour freiner la propagation du virus. » Au 31 mars 2021, le Covid-19 a été associé à 95 000 morts en France.

    • On m’a cité le cas d’une personne qui a contracté le Covid durant son hospitalisation pour alors qu’il était déjà en train d’y finir ses jours pour un cancer. Il a été déclaré mort du Covid. Je ne pense pas que ce soit un cas isolé. Je pense que, ne serait-ce que 1 à 5% de déclarations de décès de ce genre suffit à rendre les statistiques (officielles ou non) complètement hors sol.

    • On peut bien mesurer l’effet positif :
      https://seenthis.net/messages/909432

      Ça ne dit pas qu’on ne peut pas mesurer le non effet, ça dit qu’il ne faut pas comparer les chiffres prévus (beaucoup plus de morts) avec les morts qu’il y a réellement eu. En revanche on peut estimer (mais ça reste alors une hypothèse) de manière plus précise encore qu’avant, les morts qu’il y aurait eu si on n’avait pas confiné : puisqu’on a désormais pas mal beaucoup de données de comparaison entre les pays et régions qui ont eu des politiques de santé différentes. Et quand il n’y a pas eu confinement (et/ou pas masque obligatoire, etc) : il y a clairement eu beaucoup de morts en plus.

    • C’est un peu rapide de dire que c’est du pipeau, là aussi sans aucune source, alors que justement des chercheureuses s’évertuent depuis des mois à mettre en place des méthodologies permettant justement de comparer. Cf l’article lié précédemment, qui est un exemple parmi d’autres à Oxford.

      mais aussi nous assurer qu’elles soient comparables entre elles.

      Quelques semaines plus tard, nous avons lancé le Oxford Covid-19 Government Response Tracker, dans cette optique. Il constitue désormais la plus grande base de données mondiale relative aux politiques en matière de pandémie.

      À ce jour, nous avons pu cataloguer 20 types de réponses différentes à l’épidémie, et en suivre l’évolution grâce à l’aide de plus de 600 personnes collectant des données tout autour du monde : les informations recueillies proviennent de 186 pays, et concernent notamment les politiques relatives au confinement, à la santé, à l’économie, et maintenant à la vaccination.

      Comme si des milliers de données sur 186 pays pendant 1 an, ne permettaient pas aussi de prendre en compte les différences socio-économiques (comment est le système scolaire, le système de santé, économie majoritairement capitaliste ou vivrière, etc), pour pondérer les différences de résultats. Ça ne parait pas totalement insurmontable de pouvoir faire ces distinctions et d’en déduire des grandes lignes de choses qui fonctionnent mieux que d’autres.

    • @rastapopoulos Ok, allons-y pour les "grandes lignes"

      Quel est le reproche fait ? Le voici : "Il ne précise pas que cette estimation [500.000 décès] était un scénario du pire, qui se fondait sur les hypothèses de mortalité les plus élevées qui auraient pu être observées en l’absence de mesures radicales de prévention. Or, ce scénario ne s’est pas produit, puisque, justement, deux confinements ont été mis en place (au printemps puis à l’automne 2020), empêchant de mesurer la précision de ces prédictions."

      Il est bien dit que le pire ne s’est pas produit car les confinements empêchent de mesurer la précision des prédictions. Mais paradoxalement, les confinements n’empêchent pas d’en calculer l’impact. Ça c’est de la pure mauvaise foi ou bien de la bêtise, voire les deux à la fois.

      D’ailleurs plus loin on lit "Le mode de calcul retenu par cette étude minimise l’impact de l’épidémie. "

      Alors, d’un coté on lui reproche d’avoir pris les hypothèses maximales, de l’autre on lui reproche de minimiser le résultat. Et parce que sa méthode et son calcul sont valides scientifiquement, on dénigre une deuxième fois en lui reprochant l’inverse de ce qu’on lui reprochait au départ.

      Et je voudrais bien savoir en quoi dénigrer une information tout en disant que ses résultats sont justes c’est du journalisme ? Parce que je rappelle qu’on nous dit ça (extrait ci-dessous) en début d’article et qu’on conclue que c’est vrai à la fin de l’article. Sauf pour le 4ème point ou tout le monde n’est pas unanime. Et ou eux préfèrent les "autres experts [qui] ont de la situation une lecture plus noire" Sachant que ceux qui avaient fait l’hypothèse de 500.000 morts (les mêmes ?) pourtant, ils ne les aiment pas non plus.

      "On y lit que l’épidémie due au SARS-CoV-2 :
      • n’a pas eu d’incidence sur la mortalité des moins de 65 ans ;
      • a entraîné une surmortalité de seulement 3,66 % chez les plus de 65 ans (depuis rectifiée à 4,1 %) ;
      • est loin des prédictions « catastrophiques » (500 000 morts) annoncées ;
      • a été gérée avec des mesures sanitaires « disproportionnées »."

    • hier j’ai regardé le documentaire d’Arte "La fabrique de l’ignorance", ça parle de comment les lobbies manipulent l’opinion avec la recherche scientifique. C’est 1 heure et demie d’historique depuis les premiers pas du lobby du tabac. ça vaut le coup d’être vu. Puis de réfléchir à d’où proviennent nos informations et dans quel état d’esprit on les lit. On papote ici autour d’un article du Monde et en 2021 il est devenu possible dans un chapeau du Monde de dénigrer quelqu’un avec un qualificatif comme « rassuriste » sans que ça ne choque le lectorat. Si je ne suis pas « rassuriste » alors je suis quoi ? "Lecture noiriste " comme on me le propose vaguement en fin d’article ? Mais qui veut que j’ai peur d’être rassuré ? Qui est ce fou qui veut que j’aie peur de vivre ? A qui appartient cette science qui me dit sans cesse "craint la mort !" ? Hier c’était la religion qui me disait cela "aies peur de Dieu", puis ce fut l’Etat ; "aies peur de l’étranger", c’est désormais la science "aies peur de la mort" ...
      Ou bien est-ce plus simplement Louis Dreyfus qui me permet de lire ce discours et de m’en convaincre ?

    • pour info, je découvre ça ce matin dans les références d’un article (https://interestingengineering.com/sunlight-neutralizes-sars-cov-2-8-times-faster-than-assumed) :

      However, the freely available epidemiological data (as of May 29, 2020 (54)) demonstrates that lock‐down measures preventing healthy individuals from remaining outdoors have not resulted in an obvious and statistically significant difference on infections per million inhabitants when compared to countries where healthy individuals were free to stay outdoors, with potential exposure to sunlight radiation.

      https://onlinelibrary.wiley.com/doi/10.1111/php.13293

    • la note de bas de page numéro 1 dit :

      l’Insee n’a pas encore publié les chiffres pour 2019, que les auteurs ont manifestement calculé à partir des fichiers des décès individuels. Cela dit, aucune chance que les taux de mortalité par âge aient brutalement évolué en 2019, au point de faire varier la moyenne.

      On dispose tout de même du bilan démographique de 2019 sur le site de l’INSEE (https://www.insee.fr/fr/statistiques/4281618?sommaire=1912926)

      Et on peut y lire ceci :

      En 2019, le solde naturel, différence entre les nombres de naissances et de décès, s’établit à + 141 000. En 2016, le solde naturel avait atteint son niveau le plus bas depuis la fin de la Seconde Guerre mondiale (figure 2), il n’a cessé de baisser depuis lors et atteint un nouveau point bas en 2019. Cette baisse est due à la fois au plus grand nombre de décès et au recul des naissances.

      il y a un tableau et un graphique qui illustrent ce propos. en 2019 il y a eu 611000 décès et non pas 599 408 comme le dit cet billet de blog.
      A partir de là, comment faire confiance à un débunkeur qui utilise une donnée sortie de son cul ?