• La #géographie, c’est de droite ?

    En pleine torpeur estivale, les géographes #Aurélien_Delpirou et #Martin_Vanier publient une tribune dans Le Monde pour rappeler à l’ordre #Thomas_Piketty. Sur son blog, celui-ci aurait commis de coupables approximations dans un billet sur les inégalités territoriales. Hypothèse : la querelle de chiffres soulève surtout la question du rôle des sciences sociales. (Manouk Borzakian)

    Il y a des noms qu’il ne faut pas prononcer à la légère, comme Beetlejuice. Plus dangereux encore, l’usage des mots espace, spatialité et territoire : les dégainer dans le cyberespace public nécessite de soigneusement peser le pour et le contre. Au risque de voir surgir, tel un esprit maléfique réveillé par mégarde dans une vieille maison hantée, pour les plus chanceux un tweet ironique ou, pour les âmes maudites, une tribune dans Libération ou Le Monde signée Michel Lussault et/ou Jacques Lévy, gardiens du temple de la vraie géographie qui pense et se pense.

    Inconscient de ces dangers, Thomas Piketty s’est fendu, le 11 juillet, d’un billet de blog sur les #inégalités_territoriales (https://www.lemonde.fr/blog/piketty/2023/07/11/la-france-et-ses-fractures-territoriales). L’économiste médiatique y défend deux idées. Premièrement, les inégalités territoriales se sont creusées en #France depuis une génération, phénomène paradoxalement (?) renforcé par les mécanismes de #redistribution. Deuxièmement, les #banlieues qui s’embrasent depuis la mort de Nahel Merzouk ont beaucoup en commun avec les #petites_villes et #villages souffrant de #relégation_sociospatiale – même si les défis à relever varient selon les contextes. De ces deux prémisses découle une conclusion importante : il incombe à la #gauche de rassembler politiquement ces deux ensembles, dont les raisons objectives de s’allier l’emportent sur les différences.

    À l’appui de son raisonnement, le fondateur de l’École d’économie de Paris apporte quelques données macroéconomiques : le PIB par habitant à l’échelle départementale, les prix de l’immobilier à l’échelle des communes et, au niveau communal encore, le revenu moyen. C’est un peu court, mais c’est un billet de blog de quelques centaines de mots, pas une thèse de doctorat.

    Sus aux #amalgames

    Quelques jours après la publication de ce billet, Le Monde publie une tribune assassine signée Aurélien Delpirou et Martin Vanier, respectivement Maître de conférences et Professeur à l’École d’urbanisme de Paris – et membre, pour le second, d’ACADIE, cabinet de conseil qui se propose d’« écrire les territoires » et de « dessiner la chose publique ». Point important, les deux géographes n’attaquent pas leur collègue économiste, au nom de leur expertise disciplinaire, sur sa supposée ignorance des questions territoriales. Ils lui reprochent le manque de rigueur de sa démonstration.

    Principale faiblesse dénoncée, les #données, trop superficielles, ne permettraient pas de conclusions claires ni assurées. Voire, elles mèneraient à des contresens. 1) Thomas Piketty s’arrête sur les valeurs extrêmes – les plus riches et les plus pauvres – et ignore les cas intermédiaires. 2) Il mélange inégalités productives (le #PIB) et sociales (le #revenu). 3) Il ne propose pas de comparaison internationale, occultant que la France est « l’un des pays de l’OCDE où les contrastes régionaux sont le moins prononcés » (si c’est pire ailleurs, c’est que ce n’est pas si mal chez nous).

    Plus grave, les géographes accusent l’économiste de pratiquer des amalgames hâtifs, sa « vue d’avion » effaçant les subtilités et la diversité des #inégalités_sociospatiales. Il s’agit, c’est le principal angle d’attaque, de disqualifier le propos de #Piketty au nom de la #complexité du réel. Et d’affirmer : les choses sont moins simples qu’il n’y paraît, les exceptions abondent et toute tentative de catégoriser le réel flirte avec la #simplification abusive.

    La droite applaudit bruyamment, par le biais de ses brigades de twittos partageant l’article à tour de bras et annonçant l’exécution scientifique de l’économiste star. Mais alors, la géographie serait-elle de droite ? Étudier l’espace serait-il gage de tendances réactionnaires, comme l’ont laissé entendre plusieurs générations d’historiens et, moins directement mais sans pitié, un sociologue célèbre et lui aussi très médiatisé ?

    Pensée bourgeoise et pensée critique

    D’abord, on comprend les deux géographes redresseurs de torts. Il y a mille et une raisons, à commencer par le mode de fonctionnement de la télévision (format, durée des débats, modalité de sélection des personnalités invitées sur les plateaux, etc.), de clouer au pilori les scientifiques surmédiatisés, qui donnent à qui veut l’entendre leur avis sur tout et n’importe quoi, sans se soucier de sortir de leur champ de compétence. On pourrait même imaginer une mesure de salubrité publique : à partir d’un certain nombre de passages à la télévision, disons trois par an, tout économiste, philosophe, politologue ou autre spécialiste des sciences cognitives devrait se soumettre à une cérémonie publique de passage au goudron et aux plumes pour expier son attitude narcissique et, partant, en contradiction flagrante avec les règles de base de la production scientifique.

    Mais cette charge contre le texte de Thomas Piketty – au-delà d’un débat chiffré impossible à trancher ici – donne surtout le sentiment de relever d’une certaine vision de la #recherche. Aurélien Delpirou et Martin Vanier invoquent la rigueur intellectuelle – indispensable, aucun doute, même si la tentation est grande de les accuser de couper les cheveux en quatre – pour reléguer les #sciences_sociales à leur supposée #neutralité. Géographes, économistes ou sociologues seraient là pour fournir des données, éventuellement quelques théories, le cas échéant pour prodiguer des conseils techniques à la puissance publique. Mais, au nom de leur nécessaire neutralité, pas pour intervenir dans le débat politique – au sens où la politique ne se résume pas à des choix stratégiques, d’aménagement par exemple.

    Cette posture ne va pas de soi. En 1937, #Max_Horkheimer propose, dans un article clé, une distinction entre « #théorie_traditionnelle » et « #théorie_critique ». Le fondateur, avec #Theodor_Adorno, de l’#École_de_Francfort, y récuse l’idée cartésienne d’une science sociale détachée de son contexte et fermée sur elle-même. Contre cette « fausse conscience » du « savant bourgeois de l’ère libérale », le philosophe allemand défend une science sociale « critique », c’est-à-dire un outil au service de la transformation sociale et de l’émancipation humaine. L’une et l’autre passent par la #critique de l’ordre établi, dont il faut sans cesse rappeler la contingence : d’autres formes de société, guidées par la #raison, sont souhaitables et possibles.

    Quarante ans plus tard, #David_Harvey adopte une posture similaire. Lors d’une conférence donnée en 1978 – Nicolas Vieillecazes l’évoque dans sa préface à Géographie de la domination –, le géographe britannique se démarque de la géographie « bourgeoise ». Il reproche à cette dernière de ne pas relier les parties (les cas particuliers étudiés) au tout (le fonctionnement de la société capitaliste) ; et de nier que la position sociohistorique d’un chercheur ou d’une chercheuse informe inévitablement sa pensée, nécessitant un effort constant d’auto-questionnement. Ouf, ce n’est donc pas la géographie qui est de droite, pas plus que la chimie ou la pétanque.

    Neutralité vs #objectivité

    Il y a un pas, qu’on ne franchira pas, avant de voir en Thomas Piketty un héritier de l’École de Francfort. Mais son texte a le mérite d’assumer l’entrelacement du scientifique – tenter de mesurer les inégalités et objectiver leur potentielle creusement – et du politique – relever collectivement le défi de ces injustices, en particulier sur le plan de la #stratégie_politique.

    S’il est évident que la discussion sur les bonnes et les mauvaises manières de mesurer les #inégalités, territoriales ou autres, doit avoir lieu en confrontant des données aussi fines et rigoureuses que possible, ce n’est pas manquer d’objectivité que de revendiquer un agenda politique. On peut même, avec Boaventura de Sousa Santos, opposer neutralité et objectivité. Le sociologue portugais, pour des raisons proches de celles d’Horkheimer, voit dans la neutralité en sciences sociales une #illusion – une illusion dangereuse, car être conscient de ses biais éventuels reste le seul moyen de les limiter. Mais cela n’empêche en rien l’objectivité, c’est-à-dire l’application scrupuleuse de #méthodes_scientifiques à un objet de recherche – dans le recueil des données, leur traitement et leur interprétation.

    En reprochant à Thomas Piketty sa #superficialité, en parlant d’un débat pris « en otage », en dénonçant une prétendue « bien-pensance de l’indignation », Aurélien Delpirou et Martin Vanier désignent l’arbre de la #rigueur_intellectuelle pour ne pas voir la forêt des problèmes – socioéconomiques, mais aussi urbanistiques – menant à l’embrasement de banlieues cumulant relégation et stigmatisation depuis un demi-siècle. Ils figent la pensée, en font une matière inerte dans laquelle pourront piocher quelques technocrates pour justifier leurs décisions, tout au plus.

    Qu’ils le veuillent ou non – et c’est certainement à leur corps défendant – c’est bien la frange réactionnaire de la twittosphère, en lutte contre le « socialisme », le « wokisme » et la « culture de l’excuse », qui se repait de leur mise au point.

    https://blogs.mediapart.fr/geographies-en-mouvement/blog/010823/la-geographie-cest-de-droite

    • propre lien:

      http://www.internetactu.net/2021/01/11/la-societe-de-la-prediction-en-ses-limites

      Les chercheurs et les entreprises n’ont cessé de tenir des déclarations optimistes sur la capacité à prévoir des phénomènes allant des crimes aux tremblements de terre (des modélisations prédictives d’ailleurs très liées entre elles) en utilisant des #méthodes #statistiques et algorithmiques fondées sur les données, expliquent-ils. Un optimisme souvent largement partagé par le public et les décideurs politiques. Toutefois, l’analyse de la littérature sur ces sujets souligne combien ces méthodes se révèlent dans les faits produire des résultats bien en deçà des attentes. Pour les deux professeurs, l’enjeu du cours est de comprendre si les limites de la prédiction vont s’estomper à mesure que les ensembles de données s’agrandissent et que les capacités de calcul s’améliorent, ou si les limites fondamentales de la #prédiction sont là pour rester. « Si nous entrons dans un monde où l’avenir est prévisible, nous devons commencer à nous préparer à ses conséquences, bonnes et mauvaises. Si, en revanche, les allégations commerciales sont exagérées, nous devons disposer des connaissances nécessaires pour les repousser efficacement. »

      [...]

      Limits to prediction: pre-read
      https://www.cs.princeton.edu/~arvindn/teaching/limits-to-prediction-pre-read.pdf

  • Creating Spaces for Justice-Oriented Research: Critical Reflections of a Researcher/Teacher and Her Advisor | Waldon | The International Journal of Critical Pedagogy
    http://libjournal.uncg.edu/ijcp/article/view/1552

    This article explores the critical reflections of a doctoral candidate and her advisor on the design and implementation of the candidate’s study, how space was created for such scholarship, and the challenges and catalysts for successfully navigating and shifting trenchant epistemological and methodological positions. Adopting an autoethnographic stance, we examine our navigation of the conceptual, structural and interpersonal tensions of doing critical research in a mainstream institution. The results highlight our experiences in a) re-conceptualizing the purpose of research by moving beyond doing “hit-and-run” research to research as praxis in marginalized communities, b) re-conceptualizing data gathering and analysis as justice-oriented rather than as “methodolatry” and c) understanding reflexively the tensions caused in the final stages of the dissertation as the novice advisor privileged a product-orientation over a person-orientation in her mentoring stance. This study underscores the importance of ensuring that humanizing pedagogy is employed consistently and unambiguously through the doctoral advising process.

    #méthodes_critiques

  • Covid-19 : les travaux du Pr Raoult sur l’association hydroxychloroquine + azithromycine seraient-ils hors-la-loi ?
    https://www.lequotidiendumedecin.fr/actus-medicales/recherche-science/covid-19-les-travaux-du-pr-raoult-sur-lassociation-hydroxychlor

    En qualifiant ses recherches d’observationnelles (RIPH3) et non d’interventionnelles (RIPH1) l’équipe du Pr Raout s’exonère de l’autorisation qui doit être donnée par l’ANSM après un examen détaillé, de la sécurité de l’essai et de sa méthodologie. De plus, et quelle que soit la catégorie de recherche, le protocole aurait dû être soumis à Comité de protection des personnes (CPP) institué par la loi.

    Or sur ce point, le travail du Pr Raoult et de ses collègues ne rentre pas dans les clous, puisque le protocole n’a été révisé que par un comité d’éthique local interne à l’IHU dirigé par le Pr Raoult et que l’ANSM n’a donc pas été avisée comme elle l’est par le CPP, même pour les recherches observationnelles.

    « S’il s’agit d’un essai de médicament sur l’être humain, le comité d’éthique local n’est juridiquement pas compétent pour autoriser ce travail, résume Philippe Amiel, juriste, membre du Comité d’évaluation éthique de l’Inserm, et auteur d’un livre sur le sujet*. « Pour le juriste, l’article de l’équipe du Pr Raoult ressemble fort au compte rendu d’une recherche impliquant la personne humaine. Il faut observer que les auteurs affirment que leur étude est conforme à la déclaration d’Helsinki. Or cette déclaration est le texte de l’Assemblée médicale mondiale qui fixe, précisément, les principes éthiques applicables à la recherche médicale impliquant des êtres humains. Ce qui laisse penser que les auteurs sont conscients que leur étude est bien une telle recherche. C’est assez troublant ».

    Si tel est le cas, ce que l’ANSM devra évaluer, la recherche serait tout bonnement une expérimentation illicite sur l’être humain, une situation devenue une rareté au XXIe siècle malgrè un exemple récent retentissant.

    Mais les auteurs peuvent aussi avancer que leurs travaux ne sont jamais qu’une étude rétrospective sur données, c’est-à-dire le compte rendu d’une série de cas cliniques concernant des malades pris en charge de manière protocolisée, mais sans intention d’expérimenter. Ils peuvent appuyer leur argumentaire sur le décrèt du 25 mars dernier qui encadre la prescritpion hors AMM de l’hydroxychloroquine dans la prise en charge des cas de Covid-19.

    Leur étude échapperait alors au régime des RIPH qui suppose des actes pratiqués sur les personnes à des fins de recherche. « La limite entre ces deux démarches peut se discuter », alerte Philippe Amiel, qui estime « qu’un débat, avec les informations utiles fournies par les auteurs, devra probablement avoir lieu ultérieurement. » Ce débat intéressera les chercheurs en biomédecine confrontés à des situations d’urgence sanitaires. Le point, en effet, qui dépasse le cas des équipes de Marseille, est de savoir si l’urgence justifie qu’on s’affranchisse des règles légales protectrices des personnes, mais aussi, par l’examen préalable des méthodologies d’étude, de la science.

    • Oui mais l’extrême droite et l’extrême centre valident, on va pas s’emmerder avec ces scientifiques à cheval sur leurs principes (et qui sont souvent des défenseurs du service public de la recherche).

      https://seenthis.net/messages/841779

      Le chef de l’Etat lui-même se déplace à Marseille pour capter quelques éclaboussures de la gloire qui auréole ces jours-ci le microbiologiste #Didier_Raoult (Institut hospitalo-universitaire, IHU, Méditerranée infection), promoteur du remède miracle. Tout en lui apportant, après celle de Donald Trump, une seconde caution présidentielle.

      #essais_thérapeutiques #méthodes_statistiques #recherche_médicale #savoir #science

    • J’aimerais bien ce que soit :

      l’extrême droite et l’extrême centre

      mais la France insoumise aussi s’est engouffrée dans cette fadaise avec un enthousiasme tout à fait répugnant. Quand ce n’est pas explicitement une défense et interview du pauvre docteur Cinoque malmené par les élites parisiennes, c’est la reprise de ses éléments de langage (par exemple, j’ai entendu Corbières expliquer que le confinement est une « méthode moyenâgeuse »).

    • C’est le 4e élément pas rassurant : on est quand même une part significative de personnes à avoir encore un cerveau et un minimum de bon sens pour voir ce qui se passe (néolibéralisme, capitalisme vert et crise écologique, maintenant sanitaire, c’est d’ailleurs rassurant que tant de Gilets jaunes aient vite intégré ça en partant de très loin) mais politiquement, ça veut pas, y’a pas d’offre. EELV qui flatte les bobos connectés sans arriver à proposer une écologie sociale, la FI qui se comporte comme une secte avec des allumé·es et c’est les deux seuls trucs qui surnagent à gauche. C’est aussi une crise de l’offre électorale.

  • Le professeur Raoult, les maniaques et le parachute
    https://www.lemonde.fr/idees/article/2020/04/10/le-professeur-raoult-les-maniaques-et-le-parachute_6036266_3232.html

    Répondant à une récente tribune de l’infectiologue marseillais, les historiens et sociologues de la médecine Luc Berlivet et Ilana Löwy remettent en perspective un exemple parodique d’essai clinique.

    Tribune. La tribune du professeur Didier Raoult, promoteur de l’utilisation de l’hydroxychloroquine contre les infections à coronavirus, que Le Monde a publiée le 25 mars, s’ouvre sur une affirmation retentissante : « Le médecin peut et doit réfléchir comme un médecin, et non pas comme un méthodologiste. » Le tableau qu’il dresse des ravages opérés par les « maniaques de la méthodologie » fait froid dans le dos : par sa bureaucratisation de la recherche médicale et les entraves mises à l’investigation clinique, la dictature des méthodologistes aboutit à faire perdre de vue jusqu’aux évidences de bon sens.

    Il faut dire que l’exemple dont il se sert pour illustrer son propos a de quoi émouvoir : « Un collègue anglais avait proposé, pour obéir à la dictature de la méthode, de faire sauter, au hasard, 100 personnes portant un sac avec ou sans parachute pour répondre aux normes actuelles de validation d’un essai thérapeutique. Le problème était de trouver des volontaires… » Bel exemple de reductio ad absurdum.

    #paywall

    • Ce que le professeur Raoult n’a pas jugé utile de préciser clairement aux lecteurs du Monde est que l’article auquel il fait allusion, sobrement intitulé « L’utilisation de parachutes aux fins de prévenir les décès et traumatismes majeurs en cas de difficultés gravitationnelles [gravitational challenge] : une recension systématique des essais cliniques randomisées » , qui fut publié en 2003 dans le British Medical Journal, constitue en réalité une parodie d’article scientifique.

      Une autoparodie, plus exactement, car, à la différence des autres pastiches scientifiques ayant défrayé la chronique, celui-ci est signé par deux jeunes médecins-chercheurs, Gordon Smith et Jill Pell, spécialisés en recherche clinique et persuadés que l’auto-ironie constituait un bon moyen d’interroger les fondements de ses propres certitudes. A cet égard, l’appel aux « thuriféraires de la médecine basée sur les preuves » à s’enrôler dans un « essai randomisé croisé en double aveugle, contre placebo » pour tester scientifiquement l’efficacité du parachute, qui conclut leur article, mérite d’être médité.

      Querelles d’écoles et d’égo

      Pour qui connaît l’histoire des essais thérapeutiques, ce recours à l’autodérision est moins étonnant qu’il n’y paraît. Aussi (apparemment) paradoxal que cela puisse sembler, le mouvement en faveur du perfectionnement de la recherche clinique, qui se fit jour aux Etats-Unis et en Grande-Bretagne dès les années 1930 et aboutit à l’organisation, en 1946, du célèbre essai portant sur l’efficacité de la streptomycine dans le traitement de la tuberculose, ne manquait pas de chercheurs charismatiques et de praticiens hauts en couleur, quoique dans un genre sans doute un peu différent de celui du professeur Raoult.

      S’ils entreprirent de réformer le mode de production des connaissances médicales, c’est au nom d’idéaux de justice et d’égalité. S’ils choisirent de collaborer avec une poignée de statisticiens pour perfectionner l’évaluation de leurs propres pratiques thérapeutiques, c’est avant tout parce qu’ils étaient profondément choqués par les disparités énormes que les querelles d’écoles et d’égo induisaient dans la prise en charge des patients, et par les conséquences néfastes auxquelles ces différences de traitement aboutissaient, en particulier chez les plus démunis.

      Le recours aux méthodes statistiques avait d’abord et avant tout comme objectif de neutraliser les préjugés plus ou moins conscients des cliniciens. Et s’ils tenaient tant à recourir au tirage au sort pour répartir les patients inclus dans les essais en deux groupes équivalents, c’était pour pouvoir comparer l’état de santé de ceux d’entre eux qui avaient reçu le traitement expérimental et celui du « groupe témoin », à qui l’on avait administré le traitement standard, ou même, en l’absence de thérapeutique éprouvée, un placebo. Comment, sans cela, mesurer l’intérêt et les limites des nouvelles thérapeutiques et garantir une plus grande équité dans la prise en charge des malades ?

      Dimension collective

      La mise en œuvre de ce programme, à partir années 1950, s’il se heurta à de nombreuses difficultés, finit néanmoins par générer des formes plus collectives de production des connaissances médicales, en particulier avec la mise en œuvre d’essais internationaux « muticentriques », associant des centaines de chercheurs et des cliniciens aux profils variés. L’affirmation de cette dimension collective suscita à son tour de vifs débats, concernant notamment la prise en compte du point de vue du patient dans la planification, la mise en œuvre et l’interprétation des résultats des essais cliniques.

      Cette question était au cœur des discussions, souvent tendues, qui aboutirent à une transformation radicale de la recherche clinique sur le sida, et l’inclusion des associations de malades comme partenaires de plein droit de cette recherche. Elle s’est posée de nouveau au cours des dernières années dans les pays du Sud, avec une acuité renforcée du fait que les compagnies pharmaceutiques y avaient graduellement relocalisé la réalisation de leurs essais thérapeutiques.

      Grâce aux interventions de quelques ONG pionnières, les représentants des communautés locales ont été impliqués dans l’organisation d’essais cliniques en Haïti, au Pérou et en République démocratique du Congo, mais il faudrait être bien naïf pour croire que les difficultés sont désormais résolues. Pour autant, prétendre que la rigueur méthodologique serait réservée exclusivement aux essais cliniques menés au bénéfice des patients des pays du Nord reviendrait à ignorer purement et simplement ces initiatives et les aspirations réformatrices de celles et ceux qui les portent.

      Imperméabilité au doute

      S’il aime à citer ce qu’il appelle « le paradigme parachute » comme l’exemple le plus achevé de l’absurdité de ses détracteurs, le professeur Raoult n’est donc pas allé jusqu’à faire sien le véritable enseignement de l’article de British Medical Journal, ce qui est fort dommage. Alors que Gordon Smith et Jill Pell avaient choisi le terrain de l’humour le plus absurde pour rappeler l’utilité qu’il peut y avoir à prendre quelque distance par rapport à ses propres certitudes – même, ou peut-être surtout, en temps de crise – lui ne laisse au contraire jamais passer la moindre occasion de nous rappeler la haute opinion qu’il a de lui-même et son imperméabilité au doute.

      Sans distanciation, il est pourtant illusoire d’espérer pouvoir dépasser rapidement les fausses alternatives dans lesquelles certains – Donald Trump, entre autres – veulent nous enfermer sur la question de savoir si l’hydroxychloroquine « ça marche » ou « ça marche pas ». Au risque de freiner l’émergence d’un débat public contradictoire sur les différents effets de la molécule en fonction du type de patient auquel elle est administrée, de son association avec d’autres molécules et de multiples éléments contextuels.

      L’intérêt majeur des modes de production collectifs du savoir associés aux essais cliniques comparatifs, aussi imparfaits soient-ils, est précisément de ne pas réduire les débats médicaux à une opposition entre « ceux qui y croient » et « ceux qui n’y croient pas », aussi expérimentés et prestigieux soient-ils, et de permettre l’appropriation par la discussion publique de la complexité thérapeutique.

      #parodie #essais_thérapeutiques #méthodes_statistiques #point_de_vue_du_patient #production_collective_du_savoir #savoir

  • Les sciences humaines et sociales (sciences que l’on dit "molles") ont-elles plus à perdre qu’à gagner en imitant les "sciences dures" (sciences de la nature et de la vie ) ? #SHS #recherche #sciences #méthodes

    http://sms.hypotheses.org/3734

    Les sciences de la nature et de la technique ont toujours constitué pour les sciences sociales un réservoir d’idées et de méthodes, et elles ont souvent incarné ce que peut être la « méthode scientifique ». Les « importations » en sciences sociales ne sont pas limitées aux modes de raisonnement ou aux concepts. Elles ont aussi pris, dans certains cas, la forme d’adoption d’instruments ou de formalismes qui se sont accompagnés de migrations de chercheurs.

    Les spécialités de sciences sociales qui ont connu ces arrivées de chercheurs et d’instruments issus d’autres sciences ont alors parfois fait l’expérience d’un phénomène d’inversion des priorités entre l’objet et les instruments, l’analyse et l’action (...)

  • Vers une nouvelle #guerre_scolaire. Quand les #technocrates et les neuroscientifiques mettent la main sur l’Éducation nationale

    Sous la Ve République, l’unification de l’École, de la maternelle au bac, n’a pas mis fin à la #ségrégation_sociale et aux énormes écarts de #réussite_scolaire. Face à cette situation, les #hauts_responsables de droite et de gauche ont alterné des mesures contradictoires, rendant aléatoire la perspective d’une #démocratisation de l’École. D’autant que, depuis les années 2000, une partie croissante des hauts technocrates de l’Éducation nationale s’est ralliée à l’#agenda_néolibéral. Ils mobilisent dans ce cadre le #numérique et les neurosciences, présentés comme sources de #modernisation, pour accentuer en réalité la #pression sur les enseignants, rogner leurs autonomies professionnelles et leurs pouvoirs d’action.
    C’est ce que démontre avec rigueur, dans cet essai remarquablement documenté, #Philippe_Champy, fin connaisseur du #système_scolaire. Il y analyse les origines de ce grand #reformatage de l’École et, surtout, sa mise en œuvre par Jean-Michel #Blanquer : les attaques contre la #liberté_pédagogique et les #manuels_scolaires, la mise sous tutelle du « #numérique_éducatif », les tentatives de marginalisation des auteurs et éditeurs scolaires, la prise de pouvoir larvée d’un pool de neurochercheurs prétendant dicter leurs #méthodes_pédagogiques aux enseignants, etc. Ce grand #reformatage, qui maintient les privilèges élitaires en l’état, voire les renforce, s’accompagne d’une reprise en mains dirigiste et centralisatrice sans précédent. Il impose à tous les acteurs de l’École une prise de conscience et une réaction d’ampleur, face au risque avéré d’une nouvelle guerre scolaire.


    https://editionsladecouverte.fr/catalogue/index-Vers_une_nouvelle_guerre_scolaire-9782348040627.html
    #livre #éducation #éducation_nationale #France #neurosciences #autonomie #néolibéralisme #pédagogie

    • Philippe Champy : « Les beaux discours de Blanquer sur la confiance ne réussiront pas à masquer cette guerre contre les professeurs qui ne dit pas son nom »

      Passionnant et déterminant pour comprendre Blanquer et l’Éducation nationale : tel est l’essai de Philippe Champy Vers une nouvelle guerre scolaire : quand les technocrates et les neuroscientifiques mettent la main sur l’Éducation nationale qui vient de paraître à La Découverte.
      Ingénieur à l’Institut national de recherche pédagogique puis éditeur et enfin directeur des éditions Retz, Philippe Champy, en fin connaisseur du système scolaire, dévoile la nature profonde du grand reformatage de l’école par Blanquer. Partant d’une réflexion sur le manuel scolaire, il démontre combien pour Blanquer la liberté pédagogique est synonyme d’anarchie, combien les neurosciences lui servent d’outil managérial et comment aussi, via l’incroyable entrisme du groupe d’assurance Axa que connaît fort bien Blanquer, se met en place une privatisation déguisée de l’Éducation nationale. Un propos explosif qui ne pouvait manquer de retenir l’attention de Diacritik le temps d’un grand entretien avec Philippe Champy.

      Ma première question voudrait porter sur la genèse de votre indispensable essai pour comprendre ce que devient aujourd’hui l’Éducation nationale notamment aux mains de Jean-Michel Blanquer. Comment vous en est venue l’idée ? Vous dites, notamment dans l’introduction, que, pour vous être longuement occupé dans votre vie des manuels scolaires, vous avez été frappé par la manière dont le sommet de la pyramide hiérarchique au ministère traite précisément des manuels scolaires : qu’est-ce qui vous a ainsi particulièrement frappé ?

      Effectivement, plusieurs éléments tout au long de ma carrière m’ont alerté sur une posture étonnante de la part de certains dirigeants et prescripteurs au sein de l’Éducation nationale : l’ignorance et la défiance à l’égard des manuels scolaires, voire l’ostracisme ou la volonté de contrôle direct selon les périodes à l’égard des auteurs et éditeurs qui les produisent. Cette double anomalie m’a choqué aussi bien du point de vue de l’histoire politique que d’un point de vue purement pragmatique.

      Comme je le rappelle dans mon livre, c’est en toute conscience que les républicains, qui sont arrivés enfin au pouvoir dans les années 1880, ont rejeté les pratiques des régimes précédents (monarchies et empires) de contrôle a priori de l’Etat sur la production et la sélection des « livres classiques » (comme on désignait les manuels à l’époque) autorisés dans les écoles. C’est à ce moment fondateur pour les libertés publiques qu’a été formulée la doctrine républicaine de la « liberté pédagogique ». Cette doctrine s’oppose à toute idée d’édition scolaire d’Etat et préconise la liberté de publication pour les manuels à l’instar de la liberté de la presse, instaurée aussi à cette époque : pas d’examen ni d’autorisation préalable, aucune labellisation. Elle défend aussi la liberté de choix des enseignants parmi l’offre libre sous réserve de délibérations collectives institutionnalisées et la liberté d’utilisation en classe à leur guise. Les autorités n’ont qu’un droit de regard a posteriori et doivent publiquement justifier une éventuelle mise à l’écart ou interdiction, fait rarissime durant tout le XXe siècle.

      Toute mise en cause, explicite ou larvée, de cette liberté dans sa triple dimension devrait donc s’attacher à justifier cette atteinte à la doctrine fondatrice par des arguments sensés, ce qui n’est jamais le cas. Dans les propos de Jean-Michel Blanquer, pourtant républicain revendiqué, la liberté pédagogique est systématiquement indexée à l’anarchisme, au désordre, jamais à la reconnaissance de la compétence professionnelle des enseignants et aux responsabilités qui en découlent. Cette façon de voir est clairement à contre-courant du républicanisme originel puisqu’elle présente la liberté des acteurs au sein du système comme un danger et non comme un atout et une force, l’expression d’un dynamisme mobilisateur apte à améliorer constamment l’efficacité collective et à s’opposer à toute tutelle idéologique régressive.

      D’un point de vue pragmatique, pour les dirigeants de l’institution Éducation nationale, du moins ceux qui se targuent de rechercher en toute chose l’efficacité (valeur suprême du technocratisme), méconnaître la sphère de production et de diffusion des manuels et laisser cette sphère dans un angle mort revient bizarrement à ignorer une grande partie de ce qui fait la réalité quotidienne des enseignants et des élèves. Au mieux, par pure méconnaissance, on reproduit les préjugés du sens commun sur les manuels dont on ne sait pas exactement qui les produit, dans quel cadre, avec quelles contraintes, quel statut, quelles utilisations, etc. Une défiance s’installe, jamais explicitée ou discutée. Au pire, par hostilité de principe à tout ce qui est extérieur à l’institution, on est conduit à les rejeter en bloc sous prétexte qu’ils sont hors contrôle institutionnel, donc critiquables, douteux, dépassés, voire nocifs. A décrypter certaines remarques, on pourrait penser que c’est moins le manuel en tant qu’outil de travail qui pose problème que son pluralisme et la triple liberté pédagogique qu’il incarne dans le système français. On sent bien que certains hiérarques rêveraient de manuels officiels, nécessairement uniques, édités par le ministère… Il y a d’ailleurs eu au moins une tentative avortée en histoire que je relate dans mon livre. Quelle est la conséquence de cette posture ? C’est assez facile à deviner ! Puisque ce sont les enseignants qui choisissent les manuels et autres ressources, et aussi qui les conçoivent, les sélectionnent et les utilisent à leur gré on imagine sans trop de mal ce que ces dirigeants hostiles à la liberté pédagogique pensent de leurs « ouailles » !

      Dans ma carrière d’éditeur scolaire et pédagogique durant plus de 20 ans, j’ai à plusieurs reprises été stupéfait par les propos de café du commerce que pouvaient tenir de hauts responsables au sujet des manuels scolaires. Comme de leurs positions peu informées sur les débats didactiques que les manuels suscitent ! J’ai ressenti cette méconnaissance moins comme un signe de paresse intellectuelle que comme le symptôme d’un discrédit technocratique pour tout ce qui n’était pas directement dans leur sphère de pouvoir. Grosso modo, c’est l’attitude de responsables qui pensent qu’il n’est pas utile de comprendre la complexité d’une question si elle échappe à leur emprise hiérarchique…

      Le cœur de votre fort propos, c’est la place du manuel scolaire que vous prenez comme paradigmatique d’enjeux polémiques, politiques et économiques pour le moins révélateurs. Vous affirmez ainsi qu’il y a depuis bientôt une vingtaine d’années une volonté de mainmise du ministère sur les manuels scolaires, volonté qui éclate comme jamais avec Blanquer. Pourriez-vous nous dire pourquoi le ministère désire-t-il contrôler les manuels ? N’y a-t-il pas un paradoxe pour un néo-libéral sans frein comme Blanquer à vouloir contrôler la liberté pédagogique ?

      Plutôt que le cœur, je dirais que le manuel scolaire est le point de départ de mon enquête et une sorte de fil rouge qui conduit à se poser des questions fondamentales sur l’autonomie professionnelle des enseignants. Je rappelle en effet au début de mon essai les différentes critiques qui ont été adressées au manuel depuis ses débuts, accompagnant la progressive massification de l’enseignement primaire depuis la loi Guizot de 1833 puis sa généralisation et son encadrement laïque et républicain avec les lois Ferry des années 1880. Quand on fait le tour des critiques en question et des forces qui les portent, on s’aperçoit assez vite que le manuel sert de bouc-émissaire pour viser autre chose. L’enjeu réel des attaques n’est pas le manuel en tant que tel, sauf pour les courants pédagogiques qui le récusent et voient en lui un vecteur d’imposition conformiste qui stériliserait la créativité enseignante et favoriserait la servilité idéologique des élèves (je pense à Célestin Freinet).

      Ces enjeux peuvent être de nature très variée. Par exemple, au début du XXe siècle, avant la Première Guerre mondiale, ce fut le pouvoir des familles (en fait du clergé catholique) sur le choix des manuels d’enseignement de l’école publique. De façon permanente, depuis les lois Ferry, ce sont les contenus d’enseignement eux-mêmes qui sont visés (trop progressistes ou « engagés » pour les conservateurs et leurs lobbies, ou, au contraire, trop stéréotypés ou discriminatoires pour leurs adversaires de multiples obédiences), et, en dernier ressort, ces critiques visent les programmes scolaires, leurs préconisations, la façon dont ils sont conçus, les institutionnels qui les produisent, leurs présupposés idéologiques ou pédagogiques, etc.

      Le ministère lui-même, par la voix des inspections générales depuis la fin des années 1990, n’a pas été avare de critiques, comme une lecture attentive des rapports officiels le montre dans mon livre. Depuis cette époque, il rêve d’imposer aux auteurs et éditeurs scolaires des cahiers des charges pour contrôler leurs productions en amont. Il rêve d’introduire une labellisation avant parution, venant mettre en cause le principe même de la liberté pédagogique. De mon point de vue, cette tendance est une dérive typiquement technocratique dont le renforcement est concomitant avec l’instrumentalisation des évaluations internationales, notamment PISA, depuis 2000. Comme les résultats des élèves français ne sont pas jugés dignes du rang du pays, l’idée s’installe au sommet du ministère que la faute en revient non pas aux structures et à l’organisation inégalitaire et ségrégative du système scolaire dans son ensemble, mais tout simplement aux professeurs et à leurs méthodes d’enseignement. Ce serait non seulement la faute des professeurs du collège (puisque les élèves évalués ont 15 ans), mais aussi ceux du primaire qui ne sauraient pas enseigner les « fondamentaux » aux élèves les plus faibles. Ce sont les mauvais résultats de ces élèves qui plombent le score français. Il faut rappeler ici que PISA évalue un échantillon représentatif d’élèves français (7000 en 2018 « qui défendent les couleurs de la France », comme l’écrit patriotiquement le site du ministère !) et non pas l’ensemble des élèves, comme le font les dernières évaluations lancées par le ministère Blanquer pour l’ensemble des élèves de certains niveaux dans certaines disciplines.

      Cette tendance technocratique a évolué dans ses ambitions au cours des deux dernières décennies avec l’avènement du « numérique éducatif » et l’apparition des neurosciences sur la scène publique. On a assisté à leur accaparement progressif des questions éducatives, comme si, avant elles, les connaissances étaient restées dans une sorte de préhistoire sans valeur et que tout était à inventer ! Avec le numérique, la vieille revendication d’un contrôle institutionnel serré sur les manuels afin de mieux contraindre les professeurs dans leurs pratiques d’enseignement a été élargie à l’ensemble des ressources produites par les institutions publiques et par les enseignants eux-mêmes, grands utilisateurs des outils et réseaux numériques grand public. Fascinés par la « révolution numérique », les hauts technocrates ont prophétisé la marginalisation inéluctable de l’édition scolaire (prétendument liée au papier) avec l’idée de mettre fin en douceur à l’un des piliers de la liberté pédagogique des professeurs… et de faire des économies. (Rappelons que si ce sont les municipalités qui financent les manuels du primaire, les régions désormais ceux des lycées, c’est toujours une subvention d’Etat qui finance ceux des collèges.) Ils ont donc pensé pouvoir reprendre la main sur les outils des enseignants en poussant leur numérisation et leur dépôt sur des plates-formes institutionnelles centralisées et en les soumettant à des formes plus ou moins pernicieuses de labellisation.

      Poursuivant sur la question centrale du manuel, vous avancez également sans attendre qu’un des enjeux majeurs des querelles autour du manuel scolaire consiste à proférer des attaques déguisées contre les profs. Le manuel, et les polémiques souvent nombreuses qui l’entourent, renvoient selon vous aussi au fossé qui existe entre les enseignants et leurs dirigeants, comme si les premiers étaient les victimes des seconds, ce que le numérique et les neurosciences ne feraient qu’accentuer.
      Dans un tel contexte, pourrait-on ainsi dire qu’avec Blanquer, depuis 2017, l’Education nationale fait de ses fonctionnaires ses ennemis et, si oui, pourquoi ?

      Oui, c’est vrai, les critiques contre les manuels visent aussi, de façon plus ou moins déguisée, les professeurs, leur aptitude à décider par eux-mêmes de leurs méthodes et de leurs outils d’enseignement, leur pouvoir de les concevoir librement avec des éditeurs professionnels. Les manuels sont considérés abusivement, par ceux qui critiquent la liberté de publication, comme le fidèle reflet ou le déterminant automatique de ce qui est censé se passer en classe sous la conduite des professeurs. Ils ne comprennent pas la différence entre les programmes qui fixent un cadre général et des objectifs, les méthodes pédagogiques qui relèvent de connaissances et savoir-faire notamment didactiques (ce que j’appelle les savoirs expérientiels des professeurs), et enfin les outils qui sont à leur disposition au sein d’une offre pluraliste, ce que sont les manuels parmi beaucoup d’autres types de ressources éditées. Cette confusion simpliste leur permet de s’affranchir d’une observation fine des pratiques d’enseignement au profit d’un examen purement livresque, souvent superficiel, et fort éloigné des réalités scolaires. A titre d’exemple, c’est le cas de beaucoup d’intervenants dans le vieux débat, relancé par intermittence, sur l’apprentissage de la lecture au CP. Ceux qui ne veulent pas comprendre les réalités scolaires sont obnubilés par telle ou telle page de manuels, supputent des usages ou dérives mais ne savent pas en réalité comment ces manuels sont utilisés en classe, par les professeurs comme par leurs élèves.

      Quand les hauts technocrates du ministère se mettent à critiquer les manuels parce qu’ils échappent à leur autorité directe, comme je l’ai évoqué plus haut, ils élargissent indéniablement le fossé qui existe entre eux et les enseignants. Or, avec Jean-Michel Blanquer, la tendance technocratique (c’est la base qui a tort et le sommet qui sait et qui a raison) se marie avec la prise de pouvoir des néo-libéraux à la tête de l’appareil d’Etat et des institutions publiques. Les hauts technocrates néo-libéraux proviennent des deux côtés de l’échiquier politique en concurrence pour gouverner la Ve République. Cette nouvelle élite administrative pense foncièrement que l’État social, dont l’Ecole publique est l’un des fleurons (avec la Sécurité sociale, l’hôpital public, etc.), est trop développé, trop coûteux, mal géré, en retard, etc. C’est pourquoi les néo-libéraux veulent affaiblir les fonctions sociales de l’Etat, ils veulent le reformater en le concentrant sur les fonctions dites régaliennes et réduire ou privatiser des pans entiers qu’ils jugent négativement.

      Ces dirigeants justifient leur politique par la nécessité d’améliorer la compétitivité du pays dans la course mondiale en laissant plus d’initiatives aux détenteurs de capitaux et en allégeant leurs charges sociales pour accroître d’autant leurs profits. Ils entendent donc reformater l’ensemble de la politique sociale du pays pour raboter les acquis des anciens compromis sociaux. Réduire l’Etat social n’est donc pas incompatible avec la nécessité d’exercer « en même temps » un meilleur contrôle social sur les populations et les acteurs sociaux, allant jusqu’à la remise en cause de certaines libertés publiques. François Sureau, un libéral à l’ancienne pourrait-on dire, en tant qu’avocat défenseur des libertés publiques, vient de publier un opuscule très éclairant à ce sujet (voir Sans la liberté, Gallimard, collection Tracts). C’est dans le cadre de cette politique présidentielle et gouvernementale qu’il faut comprendre les assauts de Jean-Michel Blanquer contre les professeurs.

      Et si l’on veut contrôler les professeurs de façon tatillonne et ultra-dirigiste, au nom de l’efficacité et de la science (les neurosciences), il faut en effet s’attaquer à la tradition de liberté pédagogique et la limiter à un choix entre un petit nombre d’options labellisées par le ministère. Il faut tuer le pluralisme et borner le pouvoir d’agir des professionnels de terrain dans un cadre didactique imposé par des experts dont la compatibilité technocratique est avérée. Le paradoxe de l’étatisme dirigiste néo-libéral n’est donc qu’apparent. Il ne faut pas confondre l’idéologie néo-libérale avec l’idéologie libertarienne qui, elle, prône un capitalisme d’entreprises sans Etat. Il faut aussi noter que le fonctionnariat révulse les néo-libéraux de la « start-up nation » qui n’ont que les mots de « flexibilité » et « agilité » à la bouche. C’est pour eux un legs du passé totalement obsolète, qu’il faut mettre à plat, car ce système engage la puissance publique sur la durée et réduit d’autant la capacité de redéploiement budgétaire ultra rapide que les néo-libéraux réclament selon leurs priorités du moment. Cette façon de gouverner est manifeste dans les mesures brutales d’annulation des dispositifs sociaux qui se sont multipliées dès le début du quinquennat.

      Dans ce même esprit, pourrait-on également parler, par l’usage empressé des nouvelles technologies et les incessantes injonctions du ministère, qu’il existe désormais une forme de maltraitance administrative et numérique des enseignants ? Est-ce que finalement le numérique mais aussi les neurosciences ne servent pas à Blanquer d’outil managérial lui permettant d’opposer le primaire au Secondaire et ainsi, comme vous le dites, de « diviser pour mieux régner » ?

      Je crois qu’il y a deux phénomènes managériaux qui s’additionnent et qui touchent aussi bien les professeurs que tous les administratifs et les non-enseignants, à savoir environ 200 000 professionnels aux côtés de plus de 800 000 enseignants. D’un côté, il y a l’introduction du « new public management » avec la LOLF et la RGPP depuis 2006 dont la tendance est de copier les modes de management des grands groupes privés (gestion budgétaire pilotée par les financiers, individualisation des rémunérations, instauration de primes variables pour les responsables aux différents échelons en fonction d’objectifs décidés par les supérieurs, etc.). De l’autre, il y a l’immixtion directe du ministre dans les pratiques d’enseignement et les options didactiques. Cette immixtion concerne surtout l’enseignement primaire accusé d’être le vrai fautif des échecs du système. Mais le charcutage des programmes concerne aussi l’enseignement secondaire !

      Depuis plus de deux ans, Jean-Michel Blanquer a configuré à sa main le sommet du ministère en créant un Conseil scientifique de l’Éducation nationale (CSEN) totalement dominé par des neuroscientifiques et des quantitativistes, et en reconfigurant le Conseil supérieur des programmes (CSP) au profit de conservateurs dogmatiques. Ce sont deux leviers indispensables à sa prise de pouvoir qui prend chaque jour davantage les allures d’un présidentialisme appliqué à l’Éducation nationale. La loi Blanquer de juillet dernier, la reprise en mains des ESPÉ transformées en INSPÉ (dont les directions sont désormais nommées par le ministre), et celle de l’ESEN (l’école des cadres) en IH2E pour propager la doctrine du ministre et celle du CSEN, la suppression du CNESCO, illustrent brillamment cette domination sans appel. C’est une façon pour lui de s’assurer les pleins pouvoirs dans un système pyramidal et verticalisé à l’excès et de nommer aux postes-clés ses partisans les plus zélés, de moins en moins issus du sérail de l’Education nationale et de plus en plus éloignés de sa culture et de ses valeurs constitutives.

      Quelles sont les conséquences prévisibles de ces deux tendances managériales ? Si l’on chausse les lunettes des spécialistes des relations de travail, on peut sans doute augurer que tous ces changements autoritaires, imposées au pas de charge sans recherche de consensus avec les intéressés ou leurs représentants, produisent les mêmes effets de maltraitance que ceux qu’ont connus les anciennes entreprises publiques lors de leur privatisation sur un fond pathogène de « double lien » (quand les actes des chefs contredisent leurs paroles manipulatrices). Les beaux discours sur la confiance ne réussiront pas à masquer ce conflit fondamental, cette guerre contre les professeurs qui ne dit pas son nom.

      Dans votre analyse de la place que le manuel scolaire occupe désormais, vous ne manquez évidemment pas de rappeler que la mort du manuel scolaire est programmée en haut lieu depuis longtemps notamment au nom de la « révolution numérique ». Pourtant, faites-vous immédiatement remarquer, ce numérique n’est pas la révolution qu’elle prétend être, cachant souvent des leurres sociaux.
      En quoi peut-on dire que, pour l’école, la « révolution numérique » est une illusion ? Peut-elle révolutionner le cœur du métier d’enseignant ? N’y a-t-il pas le rêve au ministère qu’un jour ou l’autre le numérique puisse finalement se substituer au cours même des enseignants par le biais par exemple du MOOC ?

      Dans sa philosophie, le « numérique éducatif » est l’héritier de la cybernétique et de l’enseignement programmé des années 1950. Dans les débuts de l’informatique, c’est le moment où certains ingénieurs et mathématiciens prophétisaient le prochain remplacement des professeurs par les processeurs. Au discours futuriste propre aux « nouvelles technologies » (qui tient souvent de la sur-promesse éhontée) s’ajoute bien souvent un discours de type économique pour attirer des financements vers la recherche technologique. Les « technologues » à tous les âges savent qu’ils doivent faire miroiter aux décideurs et investisseurs d’importantes économies d’échelle à venir : finies les charges fixes d’enseignants et de locaux, fini le papier à stocker, etc., ce sera le règne de l’enseignement à distance ! Et les coûts de substitution sont toujours minorés, dans leurs montants financiers et leurs impacts tant sociaux qu’écologiques. De la même façon, de nombreuses impasses sont volontairement laissées à l’improvisation future en termes de faisabilité. Ce qui compte c’est d’avancer et de couper l’herbe sous le pied des concurrents et de ceux qui occupent déjà le terrain. On pourrait dire que c’est de bonne guerre économique pour qui pense que l’avenir se fonde sur des « destructions créatrices » !

      Le discours de l’adaptative learning se situe dans le droit fil des vieilles prophéties cynernétiques, comme je le rappelle dans mon livre. On nous présente un apprenant pris en main à distance par une machine intelligente capable de détecter en direct les erreurs de conception dans la tête de l’élève et d’adapter les contenus présentés et les exercices proposés pour le remettre sur le droit chemin du savoir d’une façon totalement individualisée. Le e-learning postule que l’élève serait une sorte de Robinson capable d’être connecté directement aux « savoirs universels » grâce au mentorat bienveillant d’un robot. Or l’autodidaxie est un exercice périlleux voire impossible, même avec l’aide distante d’un système supérieurement « intelligent ». Se priver du levier essentiel de l’apprentissage collectif et de la relation humaine entre professeur et élèves est le plus souvent source d’échec. C’est pourquoi d’ailleurs les MOOC relèvent plus du e-teaching que du e-learning puisqu’ils sont en principe pilotés par des enseignants qui gèrent à distance des classes virtuelles d’apprenants réels, dans le respect d’un calendrier et d’une progression imposés, ce qui est plus proche du fonctionnement scolaire ou universitaire habituel. L’isolement et les contraintes d’autogestion de planning par les apprenants eux-mêmes expliquent pourquoi le taux de réussite des MOOC est si faible, beaucoup abandonnant le cursus en cours de route faute d’autorégulation ou d’un étayage social suffisant. Au vu des évolutions actuelles, on peut espérer que les décideurs qui ont pu rêver un temps à un grand remplacement de l’enseignement et des enseignants par des robots revoient leur conception, même si les promesses de l’intelligence artificielle permettent encore de relancer et d’entretenir de nombreux fantasmes à ce sujet.

      S’agissant toujours du numérique, vous avez encore une formule très forte : vous parlez d’un ministère « sous hypnose numérique ». Mais vous faites immédiatement deux remarques sur lesquelles j’aimerais vous interroger. Vous dites, tout d’abord, qu’on ne lie jamais cette déferlante numérique aux stratégies prédatrices des GAFAM que vous choisissez de nommer les « seigneurs numériques ». Quelle serait ainsi selon vous le type de marché que convoitent dans l’Education nationale les seigneurs numériques ?

      Pour répondre à cette question, il faut élargir la focale. Le numérique est un sujet compliqué, par lui-même étant donné son impact massif dans les populations, mais aussi pour l’Etat, les collectivités territoriales et pour les différents acteurs concernés au sein de l’Éducation nationale. Tout le monde est mis sous la pression de l’industrie informatique mondiale qui domine et pilote le marché en fonction de ses intérêts exclusifs. Ce marché où s’affrontent des multinationales en position souvent monopolistique sur leurs créneaux produit un marketing séducteur, extrêmement puissant et très mystificateur. Dans mon livre, j’étudie plus particulièrement les ravages du « marketing du gratuit » chez les enseignants et les élèves.

      C’est donc compliqué de comprendre ce qui se passe réellement, d’autant plus que la « révolution numérique » s’est accompagnée de discours dithyrambiques à la mode qui ont très longtemps laissé dans une coupable obscurité les vrais moteurs économiques et sociaux de cette « révolution », et aussi son contexte géopolitique. On nous a présenté l’avènement du numérique comme une sorte de « révolution civilisationnelle » pour le bien de l’humanité, comme s’il s’agissait d’un phénomène technologique « naturel », du même ordre que le réchauffement climatique, mais en positif ! Horizontalité, agilité, gratuité, connectivité, dématérialisation, désintermédiation furent les plus courus de ses mots-clés. Intuitif, collaboratif, collectif, ses épithètes ô combien rabâchés. A l’instar du discours des neurosciences sur ce qui les précède, celui de la « révolution numérique » dépeint un avant caricatural : avant elle il n’y aurait que verticalité, rigidité, cupidité, isolement, etc. La « révolution » est devenu une rhétorique de marketing, en vigueur aussi bien dans la publicité que dans la vie des idées. Notons que ce révolutionnarisme verbal est proprement infantilisant. Heureusement qu’on perçoit mieux la mystification depuis que les coulisses industrielles et institutionnelles de tout ce storytelling sont mieux connues !

      Un autre élément de confusion est lié aux pratiques de masse qui se sont développées dans tous les usages domestiques et personnels (et là nous sommes toutes et tous concernés dans notre quotidien). Ils ont servi d’écran à la compréhension des effets profonds que le numérique engendre globalement dans l’économie, dans toutes les sphères professionnelles. Au lieu de toucher du doigt ce qui se joue réellement dans la numérisation de l’économie et de la vie sociale, les usages personnels ont servi de mascotte aux bienfaits supposés du numérique en général. Le cas de la tablette à cet égard est symptomatique. Elle a été pronostiquée par des béotiens admiratifs, comme un substitut enrichi du livre qui allait clore à brève échéance l’ère de Gutenberg. Dans l’Education nationale, certains ne jurent encore que par elle, comme on le voit dans certaines régions avec les équipements liés à la réforme des programmes des lycées.

      Quand on étudie les rapports officiels du ministère sur le « numérique éducatif », on ne peut qu’être frappé par l’engouement naïf de leurs auteurs qui adoptent la posture de grands stratèges du futur tout en reprenant à leur compte sans le moindre recul critique le storytelling de l’industrie informatique, les fantasmes de la « startup nation » mobilisée pour faire émerger sa « filière » nationale, tout en occultant les dimensions économiques, géopolitiques et même « bassement » gestionnaires de la question. Ces rapports tracent les grandes lignes d’un « numérique éducatif » centralisé qui viendrait en quelque sorte concurrencer le numérique grand public du cloud que les enseignants utilisent abondamment, y compris pour leurs besoins professionnels. Mais cette toile d’araignée, contrôlée par le ministère sous prétexte essentiel d’assurer la confidentialité des données personnelles, ne peut fonctionner qu’en utilisant le support industriel des seigneurs numériques ! Par exemple, j’ai lu récemment que c’était le cloud d’Amazon qui récupérait, dans ces centres de données en Irlande, les résultats des évaluations nationales des élèves français…

      Les seigneurs numériques à travers leurs innombrables filiales servent donc de prestataires de service au ministère puisque rien (ou presque) n’est possible sans leurs réseaux, leurs centres de données, leurs logiciels, etc. Mais ces groupes gigantesques lorgnent évidemment sur le marché éducatif qui en est encore à ses balbutiements pour des raisons que j’analyse dans mon livre : en termes de ressources, trop fortes disparités des curriculums entre pays qui rendent difficile pour l’enseignement obligatoire (le K12 anglo-saxon) de créer une offre globalisée qu’il n’y aurait plus ensuite qu’à « localiser » dans les différentes langues ; en termes de faisabilité pratique, difficultés aussi à substituer le virtuel au présentiel dans une proportion suffisamment intéressante sur le plan économique, etc. Je pense donc qu’ils sont en embuscade en pratiquant un entrisme discret et en espérant étendre leur mainmise industrielle à chaque étape.

      La deuxième conséquence, politique, est que cette révolution numérique offre en fait à l’Education nationale et à ces hiérarques comme vous le dites « une magnifique opportunité pour reformater sans le modifier le code génétique élitaire », et cela évidemment sans toucher aux causes de la ségrégation scolaire. Comment l’expliquez-vous ?
      Pour aller plus loin dans cette question, évoquant les « réformes » Blanquer du bac, vous êtes l’un des rares à parler de ces réformes comme d’un storytelling et finalement d’autant d’éléments de langage : s’agit-il là pour Blanquer d’éluder la question viscérale de l’inégalité ?

      J’ai déjà évoqué plus haut cette toile d’araignée numérique que le ministère tisse pour contrôler de diverses manières les outils des enseignants et même leurs formations via des modules à distance. Dans mon livre, je reviens sur la pratique des appels d’offre qui transforment les éditeurs scolaires et les producteurs numériques en pures prestataires de service du ministère contraints de se conformer à des cahiers des charges rédigés par les directions ministérielles s’ils veulent emporter le marché. Il y a aussi le nouveau rôle des organismes publics sous tutelle à qui le ministère confie des missions éditoriales pour produire des ressources d’enseignement labellisées par le CSEN. Toutes ces évolutions n’ont pas pour objectif de modifier quoi que ce soit dans l’organisation ségrégative du système mais d’assurer une prise de pouvoir centralisée sur les ressources destinées aux enseignants.

      La question que vous posez à propos de Jean-Michel Blanquer sur son évitement de la question de l’inégalité me permet d’aborder le rôle des neurosciences sur cette question. Ce point peut surprendre. En portant au pinacle la plasticité cérébrale des bébés et des enfants (qui est réelle en effet), les neurosciences dans la version instrumentalisée par Blanquer installent auprès de l’opinion publique et de certains parents l’idée que tous les élèves peuvent réussir de la même façon puisqu’ils ont le même cerveau, puisque c’est le cerveau qui apprend, et que, dès lors qu’il est correctement stimulé selon des méthodes « neuro », la réussite est assurée, l’échec jugulé. C’est ce même discours qu’exploite à sa façon Céline Alvarez et ses fameuses « lois naturelles », dont on connaît l’impact médiatique et publicitaire, même auprès de certains enseignants.

      L’échec scolaire aurait donc essentiellement pour cause l’inaptitude des professeurs (trop ignorants des découvertes « neuro ») pour effectuer ces stimulations comme il faudrait. Là encore, la cause des inégalités ne serait pas pour l’essentiel d’origine sociale, comme le montre de façon détaillée et percutante le dernier livre dirigé par Bernard Lahire (Enfances de classe, de l’inégalités parmi les enfants) mais proviendrait de l’école et des méthodes qu’elle met en œuvre, provoquant des inégalités de réussite entre enfants. Le déni sociologique implicite des « neuros » va si loin que j’ai pu entendre Boris Cyrulnik à France Culture le 3 septembre dernier affirmer qu’« aujourd’hui c’est l’école qui fait les classes sociales ». Conclusion des partisans « neuros » du ministre : en reformatant l’école selon les méthodes « neuro », on pourra assurer « l’égalité des chances ». Dans la même veine, le ministre présente ses mesures de dédoublements des CP comme la principale mesure de politique sociale du quinquennat ! Il laisse entendre aussi que la réforme des études au lycée général a pour but l’épanouissement personnel de chaque lycéen qui pourra échapper aux filières ségrégatives et enfin construire par lui-même son parcours et sa vie réussie. Le recours à la thématique du « développement personnel » à des fins institutionnelles vient ici gommer comme par magie les déterminismes inégalitaires inscrits dans l’organisation même du système. Les établissements sont loin d’être dotés des mêmes ressources et opportunités, sans parler du fossé entre la voie générale et technique et la voie professionnelle !

      Le naturalisme et le scientisme inhérents à l’épistémologie biomédicale des neuroscientifiques pro-Blanquer (que j’analyse en détails dans mon livre) ne sont donc pas les seuls biais qu’on peut relever. L’éviction des déterminants sociologiques est aussi un de leurs traits idéologiques. Cela permet de cantonner la question des inégalités de réussite scolaires dans l’enceinte de l’école, puis de les réduire à une sorte de « pédagogie du cerveau » à quoi se résume la prétention de la « neuro-pédagogie ». Cela permet aussi d’abandonner la question sociale en tant que telle (les inégalités de conditions familiales et sociales décrites par les sociologues) aux registres compassionnel et philanthropique.

      Un des points les plus remarquables également de votre approche du manuel scolaire est la place que le Ministère accorde aux éditeurs. Contrairement à une idée reçue, tenace notamment chez les enseignants, les éditeurs sont, en fait, maltraités comme l’essentiel des autres acteurs. Comment sont ainsi vus les éditeurs de manuels par le ministère ? Pourquoi, appartenant pourtant au privé, les éditeurs ne bénéficient-ils pas selon vous de la tornade néo-libérale qui, depuis l’arrivée de Blanquer, s’abat sur le ministère ?

      Dans le prolongement de ce que j’ai déjà dit, à l’évidence les éditeurs sont vus au mieux comme des prestataires de service s’ils jouent le jeu des appels d’offre. Au pire, comme un reliquat du passé avec lequel il faut composer. Ils ne sont pas vus en tout cas comme des partenaires autonomes dans un système horizontal de liberté pédagogique où collaboreraient de multiples acteurs dont les auteurs (chacun dans son rôle, régulé par une commune référence aux programmes officiels). Du point de vue de l’étatisme à la Blanquer, ils peuvent même être vus comme des opposants s’ils défendent la doctrine républicaine en vigueur depuis 130 ans ! Car c’est un fait historique que l’édition scolaire a été assurée par des entreprises privées depuis le milieu du XIXe siècle dans une logique concurrentielle et pluraliste. Parmi les libertés publiques républicaines, il y a, faut-il le rappeler, la liberté de publication. L’édition scolaire a été l’une des composantes qui a permis l’essor de l’édition puisqu’elle a contribué au développement de la scolarisation et donc de l’accès à la lecture.

      Ce point me permet d’aborder quelques réactions négatives ou dubitatives à l’égard de mon livre puisqu’il a été écrit par un ancien éditeur scolaire qui revendique son expérience. Certains critiques trollesques m’accusent de représenter le lobby de l’édition scolaire et voit dans mes critiques du technocratisme néo-libéral de Jean-Michel Blanquer un prétexte pour dissimuler la défense des rentes et profits (nécessairement faramineux) de l’édition scolaire privée. D’autres, moins négatifs, me reprochent de ne pas croire que le service public serait la seule option progressiste pour les auteurs souhaitant éviter d’être compromis avec la cartellisation de l’économie capitaliste. Contrairement à Ferdinand Buisson, ils ne voient pas les risques liberticides de confier l’édition scolaire à un monopole d’Etat ou à un organisme sous tutelle étatique dont la mission est de répercuter la politique officielle au gré de ses changements d’orientation. Comment gérer un vrai pluralisme de points de vue à l’intérieur d’une telle institution ? D’autres enfin me soupçonnent de mener un combat d’arrière-garde pour défendre un secteur économique condamné par le progrès technologique qu’ils voient incarné par les produits des seigneurs numériques ou les startups prétendument indépendantes (avant rachat par les premiers). Ils pensent que le numérique rend tout un chacun spontanément libre, compétent, collectivement intelligent. A mon sens, toutes ces critiques, parfois teintées d’un halo sulfureux de complotisme (bien qu’elles s’en défendent), ont perdu de vue la philosophie républicaine de la liberté pédagogique. Elles méconnaissent l’histoire et la réalité des entreprises d’édition, leur rôle pour permettre aux auteurs de donner consistance à une liberté chèrement conquise. Elles minorent les dangers de censure et de perte d’autonomie professionnelle pour les acteurs de l’école que recèlent tout affaiblissement de l’édition scolaire concurrentielle, soit lié à des limitations étatiques, soit lié à une trop forte concentration capitalistique.

      Le ministre, en tacticien roué, sait qu’il peut jouer sur l’esprit de loyauté des professeurs envers l’État employeur et leur attachement au service public, réputé défenseur désintéressé de l’intérêt général. Ses prises de pouvoir institutionnelles s’en trouvent plutôt facilitées, alors que, déposées en d’autres mains extrêmes, elles auraient des conséquences redoutables pour les démocrates. On ne comprend pas encore suffisamment, selon moi, en quoi le ministre joue les apprentis sorciers ! Il peut aussi user à bon compte de la méfiance des enseignants à l’égard des domaines d’activité où l’argent, le commerce, l’entrepreneuriat sont impliqués, autant de figures menaçantes représentant un supposé poison pour l’école publique, ces traits étant associés dans l’esprit des enseignants à une hostilité de principe à l’Etat-providence, ce qui est faux. Mais je sais aussi que cette attitude des professeurs est ambivalente. Ainsi on ne peut les soupçonner de souhaiter que l’édition de littérature, pour prendre un exemple saisissant, soit confiée à l’Etat ou à un organisme public… On peut au contraire penser qu’ils souhaitent qu’elle reste l’apanage d’éditeurs passionnés dans des entreprises ou des collectifs de statuts variés et à taille humaine.

      S’agissant encore du secteur privé et de la place que peut lui accorder un ministre néo-libéral comme Blanquer, vous montrez, et vous êtes le seul, qu’il faut plutôt les chercher du côté des associations et instituts qui rôdent autour de la rue de Grenelle. Vous dénoncez notamment la collusion de la Fondation Axa et son entrisme au ministère via l’association « Agir pour l’école » dont Blanquer a été un temps membre du comité directeur ainsi que l’Institut Montaigne. Pouvez-vous nous dire quels liens et quels rôles ces organismes entretiennent-ils avec l’Education nationale et comment Blanquer use de ces groupes pour mener sa politique ministérielle ?

      Je ne suis pas le seul à pointer les liens entre Jean-Michel Blanquer et la philanthropie du groupe d’assurance Axa. Les hauts technocrates au pouvoir actuellement n’ont plus du tout le profil de leurs devanciers. Ils ont un pied dans la haute fonction publique et un pied dans les directions opérationnelles des grands groupes industriels et financiers. De nombreuses études et enquêtes documentent cette évolution. De sorte qu’il semble tout à fait naturel à ces hauts dirigeants d’ouvrir les portes des organismes publics et des directions ministérielles à des partenariats ou à des actions « philanthropiques ». C’est ainsi que l’Institut Montaigne, financé par la Fondation Axa, explique au ministère comment mener à bien la numérisation de l’école primaire en France. C’est ainsi que l’association Agir pour l’école, financée par le mécénat Axa, a l’autorisation exceptionnelle de mener des expérimentations autour de sa méthode de lecture validée « neuro » dans des classes de l’école publique. Ce ne fut possible que grâce à l’appui discrétionnaire de Jean-Michel Blanquer lorsqu’il était DGESCO puis lorsqu’il devint ministre. La particularité de cette faveur être d’être accordée au plus haut niveau du ministère sans qu’il ne soit vraiment prévu de rendu de compte autre que ceux de l’association elle-même. Évidemment elle vante ses brillants résultats qui s’appuient sur « la science » ! Ce genre d’opération exceptionnelle au sein de l’Education nationale est un fait du prince auquel les enseignants de terrain dans les zones concernées sont tenus de se soumettre sous la pression de leur hiérarchie directe. On déguise en volontariat ce qui relève en fait d’une sorte d’embrigadement hiérarchique pour faciliter un entrisme caractérisé. J’évoque en détails dans mon livre la stratégie d’Agir pour l’école et de ses parrains.

      Il faut comprendre, au vu de cet exemple, que le néo-libéralisme a partie liée avec ce qu’on appelle le « philanthro-capitalisme ». En réduisant drastiquement les impôts des grands groupes privés et des grandes fortunes, il réduit d’autant les budgets publics et impose un rabotage général des dépenses. Faute de financements disponibles liés à une pénurie bien organisée, il favorise l’immixtion du mécénat des mêmes groupes privés et grandes fortunes pour financer des opérations qui auraient dû l’être sur le budget de l’Etat ou des collectivités territoriales. La conséquence est que ce ne sont plus les responsables au sein de l’appareil d’Etat ou des organismes publics sous tutelle qui ont le pouvoir de décider des nouveaux projets à mener. Ce sont des fondations privées externes qui se voient de plus en plus doter de ce pouvoir en décidant elles-mêmes des programmes qu’elles acceptent de financer. Cette prise de pouvoir larvée est une privatisation déguisée, réalisée avec la complicité des hauts technocrates néo-libéraux, censés pourtant défendre l’intérêt général à la tête de la puissance publique. A l’évidence les conflits d’intérêt, à terme, sont patents. Mais tout se fait par petites touches, dans une discrétion complice, par le truchement d’associations sans but lucratif. Les grands groupes peuvent communiquer sans vergogne sur leur remarquable générosité et leur implication citoyenne dans les affaires de la collectivité et afficher, comme retour sur investissement, un républicanisme de bon aloi !

      En parlant d’« Agir pour l’école », il faut aussi évoquer Stanislas Dehaene dont vous nous apprenez qu’il mène une partie de ses recherches en synergie avec cette association. Votre démonstration est implacable : de fait, la place au sein de l’Éducation nationale qu’occupe désormais Stanislas Dehaene, neuroscientifique, ne manque pas d’intriguer tant elle est surprenante. Si, de fait, le ministère avec Blanquer tombe sous la coupe réglée des neurosciences, on ne peut qu’être étonné que ce psychologue cognitiviste, étranger aux sciences de l’éducation notamment, soit président du Conseil scientifique de l’Education nationale. Et on ne peut qu’être étonné surtout des propos, inquiétants il faut le dire, qui sont les siens ainsi que, plus largement, de sa démarche.

      En effet, vous rappelez ses déclarations pour le moins déconcertantes sur les manuels scolaires qu’il considère comme autant de « médicaments ». Vous poursuivez d’ailleurs à très juste titre en disant que cette personne emploie plus généralement des métaphores médicalisées pour parler de l’Education. Vous dites que peut-être bientôt on va appeler les élèves des « malades » ou des « patients ». Posons la question sans détour : est-ce que la place que prennent les neurosciences à l’école n’ouvre pas potentiellement un nouveau marché à l’industrie pharmaceutique : soigner par exemple les enfants dont les tests de positionnement en primaire ou en Seconde révéleraient des difficultés dans l’acquisition de connaissances ?

      Les liens entre Stanislas Dehaene et Jean-Michel Blanquer sont anciens. Bien avant d’être ministre, ce dernier (juriste de formation et professeur de droit public, rappelons-le) a toujours été sur une ligne critique à l’égard des professeurs des écoles qu’il accuse, depuis son premier passage au ministère en 2006 (sous Robien), de ne pas enseigner correctement les « fondamentaux ». On se souvient de la campagne du ministre Robien en faveur de la « méthode syllabique » et déplorant que l’école primaire soit, selon ses dires, infestée par la « méthode globale ». C’était peu de temps après qu’un consensus s’était pourtant formé parmi les spécialistes du lire-écrire sur les facteurs clés de cet apprentissage. Mais, quels que soient les avis des chercheurs, les ministres de droite ont toujours joué sur une communication grand public anti-prof, cherchant à raviver de faux débats, entretenus par tous les chroniqueurs déclinistes, pour se rallier une majorité de parents-électeurs. Jean-Michel Blanquer a tiré les leçons de l’échec de Robien à imposer ses manières de voir rétrogrades. Pour éviter les mêmes déboires, il a cherché des alliés parmi les experts médiatiques et les à trouver chez certains neuroscientifiques, dont le chef de file est Stanislas Dehaene. C’est d’ailleurs dans la collection que dirige ce dernier chez Odile Jacob que le futur ministre a publié ses ouvrages programmatiques sur l’école.

      Comment analyser cette alliance entre le haut fonctionnaire devenu le « vice-président » d’Emmanuel Macron (selon l’hebdomadaire Le Point) et l’éminent neuroscientifique de l’INSERM et du Collège de France qui préside le CSEN instauré début 2018 par le premier ? Quel est le ressort de cette alliance entre un ministre néo-libéral au verbe républicain et le patron d’un pool de spécialistes partageant le même culte du cerveau et de la randomisation ? A mon sens, un nouveau front idéologique s’est constitué là où se retrouve et s’étaye mutuellement le scientisme neurobiologique (foncièrement opposé aux méthodes non strictement quantitativistes des sciences sociales), le technocratisme néo-libéral (foncièrement convaincu de la supériorité des « savoirs experts » randomisés sur les savoirs expérientiels des praticiens) et les intérêts de l’industrie biomédicale qui finance en grande partie les recherches en neurosciences appliquées et, de façon plus large, de l’industrie de la santé et de l’assurance.

      Outre ses puissants réseaux d’influence, la force de cette alliance est sa stratégie de communication qui est fondée sur un storytelling très efficace. Le point de départ est souvent constitué par des éléments de langage qui concourent à dresser un tableau dramatique de la situation, notamment de l’école. Les évaluations internationales de type PISA ou les rapports d’expertise sont instrumentalisées à cette fin. Certains défauts du système sont dûment pointés et mobilisés comme éléments à charge, de sorte que des critiques qui émanent de la gauche de la gauche peuvent aussi être reprises comme arguments recevables et comme force d’appoint dans les instances mises en place. Il s’agit de montrer l’irresponsabilité des anciens gouvernants, la stérilité des débats antérieurs, les contradictions entre les discours et les réalités. Et de conforter finalement les arguments du camp des déclinistes (qui ont peu varié les airs qu’ils entonnent depuis Jules Ferry, sur le niveau qui baisse, la tradition qui est pervertie, la barbarie qui s’installe dans l’école, la nuisance des « pédagogistes », etc.). Cet éclectisme associant des points de vue extrêmes à un pragmatisme qui se veut apolitique est déroutant au premier abord et fait de ce courant opportuniste un attrape-tout.

      A partir de cette mise en scène décliniste, l’alliance « techno+neuro » a beau jeu de se présenter en sauveur de l’école menacée de péril ou de faillite, de prendre des poses de fervente républicaine apte à redresser une situation gravement compromise. Qui peut être contre de tels bienfaiteurs qui font constamment la une des médias, relayant sans beaucoup d’interrogations leurs discours bien huilés, leurs incessants « plans d’action » ? Qui peut s’opposer aux déclarations, en général indexées à gauche, sur la lutte contre l’échec scolaire, la réussite pour tous, l’égalité des chances, l’épanouissement individuel, et même la confiance retrouvée. Cette belle alliance entièrement désintéressée et dévouée au bien commun peut donc espérer gagner le soutien de bords considérés autrefois comme antagonistes, neutraliser les oppositions minoritaires accusées de corporatisme ou d’idéologie nuisible, et dérouler son plan de reformatage des institutions en accaparant tous les pouvoirs, en révisant les anciens compromis sociaux taxés d’immobilisme et, au passage, opérer un hold-up sur les crédits de recherche.

      Il faut comprendre qu’il y a une profonde communauté de vision du monde entre les technocrates et les neuroscientifiques du CSEN : c’est le culte scientiste du quantitatif et de la statistique. Le haut technocrate ne jure que par les indicateurs des multiples tableaux d’analyse qu’il concocte pour comprendre la réalité qu’il doit gérer. Les comparaisons et les variations statistiques appliquées ensuite aux données sont censées lui permettre de comprendre la diversité des situations réelles et proposer des mesures d’ajustement. De façon similaire, le chercheur quantitativiste ne jure que par l’expérimentation randomisée et considère comme pure opinion improuvable les constats qui ressortent de toutes les autres modalités d’observation ou d’enquête.

      La randomisation, qui a contribué à l’attribution du Nobel d’économie à Esther Duflo (membre du CSEN), est la méthode expérimentale utilisée par les quantitativistes des sciences cognitives (mais aussi en économie ou en sociologie) pour valider leurs hypothèses interprétatives et éliminer les variables dues au hasard. Elle consiste à vérifier empiriquement, en comparant des groupes tests et des groupes témoins soumis aux mêmes épreuves dans des conditions différentes, si les indicateurs postulés par la théorisation sont pertinents et permettent de comprendre comment fonctionne le dispositif observé. Cette forme de recherche expérimentale est le décalque des modalités d’expérimentation mises au point par l’industrie pharmaceutique pour tester l’effet des molécules sur des groupes ciblés d’individus affectés de divers troubles ou maladies.

      Il n’est pas surprenant que les neurosciences fassent le pont entre les méthodologies du biomédical et celle de la psychologie cognitive. Leur processus de recherche est le suivant : dans un premier temps elles formulent des hypothèses sur le fonctionnement du cerveau apprenant en observant des individus isolés sous IRM fonctionnel soumis à des tâches. A ce stade, ces recherches se déroulent dans l’environnement de la recherche biomédicale qui utilise les mêmes appareillages et méthodes de retraitement des données. Dans un second temps, elles déduisent de ces hypothèses et paradigmes (qui font l’objet de vifs débats au sein des neuro-chercheurs, ne l’oublions pas !) des prescriptions didactiques qui feront l’objet de tests en classe pour mesurer leur efficacité grâce à des évaluations dûment randomisées. Ces tests pourront en retour servir à relancer les hypothèses initiales, et ainsi de suite. La cherté de ces recherches biomédicales randomisées, comparée à d’autres méthodes d’observation pratiquées en sciences sociales, produit un effet d’évitement constaté par nombre de chercheurs : pour financer une seule recherche « neuro », il faut ne pas financer de nombreuses autres recherches non « neuro » ! Le scientisme biomédical n’est pas seulement une philosophie, c’est aussi un outil politique de gestion de la recherche qui a une tendance à la domination et au monopole, à l’impérium comme je le dénonce dans mon livre.

      Je voudrais m’attarder, si vous me le permettez, sur ces tests de positionnements qui paraissent révélateurs de la politique « neuro-techno » menée par Blanquer. Ma question sera double : est-ce qu’avec ces tests de positionnement de Seconde où les élèves doivent répondre comme à des stimuli et non engager une véritable réflexion, on ne peut pas considérer qu’il s’agit pour les neurosciences à la manœuvre ici de faire des élèves des cobayes ?

      Enfin, et vous le suggérez avec force, n’y a-t-il pas instrumentalisation de la part des neuroscientifiques, et notamment de Dehaene, des élèves pour leur faire passer des tests ? N’expérimentent-ils pas sur les élèves des méthodes afin de financer leurs propres recherches et monnayer leurs résultats pour, par exemple, faire l’acquisition d’IRM et d’appareils d’imagerie médicale sophistiquée afin de continuer à cartographier le cerveau ?

      Comme je l’ai souligné plus haut, l’expérimentation randomisée est la principale méthode qui permet aux recherches de laboratoire en neurosciences de déboucher ensuite sur d’éventuelles applications en classe moyennant la passation de tests contrôlés. Dans les dispositifs d’observation sous IRM, les bébés ou les enfants sont effectivement pris comme des cobayes. Mais c’est peu ou prou le cas de tous les dispositifs de recherche en psychologie cognitive, qu’ils soient effectués en laboratoire ou en milieu ouvert contrôlé. Dans le cas des recherches « neuro », l’ équipement des sujets en capteurs pour enregistrer leurs données d’activité cérébrale renforce cette image dévalorisante du cobaye. Mais, en principe, il n’y a pas de maltraitance ! Sauf, de façon assez courante dans le biomédical semble-t-il, sur les données elles-mêmes et leur interprétation pour pouvoir publier au plus vite des articles dans les revues scientifiques faisant état de résultats tangibles et continuer à se faire financer (je renvoie au livre très documenté Malscience, de la fraude dans les labos de Nicolas Chevassus-au-Louis). Or un nombre significatif de ces articles contient des résultats non reproductibles ou douteux. Il n’est donc pas inutile de se défier de tous les arguments d’autorité du type « la littérature scientifique internationale a montré que… », « la recherche internationale a conclu que… », « la méta-analyse de x recherches a prouvé que… ». L’absence de recul critique sur les conditions de publication de la littérature scientifique favorise le rejet en bloc des travaux scientifiques, ce qui n’est pas souhaitable, car, dégagés des diverses instrumentalisations dont ils sont l’objet, ils sont la source d’apports précieux pour les débats sérieux qui font avancer les connaissances en éducation, à la condition expresse d’intégrer l’ensemble des disciplines de recherche aux méthodologies et points de vue très variés et d’être ouvert aux savoirs expérientiels des praticiens.

      S’agissant toujours enfin de ces tests de positionnement, Blanquer paraît les user pour une fois de plus remettre en cause le métier même d’enseignant. Automatisés, ces tests ne sont pas corrigés par les enseignants qui, parfois, ne les font même pas passer à leurs propres élèves. C’est le rôle même d’enseignant qui est nié purement et simplement, les résultats des tests ne pouvant par ailleurs servir le plus souvent à nourrir le cours ou construire une quelconque séquence d’enseignement. Est-ce que ces tests sont pour Blanquer une nouvelle manière à la fois de nier l’expertise professorale et reconduisent le vieux fantasme moderniste de substituer un micro-processeur au professeur ? Enfin, en quoi accentuer la place du français et surtout des mathématiques, via ces tests, relève, comme vous le mentionnez, du « populisme éducatif » de Blanquer ?

      Le « populisme éducatif » est un concept forgé par le chercheur Xavier Pons pour désigner le fait que « les gouvernants proposent un programme d’action publique qui flatte les attentes perçues de la population sans tenir compte des propositions, des arguments et des connaissances produites dans le cours de l’action par les corps intermédiaires ou les spécialistes du sujet » (voir notamment son interview aux Cahiers pédagogiques). Cela caractérise bien la façon de gouverner de Jean-Michel Blanquer qui n’a tenu aucun compte des rejets massifs de ces réformes par les instances de concertation au sein de l’Education nationale ni des nombreuses critiques ou oppositions des spécialistes, y compris parmi les neuroscientifiques ! Sa manœuvre a consisté à faire croire que les meilleurs experts étaient avec lui. Les membres du CSEN ont une responsabilité particulière dans cette instrumentalisation politique.

      Sur la question des tests de positionnement et des évaluations en général, il faut clairement distinguer trois types de tests. Le premier concerne ce que nous avons vu plus haut, à savoir ces tests dérivés des recherches de laboratoire et destinés à mesurer l’efficacité de dispositifs inspirés des paradigmes théoriques formulés dans les labos. On peut les qualifier de « scientifiques » puisqu’ils ont pour cadre des recherches institutionalisées, une théorisation au sein d’une communauté savante et des retombées applicatives.

      Le deuxième type concerne les évaluations en classe, sur des épreuves calibrées, d’un échantillon d’élèves représentatif d’une population globale afin d’obtenir une image d’ensemble du niveau des élèves, d’effectuer des comparaisons dans le temps et des typologies en fonction de données contextuelles caractérisant les élèves et les établissements. Le but de ce type d’évaluation n’est pas d’intervenir dans la scolarité des élèves en faisant un retour des résultats auprès des classes via les enseignants. C’est d’observer une réalité dans ses multiples composantes pour en obtenir une représentation experte. L’exemple le plus connu de ce type d’évaluation est PISA.

      Le troisième type concerne les évaluations nationales obligatoires telles qu’elles sont mises en place en France depuis 2018. Elles visent à situer chaque élève sur une échelle comparative en identifiant points forts et points faibles et à faire un retour vers l’enseignant pour qu’il adapte son enseignement aux difficultés identifiées de ses élèves, voire l’individualise. Mais n’est-ce pas ce que s’attache déjà à faire les enseignants ? Ces évaluations ont donc un objectif d’ordre pédagogique. Toutefois, la composition des épreuves n’est pas neutre et comporte des choix didactiques implicites qui obligent les enseignants à s’adapter à leurs réquisits au fil des passations. C’est ce que j’appelle le pilotage par l’aval des pratiques pédagogiques. C’est un premier effet caché par le CSEN et les promoteurs de ces évaluations qui ne l’évoquent jamais.

      Un autre biais dissimulé est l’évaluation des enseignants eux-mêmes. Il faut bien voir que les résultats anonymisés et centralisés donnent lieu à des compilations au plan national et local qui permettent d’évaluer les élèves, les classes, les enseignants, les établissements et d’établir des comparaisons voir des classements. Le ministre et le CSEN viennent de se glorifier de l’amélioration des performances de élèves de CP et de CE1 d’une année sur l’autre en utilisant les données compilées ! Ces évaluations ont donc un second objectif déguisé qui consiste à faire comme si l’ensemble des classes du pays d’un même niveau scolaire n’en formait qu’une, toute chose égale par ailleurs, et qu’on pouvait déduire de ces données une forme d’enseignement efficace universelle, valable dans tous les contextes, sans tenir compte des énormes disparités entre les écoles et les établissements, des effets délétères d’un système fortement ségrégatif.

      A mon sens, la stratégie ministérielle ne consiste pas pour l’instant à substituer des tests à de l’enseignement présentiel. Il vise deux choses. D’abord à faire en sorte que la culture du test s’installe dans le paysage scolaire à tous les niveaux possibles, que la réussite aux tests devienne l’objectif premier de l’enseignement, ce qui limite l’autonomie professionnelle des professeurs dont les référentiels traditionnels sont les programmes scolaires et la liberté pédagogique. De ces tests pourront aussi émaner des ressources labellisées substitutives aux manuels et ressources actuelles. L’autre objectif est de pouvoir plus tard confier cet enseignement reconditionné par le CSEN et les instances ministérielles sous la coupe directe du ministre à des personnels recrutés et formés autrement qu’actuellement, beaucoup moins autonomes, davantage isolés et dominés par une hiérarchie technocratique qui pourra évaluer quantitativement leur « mérite » en fonction des résultats aux tests et individualiser les rémunérations en conséquence. C’est une école aux mains des « technos » et des « neuros » qui se dessine, bien différente de l’école publique républicaine et de ses valeurs !

      https://diacritik.com/2019/11/13/philippe-champy-les-beaux-discours-de-blanquer-sur-la-confiance-ne-reussi

  • Café et climat : La culture du café face aux effets du changement climatique - Toute l’actualité des Outre-mer à 360° - Toute l’actualité des Outre-mer à 360°
    http://outremers360.com/economie/cafe-et-climat-la-culture-du-cafe-face-aux-effets-du-changement-climat

    Le #café compte environ 80 espèces (#Typica, #Maragogype, #Bourbon, #Blue_Mountain ou #Mundo_Novo….) , mais ce sont l’#Arabica et le #Robusta qui s’imposent. L’arabica – un marché évalué à 16 milliards de dollars – est le plus consommé au monde et pourrait disparaître à l’état sauvage d’ici 2080. Car aujourd’hui, c’est toute la production d’Amérique centrale qui se trouve menacée par la rouille orangée causée par un champignon. Mais la rouille n’est pas la seule menace pour le café. La chaleur a favorisé les attaques dans les zones d’altitude, liée à l’appauvrissement génétique des plantations. A son origine, en #Ethiopie, le café sauvage poussait à l’ombre. Dès le 14ème siècle au #Yemen, on le remet au soleil, et la moitié du café dans le monde aujourd’hui est cultivée industriellement, en plein soleil, comme au #Brésil. « Les jours de ces #méthodes de production pourraient être comptés, en raison des changements climatiques » nous met en garde Hervé Etienne (CIRAD).

    #climat #monoculture

  • [Seminaire] Les représentations des migrations #1. Les enjeux de la cartographie

    Le laboratoire Migrations internationales, espaces et sociétés (Migrinter 7301 CNRS - Université de Poitiers) ouvre un séminaire (2019-2021) intitulé "Représenter les migrations".

    Quatre séances introductives sont programmées, entre avril et octobre 2019. Elles seront suivies par sept séances thématiques prévues entre novembre 2019 et juin 2020 (dates à venir).

    La première séance introductive dédiée aux Enjeux de la cartographie des migrations est organisée autour des interventions de Nicolas Lambert (Riate, CNRS, Paris Denis Diderot) et de Françoise Bahoken (IFSTTAR, Université Paris Est).

    Elle aura lieu le jeudi 4 avril de 14 à 17 h à la Maison des Sciences de l’Homme et de la Société de Poitiers.

    Résumé de la séance « Enjeux de la cartographie... » :
    « De tous temps, des cartes ont été mobilisées pour se repérer, se déplacer et représenter le monde. La cartographie des déplacements humains apparaît toutefois tardivement, notamment avec les premiers travaux de Charles-Joseph Minard, au milieu du XIXe siècle, figurant des mouvements humains ou des transports à différentes échelles géographiques. Dès lors, elle n’a cessé de se développer, en lien avec un engouement général et soutenu pour la visualisation de données. ... » Lire la suite : _http://migrinter.labo.univ-poitiers.fr/actualites/les-representations-des-migrations-seance-1/_

    – En savoir plus sur le séminaire : _http://migrinter.labo.univ-poitiers.fr/seminaires/representations-migrations/_

    #seminaire #cartographie #migrations #migrants #carte #cartedeflux #cartostats #dataviz #geoviz #théories #méthodes #concepts #sémantique #pratique #rhétorique

  • #Ciné_vert. #Environnement et #industrie_cinématographique

    Aux représentations hollywoodiennes du changement climatique, de type catastrophiste et sensationnaliste, s’oppose l’émergence d’un nouveau type de cinéma plus authentiquement écologique, qui prend en compte la question de la #soutenabilité tant dans ses thématiques que dans ses #méthodes_de_production.


    https://laviedesidees.fr/Cine-vert.html
    #cinéma #changement_climatique #climat #écologie

  • Cercle vicieux (Anne Dufourmantelle, Libération, 27/04/2017)
    https://www.liberation.fr/debats/2017/04/27/cercle-vicieux_1565827

    Ce qui me frappe, moi qui ne crois pas appartenir au « #cercle_de_la_raison », c’est que l’on trouve raisonnable justement que 200 personnes soient aussi #riches que 3 milliards dans ce monde. Ce qui me frappe c’est que l’on trouve raisonnable de ne pas donner raison aux sages femmes de ce pays qui, depuis plus d’un an, ne font pas grève pour le plaisir mais pour obtenir des #conditions_de_travail décentes. Ce qui me frappe, c’est que l’on trouve raisonnable de ne pas satisfaire la demande justifiée des auxiliaires maternelles en crèche ou des infirmières, rincées par le sous-effectif, car ce sont elles qui sont en première ligne sur le front de notre sacro-sainte #égalité. Ce qui me frappe c’est que l’on trouve raisonnables les #méthodes_managériales qui poussent tant de gens à souffrir au #travail et parfois à en finir, ce qui me frappe c’est de trouver raisonnable de continuer d’appeler Europe ce grand projet de liberté et de paix éclairées, la technocratie Bruxelloise.

    Martin Buber a écrit que c’est en rendant impensable toute #alternative à un ordre des choses qu’on participe à une hégémonie qui a pour propriété de susciter la #violence et la #destruction. La #doxa qui consiste à ostraciser toute #pensée transversale à une #orthodoxie couve une menace. On a vu comment « le cercle de la raison » a pondu en une trentaine d’années un parti qui a la #peur pour patrie et le #ressentiment pour exutoire.

    Cf. https://seenthis.net/messages/733660

  • Makina Corpus, premier pas en #éco-conception
    https://makina-corpus.com/blog/societe/makina-corpus-premier-pas-en-eco-conception-de-logiciel

    Makina Corpus va être accompagnée pour intégrer les principes de l’éco-conception dans le développement de ses produits et services grâce à la démarche collective Green Concept.

    #Ergonomie #Environnement #Développement_durable #Green-IT #Méthodes_Agiles #Valeurs #Formulaire #Expérience_utilisateur #Application_métier #Société #News_Item

  • Techniques. Ré-évaluation. A qui profitait la violence ?
    (Interpersonal violence at Playa Venado, Panama (550-850 AD) : a reevaluation of the evidence). Latin American Antiquity.

    Enterré vivant. Boucherie. Décapité. Mutilé. Tué. L’archéologue Samuel K. Lothrop n’a pas obscurci le tableau en décrivant ce qu’il pensait être arrivé aux 220 corps que son expédition avait trouvés sur le site de Playa Venado au Panama en 1951. Le seul problème est que Lothrop s’est probablement trompé. Une nouvelle évaluation des vestiges du site par des archéologues du Smithsonian n’a révélé aucun signe de traumatisme au moment de la mort ou presque. Le lieu de sépulture raconte probablement une histoire plus nuancée culturellement.

    (...)

    Les interprétations erronées de Lothrop sont probablement dues à l’ère de « l’archéologie romantique », des méthodes sous-développées pour les études mortuaires et les lectures littérales par les espagnols des contes des peuples autochtones après un contact européen.

    « Nous réalisons maintenant que beaucoup de ces chroniqueurs espagnols étaient motivés à montrer les populations indigènes rencontrées comme » non civilisées « et ayant besoin de conquérir », a déclaré Smith-Guzmán, ajoutant que de nombreux récits de sacrifices et de cannibalisme n’ont pas été confirmés.

    (...)

    « Plutôt qu’un exemple de mort violente et de déposition imprudente, Playa Venado présente un exemple de la façon dont les sociétés précolombiennes de la région isthmo-colombienne ont montré du respect et du souci pour leurs proches après la mort. »

    Le problème c’est que

    l’article de Lothrop publié en 1954, « Le suicide, le sacrifice et les mutilations dans les sépultures à Venado Beach, au Panama », a marqué les annales de l’archéologie panaméenne. Il a été cité plus de 35 fois comme preuve de violence, de cannibalisme ou de décapitation de trophées. Certains auteurs ont utilisé l’article pour suggérer que Playa Venado est un lieu de sépulture de masse ou une manifestation de conflit.

    Pour la défense de Lothrop, qui était archéologue au musée d’archéologie et d’enthologie de l’université de Harvard, la bioarchéologie (étude des restes humains issus de contextes archéologiques) n’a existé qu’en tant que sous-discipline deux décennies après sa conclusion à Playa Venado. Les praticiens d’aujourd’hui bénéficient également des méthodes développées dans les années 1980 et 1990.

    (...)

    À l’examen, Smith-Guzmán n’a trouvé que des plaies qui montraient des signes de guérison bien avant que les individus ne décèdent, notamment des coups à la tête et un pouce disloqué. Lothrop a probablement expliqué la présence de divers os cassés et de restes désarticulés en raison des processus normaux de décomposition et d’enfouissement secondaire des restes, qui auraient une pratique commune de vénération des ancêtres au Panama précolombien.

    (...)

    « Le positionnement uniforme de l’enterrement et l’absence de traumatisme périphérique (au moment de la mort) sont en contradiction avec l’interprétation de Lothrop sur la mort violente sur le site », a déclaré Smith-Guzmán. dans le cadre de l’enquête. « Les taux de traumatisme sont généralement faibles et la bouche ouverte des squelettes notés s’explique plus facilement par un relâchement musculaire normal après la mort et la pourriture. »

    #Méthodes
    #Nicole_E._Smith-Guzmán #Richard_G._Cooke

    2018; 1 DOI: 10.1017/laq.2018.48

    Pre-Columbian burials | Smithsonian Tropical Research Institute
    https://stri.si.edu/story/pre-columbian-burials

  • You’re not even criticising #scrum
    https://hackernoon.com/youre-not-even-criticising-scrum-caecf4eb19d3?source=rss----3a8144eabfe3

    I’ve been reading quite a bit of material produced by the #agile community of late. I’ve looked into engineering practices and culture. I’ve observed agile metrics and product identification. I’ve even stumbled into the realm of marketing and team building. In all of this, I’ve seen the same old trope wheeled out — “Scrum isn’t appropriate for the modern age”. Then, what follows is what I can only describe as the ultimate straw man convention. Arguments so fragile, I could write an application in VB.net and brute force them into submission. With that in mind, I thought I’d address some of the common critiques that I bump into regularly.Scrum is old nowI’m endlessly confused by people who equate an idea being old with it being ineffective. People just say “Scrum isn’t relevant any more” and leave it (...)

    #scrum-criticisms #criticising-scrum #kanban

  • The Basic Outline of a Paper

    The following outline shows a basic format for most academic papers. No matte r what length the paper needs to be, it should still follow the format of having an introduction, body, and conclusion. Read ove r what typically goes in each section of the paper. Use the back of this handout to outl ine information for your specific paper.

    http://www.crestmont.edu/pdf/candidates-reserarch-papers.pdf
    #écriture_scientifique #conseils #méthodes #méthodologie #écriture #article_scientifique

  • Atelier populaire d’#urbanisme

    L’Atelier Populaire d’Urbanisme de la Villeneuve est une initiative lancée à l’automne 2012 pour construire une alternative au projet de rénovation urbaine de l’urbaniste Yves Lion et de la ville de Grenoble alors dirigé par M.Destot.

    Ce projet décidé "d’en haut avait suscité beaucoup des oppositions de la part d’habitants qui refusaient la logique qui a mené à la démolition du 50 galerie de l’Arlequin, la construction d’un nouveau parking et le redécoupage du réseau routier. Un collectif contre la démolition, ensuite surnommé Vivre à la Villeneuve a lancé la mobilisation, dénoncé la fausse concertation et a lancé un appel à la ministre du logement pour la remise en cause du projet de rénovation urbaine.

    En 2013, à l’occasion du 40ème anniversaire de la Villeneuve et à l’initiative du collectif interassocati Villeneuve Debout, une multitude d’ateliers ont aboutit à la formulation d’un projet urbain stratégique et démocratique. Ce projet a montré qu’une autre approche de l’urbanisme est possible, issue « d’en bas », basée sur les intérêts des habitants, et qui visent les logiques de pouvoir d’agir des habitants.

    http://www.assoplanning.org

    #association_planning #grenoble #droit_à_la_ville #logement #Villeneuve #droit_au_logement #activisme_urban #urban_matter #villes #méthodes_participatives #savoirs_citoyens #savoirs_pratiques #savoirs_théoriques #community_organizing #advocacy_planning #désorganisation_sociale #empowerment

    Les liens et documents qui suivent dans ce fil de discussion sont tirés d’informations que j’ai entendu dans un cours donné par David Gabriel, co-auteur du livret « Les tours d’en face » (https://halshs.archives-ouvertes.fr/halshs-01261860/document)

    • #Saul_Alinsky

      Saul David Alinsky, né le 30 janvier 1909 à Chicago et mort le 12 juin 1972 à Carmel (Californie), est un écrivain et sociologue américain, considéré comme le fondateur du groupement d’organisateurs de communauté (community organizing) et le maître à penser de la gauche radicale américaine.


      https://fr.wikipedia.org/wiki/Saul_Alinsky

      Un livre de Saul Alinsky: «#Rules_for_radicals»
      –-> ici des extraits choisis

    • #Jane_Jacobs

      Jane Jacobs (née Jane Butzner 4 mai 1916 à Scranton, Pennsylvanie - 25 avril 2006 à Toronto) est une auteure, une militante et une philosophe de l’architecture et de l’urbanisme. Ses théories ont sensiblement modifié l’urbanisme nord-américain.

      Jane Jacobs a passé son existence à étudier l’urbanisme. Ses études sont basées sur l’observation : elle commença par observer les villes, reporter ce qu’elle observe, puis créa des théories pour décrire ses observations. Elle a changé le cours de l’urbanisme dans de nombreuses villes nord-américaines, y compris Toronto.

      En 1944, elle épouse Robert Hyde Jacobs, avec qui elle a eu deux fils, James Kedzie (né en 1948) et Edward Decker (né en 1950) et une fille, Mary. En 1968, durant la guerre du Viêt Nam, elle quitte les États-Unis avec ses fils afin de leur éviter le service militaire et trouve refuge au Canada.

      En 1980, elle offre une perspective « urbanistique » sur l’indépendance du Québec dans son livre The Question of Separatism : Quebec and the Struggle over Sovereignty.


      https://fr.wikipedia.org/wiki/Jane_Jacobs

    • #Personnalisme

      Le personnalisme, ou #personnalisme_communautaire, est un courant d’idées fondé par #Emmanuel_Mounier autour de la revue Esprit et selon le fondateur, recherchant une troisième voie humaniste entre le capitalisme libéral et le marxisme. Le personnalisme « post-mounier » est une philosophie éthique dont la valeur fondamentale est le respect de la personne. Le principe moral fondamental du personnalisme peut se formuler ainsi : « Une action est bonne dans la mesure où elle respecte la personne humaine et contribue à son épanouissement ; dans le cas contraire, elle est mauvaise. »1

      Il a eu une influence importante sur les milieux intellectuels et politiques français des années 1930 aux années 1950. Il a influencé, entre autres, les milieux de l’éducation populaire et plus tard de l’éducation spécialisée2, et les libéraux-chrétiens notamment conservateurs dont Chantal Delsol.

      https://fr.wikipedia.org/wiki/Personnalisme

    • Forum social des quartiers populaires :

      Le #FSQP sera un lieu d’échanges et de confrontations autour des expériences militantes dans les quartiers.
      Pour dépasser les discours abstraits, l’ambition est de déboucher sur des perspectives de luttes communes, tant au niveau national que local, autour des questions suivantes :

      > Apartheid urbain
      La politique de rénovation urbaine brasse des milliards d’euros sans réelle participation des habitant-e-s des quartiers. Quel pouvoir des habitant-e-s pour le futur de leur quartier ?

      > Education au rabais
      L’école joue mal son rôle d’accès au savoir dans nos quartiers. Elle devient un lieu de discrimination, de gardiennage et de sélection programmée vers des voies de garage. Quelle relation entre l’école et le quartier (élèves, parents, etc.) ?

      > Police-Justice
      Les multiples révoltes populaires contre les crimes policiers depuis une trentaine d’années révèlent la gestion policière et judiciaire des banlieues. Trop de jeunes sont destinés au parcours piégé : échec scolaire - police - justice - prison. Comment s’organiser face aux violences policières, une justice de caste et des prisons hors-la-loi ?

      > Engagement politique et social
      Les quartiers ne sont pas des déserts politiques. Il est nécessaire de confronter les différentes formes d’engagement et d’en faire un bilan (les limites du milieu associatif, la participation aux élections, les associations musulmanes, etc.). Vers un mouvement autonome des quartiers populaires ?

      > Chômage et précarité
      Les taux de chômage et de précarité (intérim permanent) atteignent des « records » dans les banlieues. Le fossé entre les syndicats et les cités marque l’abandon des classes populaires par la gauche. Quelles relations entre les quartiers et le mouvement ouvrier ?

      > Les anciens dans la cité
      La question de la vieillesse dans les banlieues n’est pas prise en compte dans les grands plans de solidarité nationaux. Quelles formes de solidarité et de mobilisation pour les anciens ?

      > Histoire et mémoire
      Malgré l’occultation par les institutions et les problèmes de transmission de la mémoire, l’histoire des luttes des quartiers et de l’immigration est riche d’expériences et d’enseignements. Comment transmettre nous-mêmes cette Histoire aux plus jeunes ?

      > Les musulmans entre criminalisation et engagement dans la cité
      Les musulmans subissent un climat islamophobe et des lois d’exception. Comment y faire face ? Quelle implication des organisations musulmanes dans les luttes sociales et politiques des quartiers ?

      > Cultures des quartiers
      Les banlieues sont des lieux de brassage, de solidarités et d’invention culturelle. Comment défendre et mettre en valeur cette richesse ?

      Nous avons décidé que la question des femmes et de leurs luttes sera transversale à l’ensemble des thèmes.


      http://fsqp.free.fr/archives-2007-2012

    • William Foote Whyte

      William Foote Whyte (né le 27 juin 1914 et mort le 16 juillet 2000), était un sociologue américain surtout connu pour son étude ethnologique de sociologie urbaine, Street Corner Society.

      Pionnier de l’#observation_participante, il vécut quatre ans dans une communauté italienne de Boston alors qu’il étudiait par ailleurs à Harvard dans le but d’analyser l’organisation sociale des gangs du North End.

      https://fr.wikipedia.org/wiki/William_Foote_Whyte

    • Street Corner Society. La structure sociale d’un quartier italo-américain

      Street Corner Society fait partie du petit nombre des classiques de la sociologie mondiale. Mais si la description saisissante que fait William Foote Whyte de la vie d’un quartier italien de Boston dans les années trente a connu un succès durable aux États-Unis, ce n’est pas seulement parce qu’il s’agit d’un modèle pour les recherches d’ethnologie urbaine. Reconnu bien au-delà des cercles universitaires, Street Corner Society est en effet de ces livres qui font passer un souffle d’air frais dans le territoire austère des sciences sociales.
      À l’écoute des humeurs de la rue, écrit dans une langue exempte de tout jargon et proche de la meilleure prose journalistique, cette fascinante immersion dans la vie d’un quartier, de ses sous-cultures et de ses systèmes d’allégeance a bouleversé les images convenues de la pauvreté urbaine et de l’identité communautaire. Référence majeure pour quiconque affronte les problèmes de l’observation participante en sociologie, Street Corner Society constitue également une lecture délectable pour le profane et un portrait savoureux de la comédie humaine dans sa version italo-américaine.

      http://www.editionsladecouverte.fr/catalogue/index-Street_Corner_Society-9782707152879.html

    • #Edward_Chambers

      Edward Thomas Chambers (April 2, 1930 – April 26, 2015) was the executive director of the Industrial Areas Foundation from 1972 to 2009, a community organizing group founded by Saul Alinsky.[1] Chambers was born in Clarion, Iowa to Thomas Chambers and Hazella Downing.[2] He is credited with developing systematic training of organizers and leaders of congregation-based community organizations, and establishing relational meetings (or “one-on-ones”) as a critical practice of organizers. He is the author of Roots for Radicals: Organizing for Power, Action, and Justice (Continuum International Publishing Group, 2003, ISBN 0-8264-1499-0.[3]). A memorial article in The New Yorker called him “community organizing’s unforgiving hero.” [4] He died of heart failure in Drimoleague, Ireland in 2015.[2]


      https://en.wikipedia.org/wiki/Edward_T._Chambers

      The Power of Relational Action

      In this booklet, Ed Chambers mulls about the building of relationships in public life that allow us to share our values, passions and interests with one another — what he calls “mixing human spirit.” He describes the art of the relational meeting or “one-to-one,” which he helped develop and which is now being used by clergy, leaders and organizers around the United States and in several other countries to build their congregations and community institutions and to take joint action for the common good.

      http://actapublications.com/the-power-of-relational-action

    • La production d’études comme instrument de mobilisation dans le cadre de la campagne pour un « revenu décent londonien » (London Living Wage)

      A recent campaign led by London Citizens - a coalition of churches, mosques, trade unions, schools and other associations - brought on the forefront the issue of low paid workers. The production of studies is the linchpin of this campaign for decent wages. It is more the process of making the studies, linked to the methods of community organizing, rather than the end product itself that has established the opportunity and feasibility of new wages policies. The urban study is here considered as a tool for mobilization. Its authors, its subjects and its addressees are the actors of the London Living Wage campaign.

      7Le travail des employés de London Citizens est basé sur la construction de relations avec les habitants membres des 160 groupes de l’alliance. Dans son contrat de travail, il est stipulé qu’un community organizer doit effectuer une moyenne hebdomadaire de quinze entretiens en face à face (appelés « #one_to_one »). Ces entretiens ne sont ni retranscris ni soumis à une analyse statistique mais ont pour but de construire une relation d’égal à égal avec chacun des membres de l’alliance. Ils permettent aux community organizers d’acquérir une connaissance des problèmes auxquels font face les citoyens de leur alliance. L’organisation a également pour but de former des leaders dans chaque groupe membre. Ces leaders sont encouragés à relayer ce travail de développement de relations au sein de leur institution. Ils sont par exemple invités à organiser des house meetings, des réunions dans leur domicile ou sur leur lieu de travail avec des amis, voisins ou collègues. Les leaders et les employés de London Citizens imaginent alors des idées de campagne en fonction des intérêts des personnes rencontrées. C’est toujours grâce à ces entretiens et réunions qu’ils peuvent ensuite tester ces idées avec d’autres personnes. Ce processus participatif est finalisé lors d’assemblées annuelles où les institutions membres votent, parmi les idées évaluées, les campagnes à mener dans l’année.

      http://journals.openedition.org/geocarrefour/8114?lang=en

    • #Theory_U

      Theory U is a change management method and the title of a book by #Otto_Scharmer.[1] During his doctoral studies at Witten/Herdecke University, Scharmer studied a similar method in classes taught by Friedrich (Fritz) Glasl, and he also interviewed Glasl.[2] Scharmer then took the basic principles of this method and extended it into a theory of learning and management, which he calls Theory U.[1] The principles of Theory U are suggested to help political leaders, civil servants, and managers break through past unproductive patterns of behavior that prevent them from empathizing with their clients’ perspectives and often lock them into ineffective patterns of decision making.[3][4]


      https://en.wikipedia.org/wiki/Theory_U

      La théorie U d’#Otto_Scharmer

      Ces 5 étapes visent à capter de nouveaux modes d’émergence et à rénover l’approche collaborative et la conduite de projet. La théorie U est donc un modèle de conduite du changement fondé sur la conscience de l’urgence pour la mise en place de solutions durables et globales. Les 9 environnements d’apprentisssage qu’il propose constituent une réponse concréte aux questions posées.

      http://4cristol.over-blog.com/article-la-theorie-u-d-otto-scharmer-98615598.html

    • L’ambition démocratique du community organizing

      La mise en place, depuis quelques années, des méthodes de community organizing peut-être envisagée comme une tentative de dépassement des limites du système représentatif. Par un rappel des ressorts de leur développement, aux États-Unis et en Grande-Bretagne, et par l’observation de leur mise en pratique au sein de l’Alliance citoyenne de l’agglomération grenobloise, cet article s’attache à montrer ce qui fait l’originalité de ces démarches : rapport pragmatique au pouvoir, mobilisation autour des « colères » des habitants, actions collectives centrées sur le conflit. Un regard sur l’objectif de prise d’autonomie des habitants, formulé par les fondateurs de l’alliance, permet d’inclure une analyse de la structure et des méthodes du community organizing sous l’angle des processus d’émancipation qu’elles sont susceptibles de favoriser.

      https://www.cairn.info/revue-mouvements-2015-3-p-168.htm

  • #Méthodes_visuelles

    A l’origine, la création d’une revue scientifique sur les méthodes visuelles était un défi. Très vite, elle est devenue une cause qui dépasse les cloisonnements académiques et pose un regard sur les modes de production scientifique qui mobilisent l’image. Beaucoup a déjà été fait par des collègues courageux, défricheurs d’espaces de recherche portant une spécificité méthodologique pas toujours bien comprise. En effet, on peut faire un constat simple : la place des méthodes visuelles, en France, malgré les avancées, n’est pas ce qu’elle devrait être.

    Même si le monde anglo-saxon ne doit pas être toujours pris comme référence, il faut bien reconnaître que la comparaison n’est pas flatteuse dans ce domaine. De fait, nous sommes la première revue pluridisciplinaire sur les méthodes visuelles en France. Pour autant notre revue se veut ouverte à l’international et a fait le choix d’accueillir aussi des textes dans leur langue d’origine. D’autres initiatives éditoriales existent dans des cadres plus larges ou dans des secteurs précis. Quelles qu’elles soient, les approches sont complémentaires et nourrissent l’avancée des expériences communes. Telle est notre conviction.

    Ce premier numéro marque l’acte fondateur d’une revue dédiée à la mise en lumière de chercheurs qui usent de méthodes visuelles mais qui restent encore trop souvent dans l’ombre faute d’avoir un espace d’édition techniquement adapté, un lieu reconnu d’échange et de cumul des connaissances en la matière, mais aussi un cadre qui accorde une valeur proprement scientifique à ces méthodes. Ce sont ces trois missions que se fixe la Revue Française des Méthodes Visuelles : donner à voir, mutualiser et légitimer l’usage des méthodes visuelles dans le champ scientifique.


    https://rfmv.fr/numeros/1

    #visual_studies #études_visuelles #revue
    cc @albertocampiphoto @reka

    • L’épaisseur des cartes. Un prisme d’observation pour l’histoire de l’#urbanisme

      La carte urbaine a souvent été considérée comme un objet neutre et son image objective par les historiens de la ville et de l’urbanisme. Elle est en réalité un produit chargé d’intentions et de présupposés implicites. Elle est surtout une ressource pour analyser les schèmes perceptifs qui gouvernent le projet urbain dans l’histoire. L’auteur de cet essai s’intéresse aux cartes des architectes et des urbanistes au XXe siècle, pour les construire en tant qu’objets d’études socio-historiques. Face aux narrations historiques qui ont privilégié les pouvoirs symboliques des représentations urbaines, il propose une méthode d’analyse attentive aux opérations de fabrication des cartes et à leurs acteurs. L’idée étant de déconstruire les modèles de représentation trop rapidement associés à des « régimes de pensée », pour faire apparaître leurs usages contradictoires dans les divers contextes théoriques et pratiques de l’aménagement spatial.

      https://rfmv.fr/numeros/1/articles/l-epaisseur-des-cartes-un-prisme-d-observation-pour-l-histoire-de-l-urbanisme

      #cartographie #visualisation

  • Médier les #récits_de_vie. Expérimentations de cartographies narratives et sensibles

    Alors que les #méthodes_narratives sont des outils qualitatifs particulièrement intéressants pour étudier des expériences socio-spatiales complexes, elles présentent également d’importantes limites déontologiques, éthiques et interprétatives. Nous exposons ici quelques-unes de ces limites, à partir de deux contextes de recherche spécifiques et comparés. Pour sortir des impasses méthodologiques rencontrées, les auteures ont eu recours à des expérimentations cartographiques. Quelles pratiques alternatives inventer, notamment à partir de la cartographie, pour élaborer des relations respectueuses et créatives en contexte de recherche ?

    http://mappemonde.mgm.fr/118as2
    #cartographie #visualisation #méthodologie #cartographie_sensible #cartographie_narrative
    cc @reka

  • Apprentissage de la lecture, les méthodes qui marchent (La-Croix.com)
    http://www.la-croix.com/Actualite/France/Apprentissage-de-la-lecture-les-methodes-qui-marchent-2015-09-23-1359833

    De récentes études plaident pour un apprentissage précoce, répété et soutenu des correspondances entre lettres et sons.
    Sans pour autant négliger les activités de compréhension des textes, l’un des points faibles des élèves français.

    En dépit d’un titre aguicheur, un article assez complet sur les enjeux de l’apprentissage de la lecture (même si je ne suis pas d’accord sur tout).
    Un bon complément à ce premier article est le suivant :

    Lecture : l’enseignement de la compréhension est trop faible en CP et CE1 (LesÉchos.fr)
    http://www.lesechos.fr/politique-societe/societe/021356006660-lecture-lenseignement-de-la-comprehension-est-trop-faible-en-c

    Selon une étude, les élèves sont trop peu stimulés en CP et en CE1. Or, ce temps d’explicitation, de résumé d’un texte, de compréhension des sous-entendus est essentiel pour la suite.

    #éducation #école #lecture #compréhension #apprentissage #méthodes_de_lecture

    • Il y a peut-être des réponses à chercher du côté de la méthode naturelle de Célestin Freinet : donner un sens à cet apprentissage en se basant sur des supports qui ont une signification et une valeur pour les enfants... Bon je sais que c’est considéré comme vieillot tout ça par nos modernes technocrates, mais, comme disait ma grand-mère, c’est dans les vieilles marmites que...