• Les sciences humaines et sociales (sciences que l’on dit "molles") ont-elles plus à perdre qu’à gagner en imitant les "sciences dures" (sciences de la nature et de la vie ) ? #SHS #recherche #sciences #méthodes

    http://sms.hypotheses.org/3734

    Les sciences de la nature et de la technique ont toujours constitué pour les sciences sociales un réservoir d’idées et de méthodes, et elles ont souvent incarné ce que peut être la « méthode scientifique ». Les « importations » en sciences sociales ne sont pas limitées aux modes de raisonnement ou aux concepts. Elles ont aussi pris, dans certains cas, la forme d’adoption d’instruments ou de formalismes qui se sont accompagnés de migrations de chercheurs.

    Les spécialités de sciences sociales qui ont connu ces arrivées de chercheurs et d’instruments issus d’autres sciences ont alors parfois fait l’expérience d’un phénomène d’inversion des priorités entre l’objet et les instruments, l’analyse et l’action (...)

  • Vers une nouvelle #guerre_scolaire. Quand les #technocrates et les neuroscientifiques mettent la main sur l’Éducation nationale

    Sous la Ve République, l’unification de l’École, de la maternelle au bac, n’a pas mis fin à la #ségrégation_sociale et aux énormes écarts de #réussite_scolaire. Face à cette situation, les #hauts_responsables de droite et de gauche ont alterné des mesures contradictoires, rendant aléatoire la perspective d’une #démocratisation de l’École. D’autant que, depuis les années 2000, une partie croissante des hauts technocrates de l’Éducation nationale s’est ralliée à l’#agenda_néolibéral. Ils mobilisent dans ce cadre le #numérique et les neurosciences, présentés comme sources de #modernisation, pour accentuer en réalité la #pression sur les enseignants, rogner leurs autonomies professionnelles et leurs pouvoirs d’action.
    C’est ce que démontre avec rigueur, dans cet essai remarquablement documenté, #Philippe_Champy, fin connaisseur du #système_scolaire. Il y analyse les origines de ce grand #reformatage de l’École et, surtout, sa mise en œuvre par Jean-Michel #Blanquer : les attaques contre la #liberté_pédagogique et les #manuels_scolaires, la mise sous tutelle du « #numérique_éducatif », les tentatives de marginalisation des auteurs et éditeurs scolaires, la prise de pouvoir larvée d’un pool de neurochercheurs prétendant dicter leurs #méthodes_pédagogiques aux enseignants, etc. Ce grand #reformatage, qui maintient les privilèges élitaires en l’état, voire les renforce, s’accompagne d’une reprise en mains dirigiste et centralisatrice sans précédent. Il impose à tous les acteurs de l’École une prise de conscience et une réaction d’ampleur, face au risque avéré d’une nouvelle guerre scolaire.


    https://editionsladecouverte.fr/catalogue/index-Vers_une_nouvelle_guerre_scolaire-9782348040627.html
    #livre #éducation #éducation_nationale #France #neurosciences #autonomie #néolibéralisme #pédagogie

    • Philippe Champy : « Les beaux discours de Blanquer sur la confiance ne réussiront pas à masquer cette guerre contre les professeurs qui ne dit pas son nom »

      Passionnant et déterminant pour comprendre Blanquer et l’Éducation nationale : tel est l’essai de Philippe Champy Vers une nouvelle guerre scolaire : quand les technocrates et les neuroscientifiques mettent la main sur l’Éducation nationale qui vient de paraître à La Découverte.
      Ingénieur à l’Institut national de recherche pédagogique puis éditeur et enfin directeur des éditions Retz, Philippe Champy, en fin connaisseur du système scolaire, dévoile la nature profonde du grand reformatage de l’école par Blanquer. Partant d’une réflexion sur le manuel scolaire, il démontre combien pour Blanquer la liberté pédagogique est synonyme d’anarchie, combien les neurosciences lui servent d’outil managérial et comment aussi, via l’incroyable entrisme du groupe d’assurance Axa que connaît fort bien Blanquer, se met en place une privatisation déguisée de l’Éducation nationale. Un propos explosif qui ne pouvait manquer de retenir l’attention de Diacritik le temps d’un grand entretien avec Philippe Champy.

      Ma première question voudrait porter sur la genèse de votre indispensable essai pour comprendre ce que devient aujourd’hui l’Éducation nationale notamment aux mains de Jean-Michel Blanquer. Comment vous en est venue l’idée ? Vous dites, notamment dans l’introduction, que, pour vous être longuement occupé dans votre vie des manuels scolaires, vous avez été frappé par la manière dont le sommet de la pyramide hiérarchique au ministère traite précisément des manuels scolaires : qu’est-ce qui vous a ainsi particulièrement frappé ?

      Effectivement, plusieurs éléments tout au long de ma carrière m’ont alerté sur une posture étonnante de la part de certains dirigeants et prescripteurs au sein de l’Éducation nationale : l’ignorance et la défiance à l’égard des manuels scolaires, voire l’ostracisme ou la volonté de contrôle direct selon les périodes à l’égard des auteurs et éditeurs qui les produisent. Cette double anomalie m’a choqué aussi bien du point de vue de l’histoire politique que d’un point de vue purement pragmatique.

      Comme je le rappelle dans mon livre, c’est en toute conscience que les républicains, qui sont arrivés enfin au pouvoir dans les années 1880, ont rejeté les pratiques des régimes précédents (monarchies et empires) de contrôle a priori de l’Etat sur la production et la sélection des « livres classiques » (comme on désignait les manuels à l’époque) autorisés dans les écoles. C’est à ce moment fondateur pour les libertés publiques qu’a été formulée la doctrine républicaine de la « liberté pédagogique ». Cette doctrine s’oppose à toute idée d’édition scolaire d’Etat et préconise la liberté de publication pour les manuels à l’instar de la liberté de la presse, instaurée aussi à cette époque : pas d’examen ni d’autorisation préalable, aucune labellisation. Elle défend aussi la liberté de choix des enseignants parmi l’offre libre sous réserve de délibérations collectives institutionnalisées et la liberté d’utilisation en classe à leur guise. Les autorités n’ont qu’un droit de regard a posteriori et doivent publiquement justifier une éventuelle mise à l’écart ou interdiction, fait rarissime durant tout le XXe siècle.

      Toute mise en cause, explicite ou larvée, de cette liberté dans sa triple dimension devrait donc s’attacher à justifier cette atteinte à la doctrine fondatrice par des arguments sensés, ce qui n’est jamais le cas. Dans les propos de Jean-Michel Blanquer, pourtant républicain revendiqué, la liberté pédagogique est systématiquement indexée à l’anarchisme, au désordre, jamais à la reconnaissance de la compétence professionnelle des enseignants et aux responsabilités qui en découlent. Cette façon de voir est clairement à contre-courant du républicanisme originel puisqu’elle présente la liberté des acteurs au sein du système comme un danger et non comme un atout et une force, l’expression d’un dynamisme mobilisateur apte à améliorer constamment l’efficacité collective et à s’opposer à toute tutelle idéologique régressive.

      D’un point de vue pragmatique, pour les dirigeants de l’institution Éducation nationale, du moins ceux qui se targuent de rechercher en toute chose l’efficacité (valeur suprême du technocratisme), méconnaître la sphère de production et de diffusion des manuels et laisser cette sphère dans un angle mort revient bizarrement à ignorer une grande partie de ce qui fait la réalité quotidienne des enseignants et des élèves. Au mieux, par pure méconnaissance, on reproduit les préjugés du sens commun sur les manuels dont on ne sait pas exactement qui les produit, dans quel cadre, avec quelles contraintes, quel statut, quelles utilisations, etc. Une défiance s’installe, jamais explicitée ou discutée. Au pire, par hostilité de principe à tout ce qui est extérieur à l’institution, on est conduit à les rejeter en bloc sous prétexte qu’ils sont hors contrôle institutionnel, donc critiquables, douteux, dépassés, voire nocifs. A décrypter certaines remarques, on pourrait penser que c’est moins le manuel en tant qu’outil de travail qui pose problème que son pluralisme et la triple liberté pédagogique qu’il incarne dans le système français. On sent bien que certains hiérarques rêveraient de manuels officiels, nécessairement uniques, édités par le ministère… Il y a d’ailleurs eu au moins une tentative avortée en histoire que je relate dans mon livre. Quelle est la conséquence de cette posture ? C’est assez facile à deviner ! Puisque ce sont les enseignants qui choisissent les manuels et autres ressources, et aussi qui les conçoivent, les sélectionnent et les utilisent à leur gré on imagine sans trop de mal ce que ces dirigeants hostiles à la liberté pédagogique pensent de leurs « ouailles » !

      Dans ma carrière d’éditeur scolaire et pédagogique durant plus de 20 ans, j’ai à plusieurs reprises été stupéfait par les propos de café du commerce que pouvaient tenir de hauts responsables au sujet des manuels scolaires. Comme de leurs positions peu informées sur les débats didactiques que les manuels suscitent ! J’ai ressenti cette méconnaissance moins comme un signe de paresse intellectuelle que comme le symptôme d’un discrédit technocratique pour tout ce qui n’était pas directement dans leur sphère de pouvoir. Grosso modo, c’est l’attitude de responsables qui pensent qu’il n’est pas utile de comprendre la complexité d’une question si elle échappe à leur emprise hiérarchique…

      Le cœur de votre fort propos, c’est la place du manuel scolaire que vous prenez comme paradigmatique d’enjeux polémiques, politiques et économiques pour le moins révélateurs. Vous affirmez ainsi qu’il y a depuis bientôt une vingtaine d’années une volonté de mainmise du ministère sur les manuels scolaires, volonté qui éclate comme jamais avec Blanquer. Pourriez-vous nous dire pourquoi le ministère désire-t-il contrôler les manuels ? N’y a-t-il pas un paradoxe pour un néo-libéral sans frein comme Blanquer à vouloir contrôler la liberté pédagogique ?

      Plutôt que le cœur, je dirais que le manuel scolaire est le point de départ de mon enquête et une sorte de fil rouge qui conduit à se poser des questions fondamentales sur l’autonomie professionnelle des enseignants. Je rappelle en effet au début de mon essai les différentes critiques qui ont été adressées au manuel depuis ses débuts, accompagnant la progressive massification de l’enseignement primaire depuis la loi Guizot de 1833 puis sa généralisation et son encadrement laïque et républicain avec les lois Ferry des années 1880. Quand on fait le tour des critiques en question et des forces qui les portent, on s’aperçoit assez vite que le manuel sert de bouc-émissaire pour viser autre chose. L’enjeu réel des attaques n’est pas le manuel en tant que tel, sauf pour les courants pédagogiques qui le récusent et voient en lui un vecteur d’imposition conformiste qui stériliserait la créativité enseignante et favoriserait la servilité idéologique des élèves (je pense à Célestin Freinet).

      Ces enjeux peuvent être de nature très variée. Par exemple, au début du XXe siècle, avant la Première Guerre mondiale, ce fut le pouvoir des familles (en fait du clergé catholique) sur le choix des manuels d’enseignement de l’école publique. De façon permanente, depuis les lois Ferry, ce sont les contenus d’enseignement eux-mêmes qui sont visés (trop progressistes ou « engagés » pour les conservateurs et leurs lobbies, ou, au contraire, trop stéréotypés ou discriminatoires pour leurs adversaires de multiples obédiences), et, en dernier ressort, ces critiques visent les programmes scolaires, leurs préconisations, la façon dont ils sont conçus, les institutionnels qui les produisent, leurs présupposés idéologiques ou pédagogiques, etc.

      Le ministère lui-même, par la voix des inspections générales depuis la fin des années 1990, n’a pas été avare de critiques, comme une lecture attentive des rapports officiels le montre dans mon livre. Depuis cette époque, il rêve d’imposer aux auteurs et éditeurs scolaires des cahiers des charges pour contrôler leurs productions en amont. Il rêve d’introduire une labellisation avant parution, venant mettre en cause le principe même de la liberté pédagogique. De mon point de vue, cette tendance est une dérive typiquement technocratique dont le renforcement est concomitant avec l’instrumentalisation des évaluations internationales, notamment PISA, depuis 2000. Comme les résultats des élèves français ne sont pas jugés dignes du rang du pays, l’idée s’installe au sommet du ministère que la faute en revient non pas aux structures et à l’organisation inégalitaire et ségrégative du système scolaire dans son ensemble, mais tout simplement aux professeurs et à leurs méthodes d’enseignement. Ce serait non seulement la faute des professeurs du collège (puisque les élèves évalués ont 15 ans), mais aussi ceux du primaire qui ne sauraient pas enseigner les « fondamentaux » aux élèves les plus faibles. Ce sont les mauvais résultats de ces élèves qui plombent le score français. Il faut rappeler ici que PISA évalue un échantillon représentatif d’élèves français (7000 en 2018 « qui défendent les couleurs de la France », comme l’écrit patriotiquement le site du ministère !) et non pas l’ensemble des élèves, comme le font les dernières évaluations lancées par le ministère Blanquer pour l’ensemble des élèves de certains niveaux dans certaines disciplines.

      Cette tendance technocratique a évolué dans ses ambitions au cours des deux dernières décennies avec l’avènement du « numérique éducatif » et l’apparition des neurosciences sur la scène publique. On a assisté à leur accaparement progressif des questions éducatives, comme si, avant elles, les connaissances étaient restées dans une sorte de préhistoire sans valeur et que tout était à inventer ! Avec le numérique, la vieille revendication d’un contrôle institutionnel serré sur les manuels afin de mieux contraindre les professeurs dans leurs pratiques d’enseignement a été élargie à l’ensemble des ressources produites par les institutions publiques et par les enseignants eux-mêmes, grands utilisateurs des outils et réseaux numériques grand public. Fascinés par la « révolution numérique », les hauts technocrates ont prophétisé la marginalisation inéluctable de l’édition scolaire (prétendument liée au papier) avec l’idée de mettre fin en douceur à l’un des piliers de la liberté pédagogique des professeurs… et de faire des économies. (Rappelons que si ce sont les municipalités qui financent les manuels du primaire, les régions désormais ceux des lycées, c’est toujours une subvention d’Etat qui finance ceux des collèges.) Ils ont donc pensé pouvoir reprendre la main sur les outils des enseignants en poussant leur numérisation et leur dépôt sur des plates-formes institutionnelles centralisées et en les soumettant à des formes plus ou moins pernicieuses de labellisation.

      Poursuivant sur la question centrale du manuel, vous avancez également sans attendre qu’un des enjeux majeurs des querelles autour du manuel scolaire consiste à proférer des attaques déguisées contre les profs. Le manuel, et les polémiques souvent nombreuses qui l’entourent, renvoient selon vous aussi au fossé qui existe entre les enseignants et leurs dirigeants, comme si les premiers étaient les victimes des seconds, ce que le numérique et les neurosciences ne feraient qu’accentuer.
      Dans un tel contexte, pourrait-on ainsi dire qu’avec Blanquer, depuis 2017, l’Education nationale fait de ses fonctionnaires ses ennemis et, si oui, pourquoi ?

      Oui, c’est vrai, les critiques contre les manuels visent aussi, de façon plus ou moins déguisée, les professeurs, leur aptitude à décider par eux-mêmes de leurs méthodes et de leurs outils d’enseignement, leur pouvoir de les concevoir librement avec des éditeurs professionnels. Les manuels sont considérés abusivement, par ceux qui critiquent la liberté de publication, comme le fidèle reflet ou le déterminant automatique de ce qui est censé se passer en classe sous la conduite des professeurs. Ils ne comprennent pas la différence entre les programmes qui fixent un cadre général et des objectifs, les méthodes pédagogiques qui relèvent de connaissances et savoir-faire notamment didactiques (ce que j’appelle les savoirs expérientiels des professeurs), et enfin les outils qui sont à leur disposition au sein d’une offre pluraliste, ce que sont les manuels parmi beaucoup d’autres types de ressources éditées. Cette confusion simpliste leur permet de s’affranchir d’une observation fine des pratiques d’enseignement au profit d’un examen purement livresque, souvent superficiel, et fort éloigné des réalités scolaires. A titre d’exemple, c’est le cas de beaucoup d’intervenants dans le vieux débat, relancé par intermittence, sur l’apprentissage de la lecture au CP. Ceux qui ne veulent pas comprendre les réalités scolaires sont obnubilés par telle ou telle page de manuels, supputent des usages ou dérives mais ne savent pas en réalité comment ces manuels sont utilisés en classe, par les professeurs comme par leurs élèves.

      Quand les hauts technocrates du ministère se mettent à critiquer les manuels parce qu’ils échappent à leur autorité directe, comme je l’ai évoqué plus haut, ils élargissent indéniablement le fossé qui existe entre eux et les enseignants. Or, avec Jean-Michel Blanquer, la tendance technocratique (c’est la base qui a tort et le sommet qui sait et qui a raison) se marie avec la prise de pouvoir des néo-libéraux à la tête de l’appareil d’Etat et des institutions publiques. Les hauts technocrates néo-libéraux proviennent des deux côtés de l’échiquier politique en concurrence pour gouverner la Ve République. Cette nouvelle élite administrative pense foncièrement que l’État social, dont l’Ecole publique est l’un des fleurons (avec la Sécurité sociale, l’hôpital public, etc.), est trop développé, trop coûteux, mal géré, en retard, etc. C’est pourquoi les néo-libéraux veulent affaiblir les fonctions sociales de l’Etat, ils veulent le reformater en le concentrant sur les fonctions dites régaliennes et réduire ou privatiser des pans entiers qu’ils jugent négativement.

      Ces dirigeants justifient leur politique par la nécessité d’améliorer la compétitivité du pays dans la course mondiale en laissant plus d’initiatives aux détenteurs de capitaux et en allégeant leurs charges sociales pour accroître d’autant leurs profits. Ils entendent donc reformater l’ensemble de la politique sociale du pays pour raboter les acquis des anciens compromis sociaux. Réduire l’Etat social n’est donc pas incompatible avec la nécessité d’exercer « en même temps » un meilleur contrôle social sur les populations et les acteurs sociaux, allant jusqu’à la remise en cause de certaines libertés publiques. François Sureau, un libéral à l’ancienne pourrait-on dire, en tant qu’avocat défenseur des libertés publiques, vient de publier un opuscule très éclairant à ce sujet (voir Sans la liberté, Gallimard, collection Tracts). C’est dans le cadre de cette politique présidentielle et gouvernementale qu’il faut comprendre les assauts de Jean-Michel Blanquer contre les professeurs.

      Et si l’on veut contrôler les professeurs de façon tatillonne et ultra-dirigiste, au nom de l’efficacité et de la science (les neurosciences), il faut en effet s’attaquer à la tradition de liberté pédagogique et la limiter à un choix entre un petit nombre d’options labellisées par le ministère. Il faut tuer le pluralisme et borner le pouvoir d’agir des professionnels de terrain dans un cadre didactique imposé par des experts dont la compatibilité technocratique est avérée. Le paradoxe de l’étatisme dirigiste néo-libéral n’est donc qu’apparent. Il ne faut pas confondre l’idéologie néo-libérale avec l’idéologie libertarienne qui, elle, prône un capitalisme d’entreprises sans Etat. Il faut aussi noter que le fonctionnariat révulse les néo-libéraux de la « start-up nation » qui n’ont que les mots de « flexibilité » et « agilité » à la bouche. C’est pour eux un legs du passé totalement obsolète, qu’il faut mettre à plat, car ce système engage la puissance publique sur la durée et réduit d’autant la capacité de redéploiement budgétaire ultra rapide que les néo-libéraux réclament selon leurs priorités du moment. Cette façon de gouverner est manifeste dans les mesures brutales d’annulation des dispositifs sociaux qui se sont multipliées dès le début du quinquennat.

      Dans ce même esprit, pourrait-on également parler, par l’usage empressé des nouvelles technologies et les incessantes injonctions du ministère, qu’il existe désormais une forme de maltraitance administrative et numérique des enseignants ? Est-ce que finalement le numérique mais aussi les neurosciences ne servent pas à Blanquer d’outil managérial lui permettant d’opposer le primaire au Secondaire et ainsi, comme vous le dites, de « diviser pour mieux régner » ?

      Je crois qu’il y a deux phénomènes managériaux qui s’additionnent et qui touchent aussi bien les professeurs que tous les administratifs et les non-enseignants, à savoir environ 200 000 professionnels aux côtés de plus de 800 000 enseignants. D’un côté, il y a l’introduction du « new public management » avec la LOLF et la RGPP depuis 2006 dont la tendance est de copier les modes de management des grands groupes privés (gestion budgétaire pilotée par les financiers, individualisation des rémunérations, instauration de primes variables pour les responsables aux différents échelons en fonction d’objectifs décidés par les supérieurs, etc.). De l’autre, il y a l’immixtion directe du ministre dans les pratiques d’enseignement et les options didactiques. Cette immixtion concerne surtout l’enseignement primaire accusé d’être le vrai fautif des échecs du système. Mais le charcutage des programmes concerne aussi l’enseignement secondaire !

      Depuis plus de deux ans, Jean-Michel Blanquer a configuré à sa main le sommet du ministère en créant un Conseil scientifique de l’Éducation nationale (CSEN) totalement dominé par des neuroscientifiques et des quantitativistes, et en reconfigurant le Conseil supérieur des programmes (CSP) au profit de conservateurs dogmatiques. Ce sont deux leviers indispensables à sa prise de pouvoir qui prend chaque jour davantage les allures d’un présidentialisme appliqué à l’Éducation nationale. La loi Blanquer de juillet dernier, la reprise en mains des ESPÉ transformées en INSPÉ (dont les directions sont désormais nommées par le ministre), et celle de l’ESEN (l’école des cadres) en IH2E pour propager la doctrine du ministre et celle du CSEN, la suppression du CNESCO, illustrent brillamment cette domination sans appel. C’est une façon pour lui de s’assurer les pleins pouvoirs dans un système pyramidal et verticalisé à l’excès et de nommer aux postes-clés ses partisans les plus zélés, de moins en moins issus du sérail de l’Education nationale et de plus en plus éloignés de sa culture et de ses valeurs constitutives.

      Quelles sont les conséquences prévisibles de ces deux tendances managériales ? Si l’on chausse les lunettes des spécialistes des relations de travail, on peut sans doute augurer que tous ces changements autoritaires, imposées au pas de charge sans recherche de consensus avec les intéressés ou leurs représentants, produisent les mêmes effets de maltraitance que ceux qu’ont connus les anciennes entreprises publiques lors de leur privatisation sur un fond pathogène de « double lien » (quand les actes des chefs contredisent leurs paroles manipulatrices). Les beaux discours sur la confiance ne réussiront pas à masquer ce conflit fondamental, cette guerre contre les professeurs qui ne dit pas son nom.

      Dans votre analyse de la place que le manuel scolaire occupe désormais, vous ne manquez évidemment pas de rappeler que la mort du manuel scolaire est programmée en haut lieu depuis longtemps notamment au nom de la « révolution numérique ». Pourtant, faites-vous immédiatement remarquer, ce numérique n’est pas la révolution qu’elle prétend être, cachant souvent des leurres sociaux.
      En quoi peut-on dire que, pour l’école, la « révolution numérique » est une illusion ? Peut-elle révolutionner le cœur du métier d’enseignant ? N’y a-t-il pas le rêve au ministère qu’un jour ou l’autre le numérique puisse finalement se substituer au cours même des enseignants par le biais par exemple du MOOC ?

      Dans sa philosophie, le « numérique éducatif » est l’héritier de la cybernétique et de l’enseignement programmé des années 1950. Dans les débuts de l’informatique, c’est le moment où certains ingénieurs et mathématiciens prophétisaient le prochain remplacement des professeurs par les processeurs. Au discours futuriste propre aux « nouvelles technologies » (qui tient souvent de la sur-promesse éhontée) s’ajoute bien souvent un discours de type économique pour attirer des financements vers la recherche technologique. Les « technologues » à tous les âges savent qu’ils doivent faire miroiter aux décideurs et investisseurs d’importantes économies d’échelle à venir : finies les charges fixes d’enseignants et de locaux, fini le papier à stocker, etc., ce sera le règne de l’enseignement à distance ! Et les coûts de substitution sont toujours minorés, dans leurs montants financiers et leurs impacts tant sociaux qu’écologiques. De la même façon, de nombreuses impasses sont volontairement laissées à l’improvisation future en termes de faisabilité. Ce qui compte c’est d’avancer et de couper l’herbe sous le pied des concurrents et de ceux qui occupent déjà le terrain. On pourrait dire que c’est de bonne guerre économique pour qui pense que l’avenir se fonde sur des « destructions créatrices » !

      Le discours de l’adaptative learning se situe dans le droit fil des vieilles prophéties cynernétiques, comme je le rappelle dans mon livre. On nous présente un apprenant pris en main à distance par une machine intelligente capable de détecter en direct les erreurs de conception dans la tête de l’élève et d’adapter les contenus présentés et les exercices proposés pour le remettre sur le droit chemin du savoir d’une façon totalement individualisée. Le e-learning postule que l’élève serait une sorte de Robinson capable d’être connecté directement aux « savoirs universels » grâce au mentorat bienveillant d’un robot. Or l’autodidaxie est un exercice périlleux voire impossible, même avec l’aide distante d’un système supérieurement « intelligent ». Se priver du levier essentiel de l’apprentissage collectif et de la relation humaine entre professeur et élèves est le plus souvent source d’échec. C’est pourquoi d’ailleurs les MOOC relèvent plus du e-teaching que du e-learning puisqu’ils sont en principe pilotés par des enseignants qui gèrent à distance des classes virtuelles d’apprenants réels, dans le respect d’un calendrier et d’une progression imposés, ce qui est plus proche du fonctionnement scolaire ou universitaire habituel. L’isolement et les contraintes d’autogestion de planning par les apprenants eux-mêmes expliquent pourquoi le taux de réussite des MOOC est si faible, beaucoup abandonnant le cursus en cours de route faute d’autorégulation ou d’un étayage social suffisant. Au vu des évolutions actuelles, on peut espérer que les décideurs qui ont pu rêver un temps à un grand remplacement de l’enseignement et des enseignants par des robots revoient leur conception, même si les promesses de l’intelligence artificielle permettent encore de relancer et d’entretenir de nombreux fantasmes à ce sujet.

      S’agissant toujours du numérique, vous avez encore une formule très forte : vous parlez d’un ministère « sous hypnose numérique ». Mais vous faites immédiatement deux remarques sur lesquelles j’aimerais vous interroger. Vous dites, tout d’abord, qu’on ne lie jamais cette déferlante numérique aux stratégies prédatrices des GAFAM que vous choisissez de nommer les « seigneurs numériques ». Quelle serait ainsi selon vous le type de marché que convoitent dans l’Education nationale les seigneurs numériques ?

      Pour répondre à cette question, il faut élargir la focale. Le numérique est un sujet compliqué, par lui-même étant donné son impact massif dans les populations, mais aussi pour l’Etat, les collectivités territoriales et pour les différents acteurs concernés au sein de l’Éducation nationale. Tout le monde est mis sous la pression de l’industrie informatique mondiale qui domine et pilote le marché en fonction de ses intérêts exclusifs. Ce marché où s’affrontent des multinationales en position souvent monopolistique sur leurs créneaux produit un marketing séducteur, extrêmement puissant et très mystificateur. Dans mon livre, j’étudie plus particulièrement les ravages du « marketing du gratuit » chez les enseignants et les élèves.

      C’est donc compliqué de comprendre ce qui se passe réellement, d’autant plus que la « révolution numérique » s’est accompagnée de discours dithyrambiques à la mode qui ont très longtemps laissé dans une coupable obscurité les vrais moteurs économiques et sociaux de cette « révolution », et aussi son contexte géopolitique. On nous a présenté l’avènement du numérique comme une sorte de « révolution civilisationnelle » pour le bien de l’humanité, comme s’il s’agissait d’un phénomène technologique « naturel », du même ordre que le réchauffement climatique, mais en positif ! Horizontalité, agilité, gratuité, connectivité, dématérialisation, désintermédiation furent les plus courus de ses mots-clés. Intuitif, collaboratif, collectif, ses épithètes ô combien rabâchés. A l’instar du discours des neurosciences sur ce qui les précède, celui de la « révolution numérique » dépeint un avant caricatural : avant elle il n’y aurait que verticalité, rigidité, cupidité, isolement, etc. La « révolution » est devenu une rhétorique de marketing, en vigueur aussi bien dans la publicité que dans la vie des idées. Notons que ce révolutionnarisme verbal est proprement infantilisant. Heureusement qu’on perçoit mieux la mystification depuis que les coulisses industrielles et institutionnelles de tout ce storytelling sont mieux connues !

      Un autre élément de confusion est lié aux pratiques de masse qui se sont développées dans tous les usages domestiques et personnels (et là nous sommes toutes et tous concernés dans notre quotidien). Ils ont servi d’écran à la compréhension des effets profonds que le numérique engendre globalement dans l’économie, dans toutes les sphères professionnelles. Au lieu de toucher du doigt ce qui se joue réellement dans la numérisation de l’économie et de la vie sociale, les usages personnels ont servi de mascotte aux bienfaits supposés du numérique en général. Le cas de la tablette à cet égard est symptomatique. Elle a été pronostiquée par des béotiens admiratifs, comme un substitut enrichi du livre qui allait clore à brève échéance l’ère de Gutenberg. Dans l’Education nationale, certains ne jurent encore que par elle, comme on le voit dans certaines régions avec les équipements liés à la réforme des programmes des lycées.

      Quand on étudie les rapports officiels du ministère sur le « numérique éducatif », on ne peut qu’être frappé par l’engouement naïf de leurs auteurs qui adoptent la posture de grands stratèges du futur tout en reprenant à leur compte sans le moindre recul critique le storytelling de l’industrie informatique, les fantasmes de la « startup nation » mobilisée pour faire émerger sa « filière » nationale, tout en occultant les dimensions économiques, géopolitiques et même « bassement » gestionnaires de la question. Ces rapports tracent les grandes lignes d’un « numérique éducatif » centralisé qui viendrait en quelque sorte concurrencer le numérique grand public du cloud que les enseignants utilisent abondamment, y compris pour leurs besoins professionnels. Mais cette toile d’araignée, contrôlée par le ministère sous prétexte essentiel d’assurer la confidentialité des données personnelles, ne peut fonctionner qu’en utilisant le support industriel des seigneurs numériques ! Par exemple, j’ai lu récemment que c’était le cloud d’Amazon qui récupérait, dans ces centres de données en Irlande, les résultats des évaluations nationales des élèves français…

      Les seigneurs numériques à travers leurs innombrables filiales servent donc de prestataires de service au ministère puisque rien (ou presque) n’est possible sans leurs réseaux, leurs centres de données, leurs logiciels, etc. Mais ces groupes gigantesques lorgnent évidemment sur le marché éducatif qui en est encore à ses balbutiements pour des raisons que j’analyse dans mon livre : en termes de ressources, trop fortes disparités des curriculums entre pays qui rendent difficile pour l’enseignement obligatoire (le K12 anglo-saxon) de créer une offre globalisée qu’il n’y aurait plus ensuite qu’à « localiser » dans les différentes langues ; en termes de faisabilité pratique, difficultés aussi à substituer le virtuel au présentiel dans une proportion suffisamment intéressante sur le plan économique, etc. Je pense donc qu’ils sont en embuscade en pratiquant un entrisme discret et en espérant étendre leur mainmise industrielle à chaque étape.

      La deuxième conséquence, politique, est que cette révolution numérique offre en fait à l’Education nationale et à ces hiérarques comme vous le dites « une magnifique opportunité pour reformater sans le modifier le code génétique élitaire », et cela évidemment sans toucher aux causes de la ségrégation scolaire. Comment l’expliquez-vous ?
      Pour aller plus loin dans cette question, évoquant les « réformes » Blanquer du bac, vous êtes l’un des rares à parler de ces réformes comme d’un storytelling et finalement d’autant d’éléments de langage : s’agit-il là pour Blanquer d’éluder la question viscérale de l’inégalité ?

      J’ai déjà évoqué plus haut cette toile d’araignée numérique que le ministère tisse pour contrôler de diverses manières les outils des enseignants et même leurs formations via des modules à distance. Dans mon livre, je reviens sur la pratique des appels d’offre qui transforment les éditeurs scolaires et les producteurs numériques en pures prestataires de service du ministère contraints de se conformer à des cahiers des charges rédigés par les directions ministérielles s’ils veulent emporter le marché. Il y a aussi le nouveau rôle des organismes publics sous tutelle à qui le ministère confie des missions éditoriales pour produire des ressources d’enseignement labellisées par le CSEN. Toutes ces évolutions n’ont pas pour objectif de modifier quoi que ce soit dans l’organisation ségrégative du système mais d’assurer une prise de pouvoir centralisée sur les ressources destinées aux enseignants.

      La question que vous posez à propos de Jean-Michel Blanquer sur son évitement de la question de l’inégalité me permet d’aborder le rôle des neurosciences sur cette question. Ce point peut surprendre. En portant au pinacle la plasticité cérébrale des bébés et des enfants (qui est réelle en effet), les neurosciences dans la version instrumentalisée par Blanquer installent auprès de l’opinion publique et de certains parents l’idée que tous les élèves peuvent réussir de la même façon puisqu’ils ont le même cerveau, puisque c’est le cerveau qui apprend, et que, dès lors qu’il est correctement stimulé selon des méthodes « neuro », la réussite est assurée, l’échec jugulé. C’est ce même discours qu’exploite à sa façon Céline Alvarez et ses fameuses « lois naturelles », dont on connaît l’impact médiatique et publicitaire, même auprès de certains enseignants.

      L’échec scolaire aurait donc essentiellement pour cause l’inaptitude des professeurs (trop ignorants des découvertes « neuro ») pour effectuer ces stimulations comme il faudrait. Là encore, la cause des inégalités ne serait pas pour l’essentiel d’origine sociale, comme le montre de façon détaillée et percutante le dernier livre dirigé par Bernard Lahire (Enfances de classe, de l’inégalités parmi les enfants) mais proviendrait de l’école et des méthodes qu’elle met en œuvre, provoquant des inégalités de réussite entre enfants. Le déni sociologique implicite des « neuros » va si loin que j’ai pu entendre Boris Cyrulnik à France Culture le 3 septembre dernier affirmer qu’« aujourd’hui c’est l’école qui fait les classes sociales ». Conclusion des partisans « neuros » du ministre : en reformatant l’école selon les méthodes « neuro », on pourra assurer « l’égalité des chances ». Dans la même veine, le ministre présente ses mesures de dédoublements des CP comme la principale mesure de politique sociale du quinquennat ! Il laisse entendre aussi que la réforme des études au lycée général a pour but l’épanouissement personnel de chaque lycéen qui pourra échapper aux filières ségrégatives et enfin construire par lui-même son parcours et sa vie réussie. Le recours à la thématique du « développement personnel » à des fins institutionnelles vient ici gommer comme par magie les déterminismes inégalitaires inscrits dans l’organisation même du système. Les établissements sont loin d’être dotés des mêmes ressources et opportunités, sans parler du fossé entre la voie générale et technique et la voie professionnelle !

      Le naturalisme et le scientisme inhérents à l’épistémologie biomédicale des neuroscientifiques pro-Blanquer (que j’analyse en détails dans mon livre) ne sont donc pas les seuls biais qu’on peut relever. L’éviction des déterminants sociologiques est aussi un de leurs traits idéologiques. Cela permet de cantonner la question des inégalités de réussite scolaires dans l’enceinte de l’école, puis de les réduire à une sorte de « pédagogie du cerveau » à quoi se résume la prétention de la « neuro-pédagogie ». Cela permet aussi d’abandonner la question sociale en tant que telle (les inégalités de conditions familiales et sociales décrites par les sociologues) aux registres compassionnel et philanthropique.

      Un des points les plus remarquables également de votre approche du manuel scolaire est la place que le Ministère accorde aux éditeurs. Contrairement à une idée reçue, tenace notamment chez les enseignants, les éditeurs sont, en fait, maltraités comme l’essentiel des autres acteurs. Comment sont ainsi vus les éditeurs de manuels par le ministère ? Pourquoi, appartenant pourtant au privé, les éditeurs ne bénéficient-ils pas selon vous de la tornade néo-libérale qui, depuis l’arrivée de Blanquer, s’abat sur le ministère ?

      Dans le prolongement de ce que j’ai déjà dit, à l’évidence les éditeurs sont vus au mieux comme des prestataires de service s’ils jouent le jeu des appels d’offre. Au pire, comme un reliquat du passé avec lequel il faut composer. Ils ne sont pas vus en tout cas comme des partenaires autonomes dans un système horizontal de liberté pédagogique où collaboreraient de multiples acteurs dont les auteurs (chacun dans son rôle, régulé par une commune référence aux programmes officiels). Du point de vue de l’étatisme à la Blanquer, ils peuvent même être vus comme des opposants s’ils défendent la doctrine républicaine en vigueur depuis 130 ans ! Car c’est un fait historique que l’édition scolaire a été assurée par des entreprises privées depuis le milieu du XIXe siècle dans une logique concurrentielle et pluraliste. Parmi les libertés publiques républicaines, il y a, faut-il le rappeler, la liberté de publication. L’édition scolaire a été l’une des composantes qui a permis l’essor de l’édition puisqu’elle a contribué au développement de la scolarisation et donc de l’accès à la lecture.

      Ce point me permet d’aborder quelques réactions négatives ou dubitatives à l’égard de mon livre puisqu’il a été écrit par un ancien éditeur scolaire qui revendique son expérience. Certains critiques trollesques m’accusent de représenter le lobby de l’édition scolaire et voit dans mes critiques du technocratisme néo-libéral de Jean-Michel Blanquer un prétexte pour dissimuler la défense des rentes et profits (nécessairement faramineux) de l’édition scolaire privée. D’autres, moins négatifs, me reprochent de ne pas croire que le service public serait la seule option progressiste pour les auteurs souhaitant éviter d’être compromis avec la cartellisation de l’économie capitaliste. Contrairement à Ferdinand Buisson, ils ne voient pas les risques liberticides de confier l’édition scolaire à un monopole d’Etat ou à un organisme sous tutelle étatique dont la mission est de répercuter la politique officielle au gré de ses changements d’orientation. Comment gérer un vrai pluralisme de points de vue à l’intérieur d’une telle institution ? D’autres enfin me soupçonnent de mener un combat d’arrière-garde pour défendre un secteur économique condamné par le progrès technologique qu’ils voient incarné par les produits des seigneurs numériques ou les startups prétendument indépendantes (avant rachat par les premiers). Ils pensent que le numérique rend tout un chacun spontanément libre, compétent, collectivement intelligent. A mon sens, toutes ces critiques, parfois teintées d’un halo sulfureux de complotisme (bien qu’elles s’en défendent), ont perdu de vue la philosophie républicaine de la liberté pédagogique. Elles méconnaissent l’histoire et la réalité des entreprises d’édition, leur rôle pour permettre aux auteurs de donner consistance à une liberté chèrement conquise. Elles minorent les dangers de censure et de perte d’autonomie professionnelle pour les acteurs de l’école que recèlent tout affaiblissement de l’édition scolaire concurrentielle, soit lié à des limitations étatiques, soit lié à une trop forte concentration capitalistique.

      Le ministre, en tacticien roué, sait qu’il peut jouer sur l’esprit de loyauté des professeurs envers l’État employeur et leur attachement au service public, réputé défenseur désintéressé de l’intérêt général. Ses prises de pouvoir institutionnelles s’en trouvent plutôt facilitées, alors que, déposées en d’autres mains extrêmes, elles auraient des conséquences redoutables pour les démocrates. On ne comprend pas encore suffisamment, selon moi, en quoi le ministre joue les apprentis sorciers ! Il peut aussi user à bon compte de la méfiance des enseignants à l’égard des domaines d’activité où l’argent, le commerce, l’entrepreneuriat sont impliqués, autant de figures menaçantes représentant un supposé poison pour l’école publique, ces traits étant associés dans l’esprit des enseignants à une hostilité de principe à l’Etat-providence, ce qui est faux. Mais je sais aussi que cette attitude des professeurs est ambivalente. Ainsi on ne peut les soupçonner de souhaiter que l’édition de littérature, pour prendre un exemple saisissant, soit confiée à l’Etat ou à un organisme public… On peut au contraire penser qu’ils souhaitent qu’elle reste l’apanage d’éditeurs passionnés dans des entreprises ou des collectifs de statuts variés et à taille humaine.

      S’agissant encore du secteur privé et de la place que peut lui accorder un ministre néo-libéral comme Blanquer, vous montrez, et vous êtes le seul, qu’il faut plutôt les chercher du côté des associations et instituts qui rôdent autour de la rue de Grenelle. Vous dénoncez notamment la collusion de la Fondation Axa et son entrisme au ministère via l’association « Agir pour l’école » dont Blanquer a été un temps membre du comité directeur ainsi que l’Institut Montaigne. Pouvez-vous nous dire quels liens et quels rôles ces organismes entretiennent-ils avec l’Education nationale et comment Blanquer use de ces groupes pour mener sa politique ministérielle ?

      Je ne suis pas le seul à pointer les liens entre Jean-Michel Blanquer et la philanthropie du groupe d’assurance Axa. Les hauts technocrates au pouvoir actuellement n’ont plus du tout le profil de leurs devanciers. Ils ont un pied dans la haute fonction publique et un pied dans les directions opérationnelles des grands groupes industriels et financiers. De nombreuses études et enquêtes documentent cette évolution. De sorte qu’il semble tout à fait naturel à ces hauts dirigeants d’ouvrir les portes des organismes publics et des directions ministérielles à des partenariats ou à des actions « philanthropiques ». C’est ainsi que l’Institut Montaigne, financé par la Fondation Axa, explique au ministère comment mener à bien la numérisation de l’école primaire en France. C’est ainsi que l’association Agir pour l’école, financée par le mécénat Axa, a l’autorisation exceptionnelle de mener des expérimentations autour de sa méthode de lecture validée « neuro » dans des classes de l’école publique. Ce ne fut possible que grâce à l’appui discrétionnaire de Jean-Michel Blanquer lorsqu’il était DGESCO puis lorsqu’il devint ministre. La particularité de cette faveur être d’être accordée au plus haut niveau du ministère sans qu’il ne soit vraiment prévu de rendu de compte autre que ceux de l’association elle-même. Évidemment elle vante ses brillants résultats qui s’appuient sur « la science » ! Ce genre d’opération exceptionnelle au sein de l’Education nationale est un fait du prince auquel les enseignants de terrain dans les zones concernées sont tenus de se soumettre sous la pression de leur hiérarchie directe. On déguise en volontariat ce qui relève en fait d’une sorte d’embrigadement hiérarchique pour faciliter un entrisme caractérisé. J’évoque en détails dans mon livre la stratégie d’Agir pour l’école et de ses parrains.

      Il faut comprendre, au vu de cet exemple, que le néo-libéralisme a partie liée avec ce qu’on appelle le « philanthro-capitalisme ». En réduisant drastiquement les impôts des grands groupes privés et des grandes fortunes, il réduit d’autant les budgets publics et impose un rabotage général des dépenses. Faute de financements disponibles liés à une pénurie bien organisée, il favorise l’immixtion du mécénat des mêmes groupes privés et grandes fortunes pour financer des opérations qui auraient dû l’être sur le budget de l’Etat ou des collectivités territoriales. La conséquence est que ce ne sont plus les responsables au sein de l’appareil d’Etat ou des organismes publics sous tutelle qui ont le pouvoir de décider des nouveaux projets à mener. Ce sont des fondations privées externes qui se voient de plus en plus doter de ce pouvoir en décidant elles-mêmes des programmes qu’elles acceptent de financer. Cette prise de pouvoir larvée est une privatisation déguisée, réalisée avec la complicité des hauts technocrates néo-libéraux, censés pourtant défendre l’intérêt général à la tête de la puissance publique. A l’évidence les conflits d’intérêt, à terme, sont patents. Mais tout se fait par petites touches, dans une discrétion complice, par le truchement d’associations sans but lucratif. Les grands groupes peuvent communiquer sans vergogne sur leur remarquable générosité et leur implication citoyenne dans les affaires de la collectivité et afficher, comme retour sur investissement, un républicanisme de bon aloi !

      En parlant d’« Agir pour l’école », il faut aussi évoquer Stanislas Dehaene dont vous nous apprenez qu’il mène une partie de ses recherches en synergie avec cette association. Votre démonstration est implacable : de fait, la place au sein de l’Éducation nationale qu’occupe désormais Stanislas Dehaene, neuroscientifique, ne manque pas d’intriguer tant elle est surprenante. Si, de fait, le ministère avec Blanquer tombe sous la coupe réglée des neurosciences, on ne peut qu’être étonné que ce psychologue cognitiviste, étranger aux sciences de l’éducation notamment, soit président du Conseil scientifique de l’Education nationale. Et on ne peut qu’être étonné surtout des propos, inquiétants il faut le dire, qui sont les siens ainsi que, plus largement, de sa démarche.

      En effet, vous rappelez ses déclarations pour le moins déconcertantes sur les manuels scolaires qu’il considère comme autant de « médicaments ». Vous poursuivez d’ailleurs à très juste titre en disant que cette personne emploie plus généralement des métaphores médicalisées pour parler de l’Education. Vous dites que peut-être bientôt on va appeler les élèves des « malades » ou des « patients ». Posons la question sans détour : est-ce que la place que prennent les neurosciences à l’école n’ouvre pas potentiellement un nouveau marché à l’industrie pharmaceutique : soigner par exemple les enfants dont les tests de positionnement en primaire ou en Seconde révéleraient des difficultés dans l’acquisition de connaissances ?

      Les liens entre Stanislas Dehaene et Jean-Michel Blanquer sont anciens. Bien avant d’être ministre, ce dernier (juriste de formation et professeur de droit public, rappelons-le) a toujours été sur une ligne critique à l’égard des professeurs des écoles qu’il accuse, depuis son premier passage au ministère en 2006 (sous Robien), de ne pas enseigner correctement les « fondamentaux ». On se souvient de la campagne du ministre Robien en faveur de la « méthode syllabique » et déplorant que l’école primaire soit, selon ses dires, infestée par la « méthode globale ». C’était peu de temps après qu’un consensus s’était pourtant formé parmi les spécialistes du lire-écrire sur les facteurs clés de cet apprentissage. Mais, quels que soient les avis des chercheurs, les ministres de droite ont toujours joué sur une communication grand public anti-prof, cherchant à raviver de faux débats, entretenus par tous les chroniqueurs déclinistes, pour se rallier une majorité de parents-électeurs. Jean-Michel Blanquer a tiré les leçons de l’échec de Robien à imposer ses manières de voir rétrogrades. Pour éviter les mêmes déboires, il a cherché des alliés parmi les experts médiatiques et les à trouver chez certains neuroscientifiques, dont le chef de file est Stanislas Dehaene. C’est d’ailleurs dans la collection que dirige ce dernier chez Odile Jacob que le futur ministre a publié ses ouvrages programmatiques sur l’école.

      Comment analyser cette alliance entre le haut fonctionnaire devenu le « vice-président » d’Emmanuel Macron (selon l’hebdomadaire Le Point) et l’éminent neuroscientifique de l’INSERM et du Collège de France qui préside le CSEN instauré début 2018 par le premier ? Quel est le ressort de cette alliance entre un ministre néo-libéral au verbe républicain et le patron d’un pool de spécialistes partageant le même culte du cerveau et de la randomisation ? A mon sens, un nouveau front idéologique s’est constitué là où se retrouve et s’étaye mutuellement le scientisme neurobiologique (foncièrement opposé aux méthodes non strictement quantitativistes des sciences sociales), le technocratisme néo-libéral (foncièrement convaincu de la supériorité des « savoirs experts » randomisés sur les savoirs expérientiels des praticiens) et les intérêts de l’industrie biomédicale qui finance en grande partie les recherches en neurosciences appliquées et, de façon plus large, de l’industrie de la santé et de l’assurance.

      Outre ses puissants réseaux d’influence, la force de cette alliance est sa stratégie de communication qui est fondée sur un storytelling très efficace. Le point de départ est souvent constitué par des éléments de langage qui concourent à dresser un tableau dramatique de la situation, notamment de l’école. Les évaluations internationales de type PISA ou les rapports d’expertise sont instrumentalisées à cette fin. Certains défauts du système sont dûment pointés et mobilisés comme éléments à charge, de sorte que des critiques qui émanent de la gauche de la gauche peuvent aussi être reprises comme arguments recevables et comme force d’appoint dans les instances mises en place. Il s’agit de montrer l’irresponsabilité des anciens gouvernants, la stérilité des débats antérieurs, les contradictions entre les discours et les réalités. Et de conforter finalement les arguments du camp des déclinistes (qui ont peu varié les airs qu’ils entonnent depuis Jules Ferry, sur le niveau qui baisse, la tradition qui est pervertie, la barbarie qui s’installe dans l’école, la nuisance des « pédagogistes », etc.). Cet éclectisme associant des points de vue extrêmes à un pragmatisme qui se veut apolitique est déroutant au premier abord et fait de ce courant opportuniste un attrape-tout.

      A partir de cette mise en scène décliniste, l’alliance « techno+neuro » a beau jeu de se présenter en sauveur de l’école menacée de péril ou de faillite, de prendre des poses de fervente républicaine apte à redresser une situation gravement compromise. Qui peut être contre de tels bienfaiteurs qui font constamment la une des médias, relayant sans beaucoup d’interrogations leurs discours bien huilés, leurs incessants « plans d’action » ? Qui peut s’opposer aux déclarations, en général indexées à gauche, sur la lutte contre l’échec scolaire, la réussite pour tous, l’égalité des chances, l’épanouissement individuel, et même la confiance retrouvée. Cette belle alliance entièrement désintéressée et dévouée au bien commun peut donc espérer gagner le soutien de bords considérés autrefois comme antagonistes, neutraliser les oppositions minoritaires accusées de corporatisme ou d’idéologie nuisible, et dérouler son plan de reformatage des institutions en accaparant tous les pouvoirs, en révisant les anciens compromis sociaux taxés d’immobilisme et, au passage, opérer un hold-up sur les crédits de recherche.

      Il faut comprendre qu’il y a une profonde communauté de vision du monde entre les technocrates et les neuroscientifiques du CSEN : c’est le culte scientiste du quantitatif et de la statistique. Le haut technocrate ne jure que par les indicateurs des multiples tableaux d’analyse qu’il concocte pour comprendre la réalité qu’il doit gérer. Les comparaisons et les variations statistiques appliquées ensuite aux données sont censées lui permettre de comprendre la diversité des situations réelles et proposer des mesures d’ajustement. De façon similaire, le chercheur quantitativiste ne jure que par l’expérimentation randomisée et considère comme pure opinion improuvable les constats qui ressortent de toutes les autres modalités d’observation ou d’enquête.

      La randomisation, qui a contribué à l’attribution du Nobel d’économie à Esther Duflo (membre du CSEN), est la méthode expérimentale utilisée par les quantitativistes des sciences cognitives (mais aussi en économie ou en sociologie) pour valider leurs hypothèses interprétatives et éliminer les variables dues au hasard. Elle consiste à vérifier empiriquement, en comparant des groupes tests et des groupes témoins soumis aux mêmes épreuves dans des conditions différentes, si les indicateurs postulés par la théorisation sont pertinents et permettent de comprendre comment fonctionne le dispositif observé. Cette forme de recherche expérimentale est le décalque des modalités d’expérimentation mises au point par l’industrie pharmaceutique pour tester l’effet des molécules sur des groupes ciblés d’individus affectés de divers troubles ou maladies.

      Il n’est pas surprenant que les neurosciences fassent le pont entre les méthodologies du biomédical et celle de la psychologie cognitive. Leur processus de recherche est le suivant : dans un premier temps elles formulent des hypothèses sur le fonctionnement du cerveau apprenant en observant des individus isolés sous IRM fonctionnel soumis à des tâches. A ce stade, ces recherches se déroulent dans l’environnement de la recherche biomédicale qui utilise les mêmes appareillages et méthodes de retraitement des données. Dans un second temps, elles déduisent de ces hypothèses et paradigmes (qui font l’objet de vifs débats au sein des neuro-chercheurs, ne l’oublions pas !) des prescriptions didactiques qui feront l’objet de tests en classe pour mesurer leur efficacité grâce à des évaluations dûment randomisées. Ces tests pourront en retour servir à relancer les hypothèses initiales, et ainsi de suite. La cherté de ces recherches biomédicales randomisées, comparée à d’autres méthodes d’observation pratiquées en sciences sociales, produit un effet d’évitement constaté par nombre de chercheurs : pour financer une seule recherche « neuro », il faut ne pas financer de nombreuses autres recherches non « neuro » ! Le scientisme biomédical n’est pas seulement une philosophie, c’est aussi un outil politique de gestion de la recherche qui a une tendance à la domination et au monopole, à l’impérium comme je le dénonce dans mon livre.

      Je voudrais m’attarder, si vous me le permettez, sur ces tests de positionnements qui paraissent révélateurs de la politique « neuro-techno » menée par Blanquer. Ma question sera double : est-ce qu’avec ces tests de positionnement de Seconde où les élèves doivent répondre comme à des stimuli et non engager une véritable réflexion, on ne peut pas considérer qu’il s’agit pour les neurosciences à la manœuvre ici de faire des élèves des cobayes ?

      Enfin, et vous le suggérez avec force, n’y a-t-il pas instrumentalisation de la part des neuroscientifiques, et notamment de Dehaene, des élèves pour leur faire passer des tests ? N’expérimentent-ils pas sur les élèves des méthodes afin de financer leurs propres recherches et monnayer leurs résultats pour, par exemple, faire l’acquisition d’IRM et d’appareils d’imagerie médicale sophistiquée afin de continuer à cartographier le cerveau ?

      Comme je l’ai souligné plus haut, l’expérimentation randomisée est la principale méthode qui permet aux recherches de laboratoire en neurosciences de déboucher ensuite sur d’éventuelles applications en classe moyennant la passation de tests contrôlés. Dans les dispositifs d’observation sous IRM, les bébés ou les enfants sont effectivement pris comme des cobayes. Mais c’est peu ou prou le cas de tous les dispositifs de recherche en psychologie cognitive, qu’ils soient effectués en laboratoire ou en milieu ouvert contrôlé. Dans le cas des recherches « neuro », l’ équipement des sujets en capteurs pour enregistrer leurs données d’activité cérébrale renforce cette image dévalorisante du cobaye. Mais, en principe, il n’y a pas de maltraitance ! Sauf, de façon assez courante dans le biomédical semble-t-il, sur les données elles-mêmes et leur interprétation pour pouvoir publier au plus vite des articles dans les revues scientifiques faisant état de résultats tangibles et continuer à se faire financer (je renvoie au livre très documenté Malscience, de la fraude dans les labos de Nicolas Chevassus-au-Louis). Or un nombre significatif de ces articles contient des résultats non reproductibles ou douteux. Il n’est donc pas inutile de se défier de tous les arguments d’autorité du type « la littérature scientifique internationale a montré que… », « la recherche internationale a conclu que… », « la méta-analyse de x recherches a prouvé que… ». L’absence de recul critique sur les conditions de publication de la littérature scientifique favorise le rejet en bloc des travaux scientifiques, ce qui n’est pas souhaitable, car, dégagés des diverses instrumentalisations dont ils sont l’objet, ils sont la source d’apports précieux pour les débats sérieux qui font avancer les connaissances en éducation, à la condition expresse d’intégrer l’ensemble des disciplines de recherche aux méthodologies et points de vue très variés et d’être ouvert aux savoirs expérientiels des praticiens.

      S’agissant toujours enfin de ces tests de positionnement, Blanquer paraît les user pour une fois de plus remettre en cause le métier même d’enseignant. Automatisés, ces tests ne sont pas corrigés par les enseignants qui, parfois, ne les font même pas passer à leurs propres élèves. C’est le rôle même d’enseignant qui est nié purement et simplement, les résultats des tests ne pouvant par ailleurs servir le plus souvent à nourrir le cours ou construire une quelconque séquence d’enseignement. Est-ce que ces tests sont pour Blanquer une nouvelle manière à la fois de nier l’expertise professorale et reconduisent le vieux fantasme moderniste de substituer un micro-processeur au professeur ? Enfin, en quoi accentuer la place du français et surtout des mathématiques, via ces tests, relève, comme vous le mentionnez, du « populisme éducatif » de Blanquer ?

      Le « populisme éducatif » est un concept forgé par le chercheur Xavier Pons pour désigner le fait que « les gouvernants proposent un programme d’action publique qui flatte les attentes perçues de la population sans tenir compte des propositions, des arguments et des connaissances produites dans le cours de l’action par les corps intermédiaires ou les spécialistes du sujet » (voir notamment son interview aux Cahiers pédagogiques). Cela caractérise bien la façon de gouverner de Jean-Michel Blanquer qui n’a tenu aucun compte des rejets massifs de ces réformes par les instances de concertation au sein de l’Education nationale ni des nombreuses critiques ou oppositions des spécialistes, y compris parmi les neuroscientifiques ! Sa manœuvre a consisté à faire croire que les meilleurs experts étaient avec lui. Les membres du CSEN ont une responsabilité particulière dans cette instrumentalisation politique.

      Sur la question des tests de positionnement et des évaluations en général, il faut clairement distinguer trois types de tests. Le premier concerne ce que nous avons vu plus haut, à savoir ces tests dérivés des recherches de laboratoire et destinés à mesurer l’efficacité de dispositifs inspirés des paradigmes théoriques formulés dans les labos. On peut les qualifier de « scientifiques » puisqu’ils ont pour cadre des recherches institutionalisées, une théorisation au sein d’une communauté savante et des retombées applicatives.

      Le deuxième type concerne les évaluations en classe, sur des épreuves calibrées, d’un échantillon d’élèves représentatif d’une population globale afin d’obtenir une image d’ensemble du niveau des élèves, d’effectuer des comparaisons dans le temps et des typologies en fonction de données contextuelles caractérisant les élèves et les établissements. Le but de ce type d’évaluation n’est pas d’intervenir dans la scolarité des élèves en faisant un retour des résultats auprès des classes via les enseignants. C’est d’observer une réalité dans ses multiples composantes pour en obtenir une représentation experte. L’exemple le plus connu de ce type d’évaluation est PISA.

      Le troisième type concerne les évaluations nationales obligatoires telles qu’elles sont mises en place en France depuis 2018. Elles visent à situer chaque élève sur une échelle comparative en identifiant points forts et points faibles et à faire un retour vers l’enseignant pour qu’il adapte son enseignement aux difficultés identifiées de ses élèves, voire l’individualise. Mais n’est-ce pas ce que s’attache déjà à faire les enseignants ? Ces évaluations ont donc un objectif d’ordre pédagogique. Toutefois, la composition des épreuves n’est pas neutre et comporte des choix didactiques implicites qui obligent les enseignants à s’adapter à leurs réquisits au fil des passations. C’est ce que j’appelle le pilotage par l’aval des pratiques pédagogiques. C’est un premier effet caché par le CSEN et les promoteurs de ces évaluations qui ne l’évoquent jamais.

      Un autre biais dissimulé est l’évaluation des enseignants eux-mêmes. Il faut bien voir que les résultats anonymisés et centralisés donnent lieu à des compilations au plan national et local qui permettent d’évaluer les élèves, les classes, les enseignants, les établissements et d’établir des comparaisons voir des classements. Le ministre et le CSEN viennent de se glorifier de l’amélioration des performances de élèves de CP et de CE1 d’une année sur l’autre en utilisant les données compilées ! Ces évaluations ont donc un second objectif déguisé qui consiste à faire comme si l’ensemble des classes du pays d’un même niveau scolaire n’en formait qu’une, toute chose égale par ailleurs, et qu’on pouvait déduire de ces données une forme d’enseignement efficace universelle, valable dans tous les contextes, sans tenir compte des énormes disparités entre les écoles et les établissements, des effets délétères d’un système fortement ségrégatif.

      A mon sens, la stratégie ministérielle ne consiste pas pour l’instant à substituer des tests à de l’enseignement présentiel. Il vise deux choses. D’abord à faire en sorte que la culture du test s’installe dans le paysage scolaire à tous les niveaux possibles, que la réussite aux tests devienne l’objectif premier de l’enseignement, ce qui limite l’autonomie professionnelle des professeurs dont les référentiels traditionnels sont les programmes scolaires et la liberté pédagogique. De ces tests pourront aussi émaner des ressources labellisées substitutives aux manuels et ressources actuelles. L’autre objectif est de pouvoir plus tard confier cet enseignement reconditionné par le CSEN et les instances ministérielles sous la coupe directe du ministre à des personnels recrutés et formés autrement qu’actuellement, beaucoup moins autonomes, davantage isolés et dominés par une hiérarchie technocratique qui pourra évaluer quantitativement leur « mérite » en fonction des résultats aux tests et individualiser les rémunérations en conséquence. C’est une école aux mains des « technos » et des « neuros » qui se dessine, bien différente de l’école publique républicaine et de ses valeurs !

      https://diacritik.com/2019/11/13/philippe-champy-les-beaux-discours-de-blanquer-sur-la-confiance-ne-reussi

  • Café et climat : La culture du café face aux effets du changement climatique - Toute l’actualité des Outre-mer à 360° - Toute l’actualité des Outre-mer à 360°
    http://outremers360.com/economie/cafe-et-climat-la-culture-du-cafe-face-aux-effets-du-changement-climat

    Le #café compte environ 80 espèces (#Typica, #Maragogype, #Bourbon, #Blue_Mountain ou #Mundo_Novo….) , mais ce sont l’#Arabica et le #Robusta qui s’imposent. L’arabica – un marché évalué à 16 milliards de dollars – est le plus consommé au monde et pourrait disparaître à l’état sauvage d’ici 2080. Car aujourd’hui, c’est toute la production d’Amérique centrale qui se trouve menacée par la rouille orangée causée par un champignon. Mais la rouille n’est pas la seule menace pour le café. La chaleur a favorisé les attaques dans les zones d’altitude, liée à l’appauvrissement génétique des plantations. A son origine, en #Ethiopie, le café sauvage poussait à l’ombre. Dès le 14ème siècle au #Yemen, on le remet au soleil, et la moitié du café dans le monde aujourd’hui est cultivée industriellement, en plein soleil, comme au #Brésil. « Les jours de ces #méthodes de production pourraient être comptés, en raison des changements climatiques » nous met en garde Hervé Etienne (CIRAD).

    #climat #monoculture

  • [Seminaire] Les représentations des migrations #1. Les enjeux de la cartographie

    Le laboratoire Migrations internationales, espaces et sociétés (Migrinter 7301 CNRS - Université de Poitiers) ouvre un séminaire (2019-2021) intitulé "Représenter les migrations".

    Quatre séances introductives sont programmées, entre avril et octobre 2019. Elles seront suivies par sept séances thématiques prévues entre novembre 2019 et juin 2020 (dates à venir).

    La première séance introductive dédiée aux Enjeux de la cartographie des migrations est organisée autour des interventions de Nicolas Lambert (Riate, CNRS, Paris Denis Diderot) et de Françoise Bahoken (IFSTTAR, Université Paris Est).

    Elle aura lieu le jeudi 4 avril de 14 à 17 h à la Maison des Sciences de l’Homme et de la Société de Poitiers.

    Résumé de la séance « Enjeux de la cartographie... » :
    « De tous temps, des cartes ont été mobilisées pour se repérer, se déplacer et représenter le monde. La cartographie des déplacements humains apparaît toutefois tardivement, notamment avec les premiers travaux de Charles-Joseph Minard, au milieu du XIXe siècle, figurant des mouvements humains ou des transports à différentes échelles géographiques. Dès lors, elle n’a cessé de se développer, en lien avec un engouement général et soutenu pour la visualisation de données. ... » Lire la suite : _http://migrinter.labo.univ-poitiers.fr/actualites/les-representations-des-migrations-seance-1/_

    – En savoir plus sur le séminaire : _http://migrinter.labo.univ-poitiers.fr/seminaires/representations-migrations/_

    #seminaire #cartographie #migrations #migrants #carte #cartedeflux #cartostats #dataviz #geoviz #théories #méthodes #concepts #sémantique #pratique #rhétorique

  • #Ciné_vert. #Environnement et #industrie_cinématographique

    Aux représentations hollywoodiennes du changement climatique, de type catastrophiste et sensationnaliste, s’oppose l’émergence d’un nouveau type de cinéma plus authentiquement écologique, qui prend en compte la question de la #soutenabilité tant dans ses thématiques que dans ses #méthodes_de_production.


    https://laviedesidees.fr/Cine-vert.html
    #cinéma #changement_climatique #climat #écologie

  • Cercle vicieux (Anne Dufourmantelle, Libération, 27/04/2017)
    https://www.liberation.fr/debats/2017/04/27/cercle-vicieux_1565827

    Ce qui me frappe, moi qui ne crois pas appartenir au « #cercle_de_la_raison », c’est que l’on trouve raisonnable justement que 200 personnes soient aussi #riches que 3 milliards dans ce monde. Ce qui me frappe c’est que l’on trouve raisonnable de ne pas donner raison aux sages femmes de ce pays qui, depuis plus d’un an, ne font pas grève pour le plaisir mais pour obtenir des #conditions_de_travail décentes. Ce qui me frappe, c’est que l’on trouve raisonnable de ne pas satisfaire la demande justifiée des auxiliaires maternelles en crèche ou des infirmières, rincées par le sous-effectif, car ce sont elles qui sont en première ligne sur le front de notre sacro-sainte #égalité. Ce qui me frappe c’est que l’on trouve raisonnables les #méthodes_managériales qui poussent tant de gens à souffrir au #travail et parfois à en finir, ce qui me frappe c’est de trouver raisonnable de continuer d’appeler Europe ce grand projet de liberté et de paix éclairées, la technocratie Bruxelloise.

    Martin Buber a écrit que c’est en rendant impensable toute #alternative à un ordre des choses qu’on participe à une hégémonie qui a pour propriété de susciter la #violence et la #destruction. La #doxa qui consiste à ostraciser toute #pensée transversale à une #orthodoxie couve une menace. On a vu comment « le cercle de la raison » a pondu en une trentaine d’années un parti qui a la #peur pour patrie et le #ressentiment pour exutoire.

    Cf. https://seenthis.net/messages/733660

  • Makina Corpus, premier pas en #éco-conception
    https://makina-corpus.com/blog/societe/makina-corpus-premier-pas-en-eco-conception-de-logiciel

    Makina Corpus va être accompagnée pour intégrer les principes de l’éco-conception dans le développement de ses produits et services grâce à la démarche collective Green Concept.

    #Ergonomie #Environnement #Développement_durable #Green-IT #Méthodes_Agiles #Valeurs #Formulaire #Expérience_utilisateur #Application_métier #Société #News_Item

  • Techniques. Ré-évaluation. A qui profitait la violence ?
    (Interpersonal violence at Playa Venado, Panama (550-850 AD) : a reevaluation of the evidence). Latin American Antiquity.

    Enterré vivant. Boucherie. Décapité. Mutilé. Tué. L’archéologue Samuel K. Lothrop n’a pas obscurci le tableau en décrivant ce qu’il pensait être arrivé aux 220 corps que son expédition avait trouvés sur le site de Playa Venado au Panama en 1951. Le seul problème est que Lothrop s’est probablement trompé. Une nouvelle évaluation des vestiges du site par des archéologues du Smithsonian n’a révélé aucun signe de traumatisme au moment de la mort ou presque. Le lieu de sépulture raconte probablement une histoire plus nuancée culturellement.

    (...)

    Les interprétations erronées de Lothrop sont probablement dues à l’ère de « l’archéologie romantique », des méthodes sous-développées pour les études mortuaires et les lectures littérales par les espagnols des contes des peuples autochtones après un contact européen.

    « Nous réalisons maintenant que beaucoup de ces chroniqueurs espagnols étaient motivés à montrer les populations indigènes rencontrées comme » non civilisées « et ayant besoin de conquérir », a déclaré Smith-Guzmán, ajoutant que de nombreux récits de sacrifices et de cannibalisme n’ont pas été confirmés.

    (...)

    « Plutôt qu’un exemple de mort violente et de déposition imprudente, Playa Venado présente un exemple de la façon dont les sociétés précolombiennes de la région isthmo-colombienne ont montré du respect et du souci pour leurs proches après la mort. »

    Le problème c’est que

    l’article de Lothrop publié en 1954, « Le suicide, le sacrifice et les mutilations dans les sépultures à Venado Beach, au Panama », a marqué les annales de l’archéologie panaméenne. Il a été cité plus de 35 fois comme preuve de violence, de cannibalisme ou de décapitation de trophées. Certains auteurs ont utilisé l’article pour suggérer que Playa Venado est un lieu de sépulture de masse ou une manifestation de conflit.

    Pour la défense de Lothrop, qui était archéologue au musée d’archéologie et d’enthologie de l’université de Harvard, la bioarchéologie (étude des restes humains issus de contextes archéologiques) n’a existé qu’en tant que sous-discipline deux décennies après sa conclusion à Playa Venado. Les praticiens d’aujourd’hui bénéficient également des méthodes développées dans les années 1980 et 1990.

    (...)

    À l’examen, Smith-Guzmán n’a trouvé que des plaies qui montraient des signes de guérison bien avant que les individus ne décèdent, notamment des coups à la tête et un pouce disloqué. Lothrop a probablement expliqué la présence de divers os cassés et de restes désarticulés en raison des processus normaux de décomposition et d’enfouissement secondaire des restes, qui auraient une pratique commune de vénération des ancêtres au Panama précolombien.

    (...)

    « Le positionnement uniforme de l’enterrement et l’absence de traumatisme périphérique (au moment de la mort) sont en contradiction avec l’interprétation de Lothrop sur la mort violente sur le site », a déclaré Smith-Guzmán. dans le cadre de l’enquête. « Les taux de traumatisme sont généralement faibles et la bouche ouverte des squelettes notés s’explique plus facilement par un relâchement musculaire normal après la mort et la pourriture. »

    #Méthodes
    #Nicole_E._Smith-Guzmán #Richard_G._Cooke

    2018; 1 DOI: 10.1017/laq.2018.48

    Pre-Columbian burials | Smithsonian Tropical Research Institute
    https://stri.si.edu/story/pre-columbian-burials

  • You’re not even criticising #scrum
    https://hackernoon.com/youre-not-even-criticising-scrum-caecf4eb19d3?source=rss----3a8144eabfe3

    I’ve been reading quite a bit of material produced by the #agile community of late. I’ve looked into engineering practices and culture. I’ve observed agile metrics and product identification. I’ve even stumbled into the realm of marketing and team building. In all of this, I’ve seen the same old trope wheeled out — “Scrum isn’t appropriate for the modern age”. Then, what follows is what I can only describe as the ultimate straw man convention. Arguments so fragile, I could write an application in VB.net and brute force them into submission. With that in mind, I thought I’d address some of the common critiques that I bump into regularly.Scrum is old nowI’m endlessly confused by people who equate an idea being old with it being ineffective. People just say “Scrum isn’t relevant any more” and leave it (...)

    #scrum-criticisms #criticising-scrum #kanban

  • The Basic Outline of a Paper

    The following outline shows a basic format for most academic papers. No matte r what length the paper needs to be, it should still follow the format of having an introduction, body, and conclusion. Read ove r what typically goes in each section of the paper. Use the back of this handout to outl ine information for your specific paper.

    http://www.crestmont.edu/pdf/candidates-reserarch-papers.pdf
    #écriture_scientifique #conseils #méthodes #méthodologie #écriture #article_scientifique

  • Atelier populaire d’#urbanisme

    L’Atelier Populaire d’Urbanisme de la Villeneuve est une initiative lancée à l’automne 2012 pour construire une alternative au projet de rénovation urbaine de l’urbaniste Yves Lion et de la ville de Grenoble alors dirigé par M.Destot.

    Ce projet décidé "d’en haut avait suscité beaucoup des oppositions de la part d’habitants qui refusaient la logique qui a mené à la démolition du 50 galerie de l’Arlequin, la construction d’un nouveau parking et le redécoupage du réseau routier. Un collectif contre la démolition, ensuite surnommé Vivre à la Villeneuve a lancé la mobilisation, dénoncé la fausse concertation et a lancé un appel à la ministre du logement pour la remise en cause du projet de rénovation urbaine.

    En 2013, à l’occasion du 40ème anniversaire de la Villeneuve et à l’initiative du collectif interassocati Villeneuve Debout, une multitude d’ateliers ont aboutit à la formulation d’un projet urbain stratégique et démocratique. Ce projet a montré qu’une autre approche de l’urbanisme est possible, issue « d’en bas », basée sur les intérêts des habitants, et qui visent les logiques de pouvoir d’agir des habitants.

    http://www.assoplanning.org

    #association_planning #grenoble #droit_à_la_ville #logement #Villeneuve #droit_au_logement #activisme_urban #urban_matter #villes #méthodes_participatives #savoirs_citoyens #savoirs_pratiques #savoirs_théoriques #community_organizing #advocacy_planning #désorganisation_sociale #empowerment

    Les liens et documents qui suivent dans ce fil de discussion sont tirés d’informations que j’ai entendu dans un cours donné par David Gabriel, co-auteur du livret « Les tours d’en face » (https://halshs.archives-ouvertes.fr/halshs-01261860/document)

    • #Saul_Alinsky

      Saul David Alinsky, né le 30 janvier 1909 à Chicago et mort le 12 juin 1972 à Carmel (Californie), est un écrivain et sociologue américain, considéré comme le fondateur du groupement d’organisateurs de communauté (community organizing) et le maître à penser de la gauche radicale américaine.


      https://fr.wikipedia.org/wiki/Saul_Alinsky

      Un livre de Saul Alinsky: «#Rules_for_radicals»
      –-> ici des extraits choisis

    • #Jane_Jacobs

      Jane Jacobs (née Jane Butzner 4 mai 1916 à Scranton, Pennsylvanie - 25 avril 2006 à Toronto) est une auteure, une militante et une philosophe de l’architecture et de l’urbanisme. Ses théories ont sensiblement modifié l’urbanisme nord-américain.

      Jane Jacobs a passé son existence à étudier l’urbanisme. Ses études sont basées sur l’observation : elle commença par observer les villes, reporter ce qu’elle observe, puis créa des théories pour décrire ses observations. Elle a changé le cours de l’urbanisme dans de nombreuses villes nord-américaines, y compris Toronto.

      En 1944, elle épouse Robert Hyde Jacobs, avec qui elle a eu deux fils, James Kedzie (né en 1948) et Edward Decker (né en 1950) et une fille, Mary. En 1968, durant la guerre du Viêt Nam, elle quitte les États-Unis avec ses fils afin de leur éviter le service militaire et trouve refuge au Canada.

      En 1980, elle offre une perspective « urbanistique » sur l’indépendance du Québec dans son livre The Question of Separatism : Quebec and the Struggle over Sovereignty.


      https://fr.wikipedia.org/wiki/Jane_Jacobs

    • #Personnalisme

      Le personnalisme, ou #personnalisme_communautaire, est un courant d’idées fondé par #Emmanuel_Mounier autour de la revue Esprit et selon le fondateur, recherchant une troisième voie humaniste entre le capitalisme libéral et le marxisme. Le personnalisme « post-mounier » est une philosophie éthique dont la valeur fondamentale est le respect de la personne. Le principe moral fondamental du personnalisme peut se formuler ainsi : « Une action est bonne dans la mesure où elle respecte la personne humaine et contribue à son épanouissement ; dans le cas contraire, elle est mauvaise. »1

      Il a eu une influence importante sur les milieux intellectuels et politiques français des années 1930 aux années 1950. Il a influencé, entre autres, les milieux de l’éducation populaire et plus tard de l’éducation spécialisée2, et les libéraux-chrétiens notamment conservateurs dont Chantal Delsol.

      https://fr.wikipedia.org/wiki/Personnalisme

    • Forum social des quartiers populaires :

      Le #FSQP sera un lieu d’échanges et de confrontations autour des expériences militantes dans les quartiers.
      Pour dépasser les discours abstraits, l’ambition est de déboucher sur des perspectives de luttes communes, tant au niveau national que local, autour des questions suivantes :

      > Apartheid urbain
      La politique de rénovation urbaine brasse des milliards d’euros sans réelle participation des habitant-e-s des quartiers. Quel pouvoir des habitant-e-s pour le futur de leur quartier ?

      > Education au rabais
      L’école joue mal son rôle d’accès au savoir dans nos quartiers. Elle devient un lieu de discrimination, de gardiennage et de sélection programmée vers des voies de garage. Quelle relation entre l’école et le quartier (élèves, parents, etc.) ?

      > Police-Justice
      Les multiples révoltes populaires contre les crimes policiers depuis une trentaine d’années révèlent la gestion policière et judiciaire des banlieues. Trop de jeunes sont destinés au parcours piégé : échec scolaire - police - justice - prison. Comment s’organiser face aux violences policières, une justice de caste et des prisons hors-la-loi ?

      > Engagement politique et social
      Les quartiers ne sont pas des déserts politiques. Il est nécessaire de confronter les différentes formes d’engagement et d’en faire un bilan (les limites du milieu associatif, la participation aux élections, les associations musulmanes, etc.). Vers un mouvement autonome des quartiers populaires ?

      > Chômage et précarité
      Les taux de chômage et de précarité (intérim permanent) atteignent des « records » dans les banlieues. Le fossé entre les syndicats et les cités marque l’abandon des classes populaires par la gauche. Quelles relations entre les quartiers et le mouvement ouvrier ?

      > Les anciens dans la cité
      La question de la vieillesse dans les banlieues n’est pas prise en compte dans les grands plans de solidarité nationaux. Quelles formes de solidarité et de mobilisation pour les anciens ?

      > Histoire et mémoire
      Malgré l’occultation par les institutions et les problèmes de transmission de la mémoire, l’histoire des luttes des quartiers et de l’immigration est riche d’expériences et d’enseignements. Comment transmettre nous-mêmes cette Histoire aux plus jeunes ?

      > Les musulmans entre criminalisation et engagement dans la cité
      Les musulmans subissent un climat islamophobe et des lois d’exception. Comment y faire face ? Quelle implication des organisations musulmanes dans les luttes sociales et politiques des quartiers ?

      > Cultures des quartiers
      Les banlieues sont des lieux de brassage, de solidarités et d’invention culturelle. Comment défendre et mettre en valeur cette richesse ?

      Nous avons décidé que la question des femmes et de leurs luttes sera transversale à l’ensemble des thèmes.


      http://fsqp.free.fr/archives-2007-2012

    • William Foote Whyte

      William Foote Whyte (né le 27 juin 1914 et mort le 16 juillet 2000), était un sociologue américain surtout connu pour son étude ethnologique de sociologie urbaine, Street Corner Society.

      Pionnier de l’#observation_participante, il vécut quatre ans dans une communauté italienne de Boston alors qu’il étudiait par ailleurs à Harvard dans le but d’analyser l’organisation sociale des gangs du North End.

      https://fr.wikipedia.org/wiki/William_Foote_Whyte

    • Street Corner Society. La structure sociale d’un quartier italo-américain

      Street Corner Society fait partie du petit nombre des classiques de la sociologie mondiale. Mais si la description saisissante que fait William Foote Whyte de la vie d’un quartier italien de Boston dans les années trente a connu un succès durable aux États-Unis, ce n’est pas seulement parce qu’il s’agit d’un modèle pour les recherches d’ethnologie urbaine. Reconnu bien au-delà des cercles universitaires, Street Corner Society est en effet de ces livres qui font passer un souffle d’air frais dans le territoire austère des sciences sociales.
      À l’écoute des humeurs de la rue, écrit dans une langue exempte de tout jargon et proche de la meilleure prose journalistique, cette fascinante immersion dans la vie d’un quartier, de ses sous-cultures et de ses systèmes d’allégeance a bouleversé les images convenues de la pauvreté urbaine et de l’identité communautaire. Référence majeure pour quiconque affronte les problèmes de l’observation participante en sociologie, Street Corner Society constitue également une lecture délectable pour le profane et un portrait savoureux de la comédie humaine dans sa version italo-américaine.

      http://www.editionsladecouverte.fr/catalogue/index-Street_Corner_Society-9782707152879.html

    • #Edward_Chambers

      Edward Thomas Chambers (April 2, 1930 – April 26, 2015) was the executive director of the Industrial Areas Foundation from 1972 to 2009, a community organizing group founded by Saul Alinsky.[1] Chambers was born in Clarion, Iowa to Thomas Chambers and Hazella Downing.[2] He is credited with developing systematic training of organizers and leaders of congregation-based community organizations, and establishing relational meetings (or “one-on-ones”) as a critical practice of organizers. He is the author of Roots for Radicals: Organizing for Power, Action, and Justice (Continuum International Publishing Group, 2003, ISBN 0-8264-1499-0.[3]). A memorial article in The New Yorker called him “community organizing’s unforgiving hero.” [4] He died of heart failure in Drimoleague, Ireland in 2015.[2]


      https://en.wikipedia.org/wiki/Edward_T._Chambers

      The Power of Relational Action

      In this booklet, Ed Chambers mulls about the building of relationships in public life that allow us to share our values, passions and interests with one another — what he calls “mixing human spirit.” He describes the art of the relational meeting or “one-to-one,” which he helped develop and which is now being used by clergy, leaders and organizers around the United States and in several other countries to build their congregations and community institutions and to take joint action for the common good.

      http://actapublications.com/the-power-of-relational-action

    • La production d’études comme instrument de mobilisation dans le cadre de la campagne pour un « revenu décent londonien » (London Living Wage)

      A recent campaign led by London Citizens - a coalition of churches, mosques, trade unions, schools and other associations - brought on the forefront the issue of low paid workers. The production of studies is the linchpin of this campaign for decent wages. It is more the process of making the studies, linked to the methods of community organizing, rather than the end product itself that has established the opportunity and feasibility of new wages policies. The urban study is here considered as a tool for mobilization. Its authors, its subjects and its addressees are the actors of the London Living Wage campaign.

      7Le travail des employés de London Citizens est basé sur la construction de relations avec les habitants membres des 160 groupes de l’alliance. Dans son contrat de travail, il est stipulé qu’un community organizer doit effectuer une moyenne hebdomadaire de quinze entretiens en face à face (appelés « #one_to_one »). Ces entretiens ne sont ni retranscris ni soumis à une analyse statistique mais ont pour but de construire une relation d’égal à égal avec chacun des membres de l’alliance. Ils permettent aux community organizers d’acquérir une connaissance des problèmes auxquels font face les citoyens de leur alliance. L’organisation a également pour but de former des leaders dans chaque groupe membre. Ces leaders sont encouragés à relayer ce travail de développement de relations au sein de leur institution. Ils sont par exemple invités à organiser des house meetings, des réunions dans leur domicile ou sur leur lieu de travail avec des amis, voisins ou collègues. Les leaders et les employés de London Citizens imaginent alors des idées de campagne en fonction des intérêts des personnes rencontrées. C’est toujours grâce à ces entretiens et réunions qu’ils peuvent ensuite tester ces idées avec d’autres personnes. Ce processus participatif est finalisé lors d’assemblées annuelles où les institutions membres votent, parmi les idées évaluées, les campagnes à mener dans l’année.

      http://journals.openedition.org/geocarrefour/8114?lang=en

    • #Theory_U

      Theory U is a change management method and the title of a book by #Otto_Scharmer.[1] During his doctoral studies at Witten/Herdecke University, Scharmer studied a similar method in classes taught by Friedrich (Fritz) Glasl, and he also interviewed Glasl.[2] Scharmer then took the basic principles of this method and extended it into a theory of learning and management, which he calls Theory U.[1] The principles of Theory U are suggested to help political leaders, civil servants, and managers break through past unproductive patterns of behavior that prevent them from empathizing with their clients’ perspectives and often lock them into ineffective patterns of decision making.[3][4]


      https://en.wikipedia.org/wiki/Theory_U

      La théorie U d’#Otto_Scharmer

      Ces 5 étapes visent à capter de nouveaux modes d’émergence et à rénover l’approche collaborative et la conduite de projet. La théorie U est donc un modèle de conduite du changement fondé sur la conscience de l’urgence pour la mise en place de solutions durables et globales. Les 9 environnements d’apprentisssage qu’il propose constituent une réponse concréte aux questions posées.

      http://4cristol.over-blog.com/article-la-theorie-u-d-otto-scharmer-98615598.html

    • L’ambition démocratique du community organizing

      La mise en place, depuis quelques années, des méthodes de community organizing peut-être envisagée comme une tentative de dépassement des limites du système représentatif. Par un rappel des ressorts de leur développement, aux États-Unis et en Grande-Bretagne, et par l’observation de leur mise en pratique au sein de l’Alliance citoyenne de l’agglomération grenobloise, cet article s’attache à montrer ce qui fait l’originalité de ces démarches : rapport pragmatique au pouvoir, mobilisation autour des « colères » des habitants, actions collectives centrées sur le conflit. Un regard sur l’objectif de prise d’autonomie des habitants, formulé par les fondateurs de l’alliance, permet d’inclure une analyse de la structure et des méthodes du community organizing sous l’angle des processus d’émancipation qu’elles sont susceptibles de favoriser.

      https://www.cairn.info/revue-mouvements-2015-3-p-168.htm

  • #Méthodes_visuelles

    A l’origine, la création d’une revue scientifique sur les méthodes visuelles était un défi. Très vite, elle est devenue une cause qui dépasse les cloisonnements académiques et pose un regard sur les modes de production scientifique qui mobilisent l’image. Beaucoup a déjà été fait par des collègues courageux, défricheurs d’espaces de recherche portant une spécificité méthodologique pas toujours bien comprise. En effet, on peut faire un constat simple : la place des méthodes visuelles, en France, malgré les avancées, n’est pas ce qu’elle devrait être.

    Même si le monde anglo-saxon ne doit pas être toujours pris comme référence, il faut bien reconnaître que la comparaison n’est pas flatteuse dans ce domaine. De fait, nous sommes la première revue pluridisciplinaire sur les méthodes visuelles en France. Pour autant notre revue se veut ouverte à l’international et a fait le choix d’accueillir aussi des textes dans leur langue d’origine. D’autres initiatives éditoriales existent dans des cadres plus larges ou dans des secteurs précis. Quelles qu’elles soient, les approches sont complémentaires et nourrissent l’avancée des expériences communes. Telle est notre conviction.

    Ce premier numéro marque l’acte fondateur d’une revue dédiée à la mise en lumière de chercheurs qui usent de méthodes visuelles mais qui restent encore trop souvent dans l’ombre faute d’avoir un espace d’édition techniquement adapté, un lieu reconnu d’échange et de cumul des connaissances en la matière, mais aussi un cadre qui accorde une valeur proprement scientifique à ces méthodes. Ce sont ces trois missions que se fixe la Revue Française des Méthodes Visuelles : donner à voir, mutualiser et légitimer l’usage des méthodes visuelles dans le champ scientifique.


    https://rfmv.fr/numeros/1

    #visual_studies #études_visuelles #revue
    cc @albertocampiphoto @reka

    • L’épaisseur des cartes. Un prisme d’observation pour l’histoire de l’#urbanisme

      La carte urbaine a souvent été considérée comme un objet neutre et son image objective par les historiens de la ville et de l’urbanisme. Elle est en réalité un produit chargé d’intentions et de présupposés implicites. Elle est surtout une ressource pour analyser les schèmes perceptifs qui gouvernent le projet urbain dans l’histoire. L’auteur de cet essai s’intéresse aux cartes des architectes et des urbanistes au XXe siècle, pour les construire en tant qu’objets d’études socio-historiques. Face aux narrations historiques qui ont privilégié les pouvoirs symboliques des représentations urbaines, il propose une méthode d’analyse attentive aux opérations de fabrication des cartes et à leurs acteurs. L’idée étant de déconstruire les modèles de représentation trop rapidement associés à des « régimes de pensée », pour faire apparaître leurs usages contradictoires dans les divers contextes théoriques et pratiques de l’aménagement spatial.

      https://rfmv.fr/numeros/1/articles/l-epaisseur-des-cartes-un-prisme-d-observation-pour-l-histoire-de-l-urbanisme

      #cartographie #visualisation

  • Médier les #récits_de_vie. Expérimentations de cartographies narratives et sensibles

    Alors que les #méthodes_narratives sont des outils qualitatifs particulièrement intéressants pour étudier des expériences socio-spatiales complexes, elles présentent également d’importantes limites déontologiques, éthiques et interprétatives. Nous exposons ici quelques-unes de ces limites, à partir de deux contextes de recherche spécifiques et comparés. Pour sortir des impasses méthodologiques rencontrées, les auteures ont eu recours à des expérimentations cartographiques. Quelles pratiques alternatives inventer, notamment à partir de la cartographie, pour élaborer des relations respectueuses et créatives en contexte de recherche ?

    http://mappemonde.mgm.fr/118as2
    #cartographie #visualisation #méthodologie #cartographie_sensible #cartographie_narrative
    cc @reka

  • Apprentissage de la lecture, les méthodes qui marchent (La-Croix.com)
    http://www.la-croix.com/Actualite/France/Apprentissage-de-la-lecture-les-methodes-qui-marchent-2015-09-23-1359833

    De récentes études plaident pour un apprentissage précoce, répété et soutenu des correspondances entre lettres et sons.
    Sans pour autant négliger les activités de compréhension des textes, l’un des points faibles des élèves français.

    En dépit d’un titre aguicheur, un article assez complet sur les enjeux de l’apprentissage de la lecture (même si je ne suis pas d’accord sur tout).
    Un bon complément à ce premier article est le suivant :

    Lecture : l’enseignement de la compréhension est trop faible en CP et CE1 (LesÉchos.fr)
    http://www.lesechos.fr/politique-societe/societe/021356006660-lecture-lenseignement-de-la-comprehension-est-trop-faible-en-c

    Selon une étude, les élèves sont trop peu stimulés en CP et en CE1. Or, ce temps d’explicitation, de résumé d’un texte, de compréhension des sous-entendus est essentiel pour la suite.

    #éducation #école #lecture #compréhension #apprentissage #méthodes_de_lecture

    • Il y a peut-être des réponses à chercher du côté de la méthode naturelle de Célestin Freinet : donner un sens à cet apprentissage en se basant sur des supports qui ont une signification et une valeur pour les enfants... Bon je sais que c’est considéré comme vieillot tout ça par nos modernes technocrates, mais, comme disait ma grand-mère, c’est dans les vieilles marmites que...

  • Changer l’école (Politis)
    http://www.politis.fr/Changer-l-ecole,27680.html

    La généralisation des méthodes alternatives permettrait à tous les enfants d’accéder au savoir de ce socle commun qui aujourd’hui fait défaut à presque la moitié d’entre eux. Mais, entre soutien et méfiance, les expérimentations ont bien du mal à s’étendre.

    Quelques articles du dossier (#paywall) :
    – Face au mur de l’institution (http://www.politis.fr/Face-au-mur-de-l-institution,27681.html)
    – François Dubet : « L’argument de l’atteinte à l’égalité est loufoque » (http://www.politis.fr/L-argument-de-l-atteinte-a-l,27683.html)
    – Philippe Meirieu : « Sortir de la caricature » (http://www.politis.fr/Philippe-Meirieu-Sortir-de-la,27685.html)

    #éducation #école #pédagogie #méthodes_alternatives

  • La vidéo, un outil tout trouvé pour une géographie plus-que-représentationnelle ?

    En se penchant sur les #méthodes_audiovisuelles en sciences sociales, il aurait été aisé et presque logique de s’attaquer à l’usage positiviste, réaliste et objectiviste de la vidéo, qui en fait un moyen de capter et enregistrer une #réalité déjà existante. À l’instar de Pink, qui identifie une « rejection of video as [a] usefully objective recording method » (2001, p. 589), cette critique est aujourd’hui assez largement répandue et acceptée, en tout cas dans le monde anglo-saxon où les recherches utilisant la vidéo en géographie sont les plus répandues. Je souhaite donc plutôt me positionner en porte-à-faux contre une tendance qui voit dans une approche renouvelée de la vidéo un outil tout trouvé pour une #géographie_plus-que-représentationnelle.

    http://www.espacestemps.net/articles/la-video-un-outil-tout-trouve-pour-une-geographie-plus-que-representat

    #géographie #sciences_sociales #vidéo #méthodologie #positivisme #réalisme #objectivisme #méthodologie
    cc @albertocampiphoto

  • Le Conseil des Jeunes expérimente des #méthodes_participatives

    Les membres du #Conseil_des_Jeunes de la #CIPRA ont participé à un week-end de formation qui leur a permis de se familiariser avec des méthodes de #planification et de mise en œuvre de la #participation. Les méthodes et les instruments présentés aideront les jeunes à accompagner le projet ‘Youth Alpine Dialogue’ dans les différents pays alpins.


    http://www.cipra.org/fr/nouveautes/le-conseil-des-jeunes-experimente-des-methodes-participatives

    #Alpes

    cc @reka @fil : un beau projet, qui pourrait faire l’objet d’un billet de @visionscarto... (oui, je sais, mais le temps...)

  • Sur la Réforme de l’Enseignement (Lou Mestre d’Escolo, octobre 1944)
    http://gallica.bnf.fr/ark:/12148/cb32815350t/date

    http://gallica.bnf.fr/ark:/12148/bpt6k8841902/f1.highres

    « Bien qu’elle ait beaucoup servi dans certains programmes électoraux, l’École Unique n’a pas été mise en pratique en France. Ce qui a été réalisé, ce sont des réformes de détail […]. La réforme avait de l’importance - une importance à la fois symbolique et pratique - pour la masse des petites gens, pour les classes moyennes de la ville. Pour la classe ouvrière, pour les paysans pauvres, il aurait fallu bien autre chose […]. D’autres corrections partielles atténuaient, sur tel ou tel point particulièrement sensible, le caractère de privilège et d’inégalité inhérent à maints points du système d’enseignement public. […] Mais il n’en reste pas moins que […] la structure fondamentale de l’enseignement français demeurait en place : sauf la correction d’un modeste système de bourse, la sélection des élèves admis aux écoles secondaires continuait à être pure affaire d’argent. Aptitude à étudier et possibilité d’étudier ne coïncidaient pas toujours. »
    « Un élève entré à 11 ans au lycée pouvait parcourir le cycle d’enseignement le plus long et le plus difficile, passer successivement le baccalauréat, une licence, une agrégation, sans recevoir absolument aucune vue tant soit peu approfondie sur l’histoire du travail et de l’organisation économique de son peuple ou sur les bases juridiques et sociales de la cité. Encore moins était-il question bien entendu, de lui donner une initiation aux gestes les plus généraux de l’activité manuelle et à la vie de l’homme de métier, ou un aperçu des notions fondamentales de technologie. Sauf quelques enseignements fragmentaires qu’il pouvait tirer successivement de l’histoire politique, de la géographie et de la littérature, rien ne préparait le lycéen au contact concret avec la société précise dans l’élite de laquelle il était censé entrer […] »
    « Les méthodes actives ne trouvaient pas d’emploi étendu […]. Une importance exagérée était fréquemment accordée, à tous les degrés de l’enseignement, aux examens et à leur préparation, aux compositions, aux manuels et aux cours dictés, à la pédagogie livresque. »
    « Ce qui se faisait dans un sens réformateur était le plus souvent dû à l’initiative privée : c’était l’œuvre des maîtres eux-mêmes (ou de leurs associations), et cette œuvre, loin d’être toujours soutenue par les pouvoirs publics, était à l’occasion combattue par eux. »

    #éducation #réforme_de_l'enseignement #histoire_de_l'éducation #inégalités #système_scolaire #méthodes_actives

  • Improvements to the CKAN Roadmap Process | ckan - The open source data portal software
    http://ckan.org/2014/03/13/improvements-to-the-ckan-roadmap-process

    #CKAN est le logiciel utilisé par quasiment toutes les grandes plateformes opendata :

    http://ckan.org/instances

    Ils utilisaient déjà #github pour leur système de tickets sur le code, il l’utilisent maintenant aussi pour la roadmap (les idées d’évolution), au lieu de #trello qui est un « Kanban Board ».

    En effet, il existe plusieurs alternatives à Trello « branchables » sur les tickets de github (#huboard, #waffle) ce qui permet d’avoir deux outils pour le prix d’un.

    https://github.com/ckan/ideas-and-roadmap/issues
    https://waffle.io/ckan/ideas-and-roadmap

    Est-il possible de se passer de #github pour gérer les tickets d’un projet libre ? Certainement que oui, mais ça devient l’exception.

    Mais n’est-ce pas imprudent pour la « communauté » libre de confier toutes ces informations à un seul silo ? Pas de risque pour le code, git est décentralisé, mais pour les issues, rien de tel.