• Tribune : Des hauts fonctionnaires du ministère dénoncent le projet réactionnaire de JM Blanquer
    http://www.cafepedagogique.net/lexpresso/Pages/2020/05/14052020Article637250435761243497.aspx

    => Sur le scientisme qui a cours au MEN

    le Ministre, dès son arrivée rue de Grenelle, a voulu donner une caution scientifique colorée de modernité à ce qui ne relève que de mesures idéologiques marquées dans les faits du sceau d’une pensée conservatrice et néolibérale sommaire

    Ici, ne règne qu’une vision de la recherche cognitive, sans la didactique, sans les sciences de l’éducation, ni la sociologie de l’école. « Tout se joue dans le cerveau » dit le ministre. Vive l’imagerie du cerveau. À bas les 100 ans de recherches pluridisciplinaires sur l’école !

    Les neurosciences (et encore, une école particulière) sont érigées au rang de nouvelle doctrine pédagogique au détriment du savoir-faire des enseignants et des personnels d’encadrement de terrain ; elles se substituent ainsi à la compréhension des enjeux culturels, sociaux et cognitifs des apprentissages scolaires. Le numérique éducatif, alpha et oméga de la pensée pédagogique actuelle, sert de cheval de Troie pour infiltrer les pratiques pédagogiques et offrir l’échec scolaire en marché aux éditeurs numériques et opérateurs privés.

    Symptomatiquement, la loi « pour l’école de la confiance » couvre de facto une politique de la défiance inédite à l’égard du pédagogique. Le plus grave est là

    #education

  • Une chaine youtube qui décrypte les neurosciences pour les ados
    https://adozen.fr/une-chaine-youtube-qui-decrypte-les-neurosciences-pour-les-ados
    https://adozen.fr/wp-content/uploads/2020/04/Une-chaine-youtube-qui-décrypte-les-neurosciences-pour-les-ados.png

    C’est Vina, neuroscientifique, qui va donc leur expliquer comment leur cerveau fonctionne et ce qui leur permet de le maintenir en forme et de mieux apprendre.

    Le ton est amical, parfois humoristique, les informations fournies sont précises et les arguments sont convaincants sans être moralisateurs.

    #neuroscience #apprendreAapprendre

    • le billet sur la méditation dont il est question dans la 4eme video -

      Tout le monde vous le dira : la méditation peut aider à calmer l’esprit. Et le corps. Ou pas. Du tout.

      Ce que la méditation permet surtout c’est de nous confronter à nos pensées, à notre bavardage intérieur, à nos obsessions, à nos compulsifs camouflages mentaux, à nos réponses automatiques. Rapidement, elle nous fait réaliser notre très grande tendance à fuir la réalité ; les faits comme les pensées.

      Oui, la méditation est un outil formidable pour aborder en conscience ce que nous avons dans la tête et aussi ce que notre corps exprime au travers de douleurs cycliques ou permanentes. En cultivant une attention soutenue à ce qui se présente, de manière systématique et chirurgicale, nous pouvons discerner et disséquer chaque mouvement mental, chaque répétition, chaque réflexe de fuite.

      Mais mais mais, la méditation ne nous permet pas, et je dirais même ne nous autorise pas à réfléchir notre petit (grand) manège mental. Car la technique, toutes écoles confondues, nous demande très expressément de mettre de côté chacune de nos pensées ou sensations, dès qu’elle est identifiée... jusqu’à ce que la suivante prenne le relais.

      En conséquence, une fois que nous avons aiguisé notre capacité d’attention - et si tant est que nous soyons intéressés par notre santé psychologique et par l’intelligence qui peut en émerger - il est important que l’analyse prenne le relais de la méditation/observation.

      Sinon, comment comprendre ce qui se passe dans notre esprit ? Comment ne pas perpétuer sans fin et à notre corps défendant toutes ces pensées parasites et majoritairement insensées ? Précisons ici que certaines peuvent être très très (très) étranges, dérangeantes, voire même effrayantes...

      De nombreux méditants, en réalisant la qualité de leurs pensées choisissent de méditer de manière soutenue, jusqu’à plusieurs heures par jour, afin d’évacuer ces circonvolutions problématiques (mais se rendent bien vite compte qu’elles reviennent toujours). Ou bien, ils sautent à pieds joints dans la pensée magique, l’adhésion à des croyances spirituelles pleines de vérités éthérées, voire se raccrochent à l’autorité rassurante d’un leader charismatique.

      Voilà l’histoire. Voilà comment la méditation peut mener à des souffrances plus importantes que celles qu’elle était supposée « soigner » ; à un profond manque de compréhension, à de lourds malentendus, à des échappatoires farfelues... et même à des désordres mentaux.

      La méditation est un outil puissant qui peut réellement affiner notre capacité d’attention et ainsi constituer un terreau favorable à une pensée de qualité.

      Ce n’est pas une voie magique vers la transcendance de notre corps ou de notre esprit, dans une dimension rêvée.

      Dans le plus grand intérêt de notre santé mentale, gardons bien ça en tête.

      – Élisabeth Feytit

      #méditation

      https://www.metadechoc.fr/aaah-la-meditation

      Interessant moi qui commence à pratiquer l’hypnose sur le figaro live ! et que j’ai réussi pour la première fois ce matin malgré les efforts soutenu de mon greffier pour me faire les abdos en même temps. Et quand même je suis vachement moins relou qu’hier enfin je pense ou j’espère. Mais c’est vrai que mon hypnotiseur du figaro m’apprend à laisser glisser mes ruminations et à etre aussi intelligente qu’une vache. Il dit quand même qu’il pense que ces ruminations sont un message de l’inconscient pour prévenir d’un danger mais un peu trop dosé pour pouvoir y reflechir utilement. En fait c’est pas contradictoire avec ce que dit Elisabeth Feytit !

      ps l’hypnotiseur en question est ici
      https://www.youtube.com/watch?v=c5vFsFbVDq4

      Peut etre que l’hypnose et la méditation c’est différent sinon il y aurais un même mot.

    • Sur la méditation dans un commentaire à son texte Elisabeth Feytit ajoute ;

      Effectivement, la méditation est contre-indiquée pour certains malades psychiatriques, notamment parce qu’elle les met brutalement face aux méandres de leurs propres pensées, ce qui peut faire empirer leur état. Elle est cependant utilisée de manière clinique contre les troubles de l’anxiété ou de syndromes post-traumatique.

      Ok nickel pour bibi merci madame Feytit

    • oui mais j’entend tellement de personnes me venter les médiations comme remède à tout faire et le jus d’herbe à blé contre le cancer que ca fait du bien cette parole ultra minoritaire. Tout comme le discours sur le HP ca fait du bien aussi et même ici j’ai plutot lu des croyant·es que l’inverse (y compris moi)

  • Vers une nouvelle #guerre_scolaire. Quand les #technocrates et les neuroscientifiques mettent la main sur l’Éducation nationale

    Sous la Ve République, l’unification de l’École, de la maternelle au bac, n’a pas mis fin à la #ségrégation_sociale et aux énormes écarts de #réussite_scolaire. Face à cette situation, les #hauts_responsables de droite et de gauche ont alterné des mesures contradictoires, rendant aléatoire la perspective d’une #démocratisation de l’École. D’autant que, depuis les années 2000, une partie croissante des hauts technocrates de l’Éducation nationale s’est ralliée à l’#agenda_néolibéral. Ils mobilisent dans ce cadre le #numérique et les neurosciences, présentés comme sources de #modernisation, pour accentuer en réalité la #pression sur les enseignants, rogner leurs autonomies professionnelles et leurs pouvoirs d’action.
    C’est ce que démontre avec rigueur, dans cet essai remarquablement documenté, #Philippe_Champy, fin connaisseur du #système_scolaire. Il y analyse les origines de ce grand #reformatage de l’École et, surtout, sa mise en œuvre par Jean-Michel #Blanquer : les attaques contre la #liberté_pédagogique et les #manuels_scolaires, la mise sous tutelle du « #numérique_éducatif », les tentatives de marginalisation des auteurs et éditeurs scolaires, la prise de pouvoir larvée d’un pool de neurochercheurs prétendant dicter leurs #méthodes_pédagogiques aux enseignants, etc. Ce grand #reformatage, qui maintient les privilèges élitaires en l’état, voire les renforce, s’accompagne d’une reprise en mains dirigiste et centralisatrice sans précédent. Il impose à tous les acteurs de l’École une prise de conscience et une réaction d’ampleur, face au risque avéré d’une nouvelle guerre scolaire.


    https://editionsladecouverte.fr/catalogue/index-Vers_une_nouvelle_guerre_scolaire-9782348040627.html
    #livre #éducation #éducation_nationale #France #neurosciences #autonomie #néolibéralisme #pédagogie

    • Philippe Champy : « Les beaux discours de Blanquer sur la confiance ne réussiront pas à masquer cette guerre contre les professeurs qui ne dit pas son nom »

      Passionnant et déterminant pour comprendre Blanquer et l’Éducation nationale : tel est l’essai de Philippe Champy Vers une nouvelle guerre scolaire : quand les technocrates et les neuroscientifiques mettent la main sur l’Éducation nationale qui vient de paraître à La Découverte.
      Ingénieur à l’Institut national de recherche pédagogique puis éditeur et enfin directeur des éditions Retz, Philippe Champy, en fin connaisseur du système scolaire, dévoile la nature profonde du grand reformatage de l’école par Blanquer. Partant d’une réflexion sur le manuel scolaire, il démontre combien pour Blanquer la liberté pédagogique est synonyme d’anarchie, combien les neurosciences lui servent d’outil managérial et comment aussi, via l’incroyable entrisme du groupe d’assurance Axa que connaît fort bien Blanquer, se met en place une privatisation déguisée de l’Éducation nationale. Un propos explosif qui ne pouvait manquer de retenir l’attention de Diacritik le temps d’un grand entretien avec Philippe Champy.

      Ma première question voudrait porter sur la genèse de votre indispensable essai pour comprendre ce que devient aujourd’hui l’Éducation nationale notamment aux mains de Jean-Michel Blanquer. Comment vous en est venue l’idée ? Vous dites, notamment dans l’introduction, que, pour vous être longuement occupé dans votre vie des manuels scolaires, vous avez été frappé par la manière dont le sommet de la pyramide hiérarchique au ministère traite précisément des manuels scolaires : qu’est-ce qui vous a ainsi particulièrement frappé ?

      Effectivement, plusieurs éléments tout au long de ma carrière m’ont alerté sur une posture étonnante de la part de certains dirigeants et prescripteurs au sein de l’Éducation nationale : l’ignorance et la défiance à l’égard des manuels scolaires, voire l’ostracisme ou la volonté de contrôle direct selon les périodes à l’égard des auteurs et éditeurs qui les produisent. Cette double anomalie m’a choqué aussi bien du point de vue de l’histoire politique que d’un point de vue purement pragmatique.

      Comme je le rappelle dans mon livre, c’est en toute conscience que les républicains, qui sont arrivés enfin au pouvoir dans les années 1880, ont rejeté les pratiques des régimes précédents (monarchies et empires) de contrôle a priori de l’Etat sur la production et la sélection des « livres classiques » (comme on désignait les manuels à l’époque) autorisés dans les écoles. C’est à ce moment fondateur pour les libertés publiques qu’a été formulée la doctrine républicaine de la « liberté pédagogique ». Cette doctrine s’oppose à toute idée d’édition scolaire d’Etat et préconise la liberté de publication pour les manuels à l’instar de la liberté de la presse, instaurée aussi à cette époque : pas d’examen ni d’autorisation préalable, aucune labellisation. Elle défend aussi la liberté de choix des enseignants parmi l’offre libre sous réserve de délibérations collectives institutionnalisées et la liberté d’utilisation en classe à leur guise. Les autorités n’ont qu’un droit de regard a posteriori et doivent publiquement justifier une éventuelle mise à l’écart ou interdiction, fait rarissime durant tout le XXe siècle.

      Toute mise en cause, explicite ou larvée, de cette liberté dans sa triple dimension devrait donc s’attacher à justifier cette atteinte à la doctrine fondatrice par des arguments sensés, ce qui n’est jamais le cas. Dans les propos de Jean-Michel Blanquer, pourtant républicain revendiqué, la liberté pédagogique est systématiquement indexée à l’anarchisme, au désordre, jamais à la reconnaissance de la compétence professionnelle des enseignants et aux responsabilités qui en découlent. Cette façon de voir est clairement à contre-courant du républicanisme originel puisqu’elle présente la liberté des acteurs au sein du système comme un danger et non comme un atout et une force, l’expression d’un dynamisme mobilisateur apte à améliorer constamment l’efficacité collective et à s’opposer à toute tutelle idéologique régressive.

      D’un point de vue pragmatique, pour les dirigeants de l’institution Éducation nationale, du moins ceux qui se targuent de rechercher en toute chose l’efficacité (valeur suprême du technocratisme), méconnaître la sphère de production et de diffusion des manuels et laisser cette sphère dans un angle mort revient bizarrement à ignorer une grande partie de ce qui fait la réalité quotidienne des enseignants et des élèves. Au mieux, par pure méconnaissance, on reproduit les préjugés du sens commun sur les manuels dont on ne sait pas exactement qui les produit, dans quel cadre, avec quelles contraintes, quel statut, quelles utilisations, etc. Une défiance s’installe, jamais explicitée ou discutée. Au pire, par hostilité de principe à tout ce qui est extérieur à l’institution, on est conduit à les rejeter en bloc sous prétexte qu’ils sont hors contrôle institutionnel, donc critiquables, douteux, dépassés, voire nocifs. A décrypter certaines remarques, on pourrait penser que c’est moins le manuel en tant qu’outil de travail qui pose problème que son pluralisme et la triple liberté pédagogique qu’il incarne dans le système français. On sent bien que certains hiérarques rêveraient de manuels officiels, nécessairement uniques, édités par le ministère… Il y a d’ailleurs eu au moins une tentative avortée en histoire que je relate dans mon livre. Quelle est la conséquence de cette posture ? C’est assez facile à deviner ! Puisque ce sont les enseignants qui choisissent les manuels et autres ressources, et aussi qui les conçoivent, les sélectionnent et les utilisent à leur gré on imagine sans trop de mal ce que ces dirigeants hostiles à la liberté pédagogique pensent de leurs « ouailles » !

      Dans ma carrière d’éditeur scolaire et pédagogique durant plus de 20 ans, j’ai à plusieurs reprises été stupéfait par les propos de café du commerce que pouvaient tenir de hauts responsables au sujet des manuels scolaires. Comme de leurs positions peu informées sur les débats didactiques que les manuels suscitent ! J’ai ressenti cette méconnaissance moins comme un signe de paresse intellectuelle que comme le symptôme d’un discrédit technocratique pour tout ce qui n’était pas directement dans leur sphère de pouvoir. Grosso modo, c’est l’attitude de responsables qui pensent qu’il n’est pas utile de comprendre la complexité d’une question si elle échappe à leur emprise hiérarchique…

      Le cœur de votre fort propos, c’est la place du manuel scolaire que vous prenez comme paradigmatique d’enjeux polémiques, politiques et économiques pour le moins révélateurs. Vous affirmez ainsi qu’il y a depuis bientôt une vingtaine d’années une volonté de mainmise du ministère sur les manuels scolaires, volonté qui éclate comme jamais avec Blanquer. Pourriez-vous nous dire pourquoi le ministère désire-t-il contrôler les manuels ? N’y a-t-il pas un paradoxe pour un néo-libéral sans frein comme Blanquer à vouloir contrôler la liberté pédagogique ?

      Plutôt que le cœur, je dirais que le manuel scolaire est le point de départ de mon enquête et une sorte de fil rouge qui conduit à se poser des questions fondamentales sur l’autonomie professionnelle des enseignants. Je rappelle en effet au début de mon essai les différentes critiques qui ont été adressées au manuel depuis ses débuts, accompagnant la progressive massification de l’enseignement primaire depuis la loi Guizot de 1833 puis sa généralisation et son encadrement laïque et républicain avec les lois Ferry des années 1880. Quand on fait le tour des critiques en question et des forces qui les portent, on s’aperçoit assez vite que le manuel sert de bouc-émissaire pour viser autre chose. L’enjeu réel des attaques n’est pas le manuel en tant que tel, sauf pour les courants pédagogiques qui le récusent et voient en lui un vecteur d’imposition conformiste qui stériliserait la créativité enseignante et favoriserait la servilité idéologique des élèves (je pense à Célestin Freinet).

      Ces enjeux peuvent être de nature très variée. Par exemple, au début du XXe siècle, avant la Première Guerre mondiale, ce fut le pouvoir des familles (en fait du clergé catholique) sur le choix des manuels d’enseignement de l’école publique. De façon permanente, depuis les lois Ferry, ce sont les contenus d’enseignement eux-mêmes qui sont visés (trop progressistes ou « engagés » pour les conservateurs et leurs lobbies, ou, au contraire, trop stéréotypés ou discriminatoires pour leurs adversaires de multiples obédiences), et, en dernier ressort, ces critiques visent les programmes scolaires, leurs préconisations, la façon dont ils sont conçus, les institutionnels qui les produisent, leurs présupposés idéologiques ou pédagogiques, etc.

      Le ministère lui-même, par la voix des inspections générales depuis la fin des années 1990, n’a pas été avare de critiques, comme une lecture attentive des rapports officiels le montre dans mon livre. Depuis cette époque, il rêve d’imposer aux auteurs et éditeurs scolaires des cahiers des charges pour contrôler leurs productions en amont. Il rêve d’introduire une labellisation avant parution, venant mettre en cause le principe même de la liberté pédagogique. De mon point de vue, cette tendance est une dérive typiquement technocratique dont le renforcement est concomitant avec l’instrumentalisation des évaluations internationales, notamment PISA, depuis 2000. Comme les résultats des élèves français ne sont pas jugés dignes du rang du pays, l’idée s’installe au sommet du ministère que la faute en revient non pas aux structures et à l’organisation inégalitaire et ségrégative du système scolaire dans son ensemble, mais tout simplement aux professeurs et à leurs méthodes d’enseignement. Ce serait non seulement la faute des professeurs du collège (puisque les élèves évalués ont 15 ans), mais aussi ceux du primaire qui ne sauraient pas enseigner les « fondamentaux » aux élèves les plus faibles. Ce sont les mauvais résultats de ces élèves qui plombent le score français. Il faut rappeler ici que PISA évalue un échantillon représentatif d’élèves français (7000 en 2018 « qui défendent les couleurs de la France », comme l’écrit patriotiquement le site du ministère !) et non pas l’ensemble des élèves, comme le font les dernières évaluations lancées par le ministère Blanquer pour l’ensemble des élèves de certains niveaux dans certaines disciplines.

      Cette tendance technocratique a évolué dans ses ambitions au cours des deux dernières décennies avec l’avènement du « numérique éducatif » et l’apparition des neurosciences sur la scène publique. On a assisté à leur accaparement progressif des questions éducatives, comme si, avant elles, les connaissances étaient restées dans une sorte de préhistoire sans valeur et que tout était à inventer ! Avec le numérique, la vieille revendication d’un contrôle institutionnel serré sur les manuels afin de mieux contraindre les professeurs dans leurs pratiques d’enseignement a été élargie à l’ensemble des ressources produites par les institutions publiques et par les enseignants eux-mêmes, grands utilisateurs des outils et réseaux numériques grand public. Fascinés par la « révolution numérique », les hauts technocrates ont prophétisé la marginalisation inéluctable de l’édition scolaire (prétendument liée au papier) avec l’idée de mettre fin en douceur à l’un des piliers de la liberté pédagogique des professeurs… et de faire des économies. (Rappelons que si ce sont les municipalités qui financent les manuels du primaire, les régions désormais ceux des lycées, c’est toujours une subvention d’Etat qui finance ceux des collèges.) Ils ont donc pensé pouvoir reprendre la main sur les outils des enseignants en poussant leur numérisation et leur dépôt sur des plates-formes institutionnelles centralisées et en les soumettant à des formes plus ou moins pernicieuses de labellisation.

      Poursuivant sur la question centrale du manuel, vous avancez également sans attendre qu’un des enjeux majeurs des querelles autour du manuel scolaire consiste à proférer des attaques déguisées contre les profs. Le manuel, et les polémiques souvent nombreuses qui l’entourent, renvoient selon vous aussi au fossé qui existe entre les enseignants et leurs dirigeants, comme si les premiers étaient les victimes des seconds, ce que le numérique et les neurosciences ne feraient qu’accentuer.
      Dans un tel contexte, pourrait-on ainsi dire qu’avec Blanquer, depuis 2017, l’Education nationale fait de ses fonctionnaires ses ennemis et, si oui, pourquoi ?

      Oui, c’est vrai, les critiques contre les manuels visent aussi, de façon plus ou moins déguisée, les professeurs, leur aptitude à décider par eux-mêmes de leurs méthodes et de leurs outils d’enseignement, leur pouvoir de les concevoir librement avec des éditeurs professionnels. Les manuels sont considérés abusivement, par ceux qui critiquent la liberté de publication, comme le fidèle reflet ou le déterminant automatique de ce qui est censé se passer en classe sous la conduite des professeurs. Ils ne comprennent pas la différence entre les programmes qui fixent un cadre général et des objectifs, les méthodes pédagogiques qui relèvent de connaissances et savoir-faire notamment didactiques (ce que j’appelle les savoirs expérientiels des professeurs), et enfin les outils qui sont à leur disposition au sein d’une offre pluraliste, ce que sont les manuels parmi beaucoup d’autres types de ressources éditées. Cette confusion simpliste leur permet de s’affranchir d’une observation fine des pratiques d’enseignement au profit d’un examen purement livresque, souvent superficiel, et fort éloigné des réalités scolaires. A titre d’exemple, c’est le cas de beaucoup d’intervenants dans le vieux débat, relancé par intermittence, sur l’apprentissage de la lecture au CP. Ceux qui ne veulent pas comprendre les réalités scolaires sont obnubilés par telle ou telle page de manuels, supputent des usages ou dérives mais ne savent pas en réalité comment ces manuels sont utilisés en classe, par les professeurs comme par leurs élèves.

      Quand les hauts technocrates du ministère se mettent à critiquer les manuels parce qu’ils échappent à leur autorité directe, comme je l’ai évoqué plus haut, ils élargissent indéniablement le fossé qui existe entre eux et les enseignants. Or, avec Jean-Michel Blanquer, la tendance technocratique (c’est la base qui a tort et le sommet qui sait et qui a raison) se marie avec la prise de pouvoir des néo-libéraux à la tête de l’appareil d’Etat et des institutions publiques. Les hauts technocrates néo-libéraux proviennent des deux côtés de l’échiquier politique en concurrence pour gouverner la Ve République. Cette nouvelle élite administrative pense foncièrement que l’État social, dont l’Ecole publique est l’un des fleurons (avec la Sécurité sociale, l’hôpital public, etc.), est trop développé, trop coûteux, mal géré, en retard, etc. C’est pourquoi les néo-libéraux veulent affaiblir les fonctions sociales de l’Etat, ils veulent le reformater en le concentrant sur les fonctions dites régaliennes et réduire ou privatiser des pans entiers qu’ils jugent négativement.

      Ces dirigeants justifient leur politique par la nécessité d’améliorer la compétitivité du pays dans la course mondiale en laissant plus d’initiatives aux détenteurs de capitaux et en allégeant leurs charges sociales pour accroître d’autant leurs profits. Ils entendent donc reformater l’ensemble de la politique sociale du pays pour raboter les acquis des anciens compromis sociaux. Réduire l’Etat social n’est donc pas incompatible avec la nécessité d’exercer « en même temps » un meilleur contrôle social sur les populations et les acteurs sociaux, allant jusqu’à la remise en cause de certaines libertés publiques. François Sureau, un libéral à l’ancienne pourrait-on dire, en tant qu’avocat défenseur des libertés publiques, vient de publier un opuscule très éclairant à ce sujet (voir Sans la liberté, Gallimard, collection Tracts). C’est dans le cadre de cette politique présidentielle et gouvernementale qu’il faut comprendre les assauts de Jean-Michel Blanquer contre les professeurs.

      Et si l’on veut contrôler les professeurs de façon tatillonne et ultra-dirigiste, au nom de l’efficacité et de la science (les neurosciences), il faut en effet s’attaquer à la tradition de liberté pédagogique et la limiter à un choix entre un petit nombre d’options labellisées par le ministère. Il faut tuer le pluralisme et borner le pouvoir d’agir des professionnels de terrain dans un cadre didactique imposé par des experts dont la compatibilité technocratique est avérée. Le paradoxe de l’étatisme dirigiste néo-libéral n’est donc qu’apparent. Il ne faut pas confondre l’idéologie néo-libérale avec l’idéologie libertarienne qui, elle, prône un capitalisme d’entreprises sans Etat. Il faut aussi noter que le fonctionnariat révulse les néo-libéraux de la « start-up nation » qui n’ont que les mots de « flexibilité » et « agilité » à la bouche. C’est pour eux un legs du passé totalement obsolète, qu’il faut mettre à plat, car ce système engage la puissance publique sur la durée et réduit d’autant la capacité de redéploiement budgétaire ultra rapide que les néo-libéraux réclament selon leurs priorités du moment. Cette façon de gouverner est manifeste dans les mesures brutales d’annulation des dispositifs sociaux qui se sont multipliées dès le début du quinquennat.

      Dans ce même esprit, pourrait-on également parler, par l’usage empressé des nouvelles technologies et les incessantes injonctions du ministère, qu’il existe désormais une forme de maltraitance administrative et numérique des enseignants ? Est-ce que finalement le numérique mais aussi les neurosciences ne servent pas à Blanquer d’outil managérial lui permettant d’opposer le primaire au Secondaire et ainsi, comme vous le dites, de « diviser pour mieux régner » ?

      Je crois qu’il y a deux phénomènes managériaux qui s’additionnent et qui touchent aussi bien les professeurs que tous les administratifs et les non-enseignants, à savoir environ 200 000 professionnels aux côtés de plus de 800 000 enseignants. D’un côté, il y a l’introduction du « new public management » avec la LOLF et la RGPP depuis 2006 dont la tendance est de copier les modes de management des grands groupes privés (gestion budgétaire pilotée par les financiers, individualisation des rémunérations, instauration de primes variables pour les responsables aux différents échelons en fonction d’objectifs décidés par les supérieurs, etc.). De l’autre, il y a l’immixtion directe du ministre dans les pratiques d’enseignement et les options didactiques. Cette immixtion concerne surtout l’enseignement primaire accusé d’être le vrai fautif des échecs du système. Mais le charcutage des programmes concerne aussi l’enseignement secondaire !

      Depuis plus de deux ans, Jean-Michel Blanquer a configuré à sa main le sommet du ministère en créant un Conseil scientifique de l’Éducation nationale (CSEN) totalement dominé par des neuroscientifiques et des quantitativistes, et en reconfigurant le Conseil supérieur des programmes (CSP) au profit de conservateurs dogmatiques. Ce sont deux leviers indispensables à sa prise de pouvoir qui prend chaque jour davantage les allures d’un présidentialisme appliqué à l’Éducation nationale. La loi Blanquer de juillet dernier, la reprise en mains des ESPÉ transformées en INSPÉ (dont les directions sont désormais nommées par le ministre), et celle de l’ESEN (l’école des cadres) en IH2E pour propager la doctrine du ministre et celle du CSEN, la suppression du CNESCO, illustrent brillamment cette domination sans appel. C’est une façon pour lui de s’assurer les pleins pouvoirs dans un système pyramidal et verticalisé à l’excès et de nommer aux postes-clés ses partisans les plus zélés, de moins en moins issus du sérail de l’Education nationale et de plus en plus éloignés de sa culture et de ses valeurs constitutives.

      Quelles sont les conséquences prévisibles de ces deux tendances managériales ? Si l’on chausse les lunettes des spécialistes des relations de travail, on peut sans doute augurer que tous ces changements autoritaires, imposées au pas de charge sans recherche de consensus avec les intéressés ou leurs représentants, produisent les mêmes effets de maltraitance que ceux qu’ont connus les anciennes entreprises publiques lors de leur privatisation sur un fond pathogène de « double lien » (quand les actes des chefs contredisent leurs paroles manipulatrices). Les beaux discours sur la confiance ne réussiront pas à masquer ce conflit fondamental, cette guerre contre les professeurs qui ne dit pas son nom.

      Dans votre analyse de la place que le manuel scolaire occupe désormais, vous ne manquez évidemment pas de rappeler que la mort du manuel scolaire est programmée en haut lieu depuis longtemps notamment au nom de la « révolution numérique ». Pourtant, faites-vous immédiatement remarquer, ce numérique n’est pas la révolution qu’elle prétend être, cachant souvent des leurres sociaux.
      En quoi peut-on dire que, pour l’école, la « révolution numérique » est une illusion ? Peut-elle révolutionner le cœur du métier d’enseignant ? N’y a-t-il pas le rêve au ministère qu’un jour ou l’autre le numérique puisse finalement se substituer au cours même des enseignants par le biais par exemple du MOOC ?

      Dans sa philosophie, le « numérique éducatif » est l’héritier de la cybernétique et de l’enseignement programmé des années 1950. Dans les débuts de l’informatique, c’est le moment où certains ingénieurs et mathématiciens prophétisaient le prochain remplacement des professeurs par les processeurs. Au discours futuriste propre aux « nouvelles technologies » (qui tient souvent de la sur-promesse éhontée) s’ajoute bien souvent un discours de type économique pour attirer des financements vers la recherche technologique. Les « technologues » à tous les âges savent qu’ils doivent faire miroiter aux décideurs et investisseurs d’importantes économies d’échelle à venir : finies les charges fixes d’enseignants et de locaux, fini le papier à stocker, etc., ce sera le règne de l’enseignement à distance ! Et les coûts de substitution sont toujours minorés, dans leurs montants financiers et leurs impacts tant sociaux qu’écologiques. De la même façon, de nombreuses impasses sont volontairement laissées à l’improvisation future en termes de faisabilité. Ce qui compte c’est d’avancer et de couper l’herbe sous le pied des concurrents et de ceux qui occupent déjà le terrain. On pourrait dire que c’est de bonne guerre économique pour qui pense que l’avenir se fonde sur des « destructions créatrices » !

      Le discours de l’adaptative learning se situe dans le droit fil des vieilles prophéties cynernétiques, comme je le rappelle dans mon livre. On nous présente un apprenant pris en main à distance par une machine intelligente capable de détecter en direct les erreurs de conception dans la tête de l’élève et d’adapter les contenus présentés et les exercices proposés pour le remettre sur le droit chemin du savoir d’une façon totalement individualisée. Le e-learning postule que l’élève serait une sorte de Robinson capable d’être connecté directement aux « savoirs universels » grâce au mentorat bienveillant d’un robot. Or l’autodidaxie est un exercice périlleux voire impossible, même avec l’aide distante d’un système supérieurement « intelligent ». Se priver du levier essentiel de l’apprentissage collectif et de la relation humaine entre professeur et élèves est le plus souvent source d’échec. C’est pourquoi d’ailleurs les MOOC relèvent plus du e-teaching que du e-learning puisqu’ils sont en principe pilotés par des enseignants qui gèrent à distance des classes virtuelles d’apprenants réels, dans le respect d’un calendrier et d’une progression imposés, ce qui est plus proche du fonctionnement scolaire ou universitaire habituel. L’isolement et les contraintes d’autogestion de planning par les apprenants eux-mêmes expliquent pourquoi le taux de réussite des MOOC est si faible, beaucoup abandonnant le cursus en cours de route faute d’autorégulation ou d’un étayage social suffisant. Au vu des évolutions actuelles, on peut espérer que les décideurs qui ont pu rêver un temps à un grand remplacement de l’enseignement et des enseignants par des robots revoient leur conception, même si les promesses de l’intelligence artificielle permettent encore de relancer et d’entretenir de nombreux fantasmes à ce sujet.

      S’agissant toujours du numérique, vous avez encore une formule très forte : vous parlez d’un ministère « sous hypnose numérique ». Mais vous faites immédiatement deux remarques sur lesquelles j’aimerais vous interroger. Vous dites, tout d’abord, qu’on ne lie jamais cette déferlante numérique aux stratégies prédatrices des GAFAM que vous choisissez de nommer les « seigneurs numériques ». Quelle serait ainsi selon vous le type de marché que convoitent dans l’Education nationale les seigneurs numériques ?

      Pour répondre à cette question, il faut élargir la focale. Le numérique est un sujet compliqué, par lui-même étant donné son impact massif dans les populations, mais aussi pour l’Etat, les collectivités territoriales et pour les différents acteurs concernés au sein de l’Éducation nationale. Tout le monde est mis sous la pression de l’industrie informatique mondiale qui domine et pilote le marché en fonction de ses intérêts exclusifs. Ce marché où s’affrontent des multinationales en position souvent monopolistique sur leurs créneaux produit un marketing séducteur, extrêmement puissant et très mystificateur. Dans mon livre, j’étudie plus particulièrement les ravages du « marketing du gratuit » chez les enseignants et les élèves.

      C’est donc compliqué de comprendre ce qui se passe réellement, d’autant plus que la « révolution numérique » s’est accompagnée de discours dithyrambiques à la mode qui ont très longtemps laissé dans une coupable obscurité les vrais moteurs économiques et sociaux de cette « révolution », et aussi son contexte géopolitique. On nous a présenté l’avènement du numérique comme une sorte de « révolution civilisationnelle » pour le bien de l’humanité, comme s’il s’agissait d’un phénomène technologique « naturel », du même ordre que le réchauffement climatique, mais en positif ! Horizontalité, agilité, gratuité, connectivité, dématérialisation, désintermédiation furent les plus courus de ses mots-clés. Intuitif, collaboratif, collectif, ses épithètes ô combien rabâchés. A l’instar du discours des neurosciences sur ce qui les précède, celui de la « révolution numérique » dépeint un avant caricatural : avant elle il n’y aurait que verticalité, rigidité, cupidité, isolement, etc. La « révolution » est devenu une rhétorique de marketing, en vigueur aussi bien dans la publicité que dans la vie des idées. Notons que ce révolutionnarisme verbal est proprement infantilisant. Heureusement qu’on perçoit mieux la mystification depuis que les coulisses industrielles et institutionnelles de tout ce storytelling sont mieux connues !

      Un autre élément de confusion est lié aux pratiques de masse qui se sont développées dans tous les usages domestiques et personnels (et là nous sommes toutes et tous concernés dans notre quotidien). Ils ont servi d’écran à la compréhension des effets profonds que le numérique engendre globalement dans l’économie, dans toutes les sphères professionnelles. Au lieu de toucher du doigt ce qui se joue réellement dans la numérisation de l’économie et de la vie sociale, les usages personnels ont servi de mascotte aux bienfaits supposés du numérique en général. Le cas de la tablette à cet égard est symptomatique. Elle a été pronostiquée par des béotiens admiratifs, comme un substitut enrichi du livre qui allait clore à brève échéance l’ère de Gutenberg. Dans l’Education nationale, certains ne jurent encore que par elle, comme on le voit dans certaines régions avec les équipements liés à la réforme des programmes des lycées.

      Quand on étudie les rapports officiels du ministère sur le « numérique éducatif », on ne peut qu’être frappé par l’engouement naïf de leurs auteurs qui adoptent la posture de grands stratèges du futur tout en reprenant à leur compte sans le moindre recul critique le storytelling de l’industrie informatique, les fantasmes de la « startup nation » mobilisée pour faire émerger sa « filière » nationale, tout en occultant les dimensions économiques, géopolitiques et même « bassement » gestionnaires de la question. Ces rapports tracent les grandes lignes d’un « numérique éducatif » centralisé qui viendrait en quelque sorte concurrencer le numérique grand public du cloud que les enseignants utilisent abondamment, y compris pour leurs besoins professionnels. Mais cette toile d’araignée, contrôlée par le ministère sous prétexte essentiel d’assurer la confidentialité des données personnelles, ne peut fonctionner qu’en utilisant le support industriel des seigneurs numériques ! Par exemple, j’ai lu récemment que c’était le cloud d’Amazon qui récupérait, dans ces centres de données en Irlande, les résultats des évaluations nationales des élèves français…

      Les seigneurs numériques à travers leurs innombrables filiales servent donc de prestataires de service au ministère puisque rien (ou presque) n’est possible sans leurs réseaux, leurs centres de données, leurs logiciels, etc. Mais ces groupes gigantesques lorgnent évidemment sur le marché éducatif qui en est encore à ses balbutiements pour des raisons que j’analyse dans mon livre : en termes de ressources, trop fortes disparités des curriculums entre pays qui rendent difficile pour l’enseignement obligatoire (le K12 anglo-saxon) de créer une offre globalisée qu’il n’y aurait plus ensuite qu’à « localiser » dans les différentes langues ; en termes de faisabilité pratique, difficultés aussi à substituer le virtuel au présentiel dans une proportion suffisamment intéressante sur le plan économique, etc. Je pense donc qu’ils sont en embuscade en pratiquant un entrisme discret et en espérant étendre leur mainmise industrielle à chaque étape.

      La deuxième conséquence, politique, est que cette révolution numérique offre en fait à l’Education nationale et à ces hiérarques comme vous le dites « une magnifique opportunité pour reformater sans le modifier le code génétique élitaire », et cela évidemment sans toucher aux causes de la ségrégation scolaire. Comment l’expliquez-vous ?
      Pour aller plus loin dans cette question, évoquant les « réformes » Blanquer du bac, vous êtes l’un des rares à parler de ces réformes comme d’un storytelling et finalement d’autant d’éléments de langage : s’agit-il là pour Blanquer d’éluder la question viscérale de l’inégalité ?

      J’ai déjà évoqué plus haut cette toile d’araignée numérique que le ministère tisse pour contrôler de diverses manières les outils des enseignants et même leurs formations via des modules à distance. Dans mon livre, je reviens sur la pratique des appels d’offre qui transforment les éditeurs scolaires et les producteurs numériques en pures prestataires de service du ministère contraints de se conformer à des cahiers des charges rédigés par les directions ministérielles s’ils veulent emporter le marché. Il y a aussi le nouveau rôle des organismes publics sous tutelle à qui le ministère confie des missions éditoriales pour produire des ressources d’enseignement labellisées par le CSEN. Toutes ces évolutions n’ont pas pour objectif de modifier quoi que ce soit dans l’organisation ségrégative du système mais d’assurer une prise de pouvoir centralisée sur les ressources destinées aux enseignants.

      La question que vous posez à propos de Jean-Michel Blanquer sur son évitement de la question de l’inégalité me permet d’aborder le rôle des neurosciences sur cette question. Ce point peut surprendre. En portant au pinacle la plasticité cérébrale des bébés et des enfants (qui est réelle en effet), les neurosciences dans la version instrumentalisée par Blanquer installent auprès de l’opinion publique et de certains parents l’idée que tous les élèves peuvent réussir de la même façon puisqu’ils ont le même cerveau, puisque c’est le cerveau qui apprend, et que, dès lors qu’il est correctement stimulé selon des méthodes « neuro », la réussite est assurée, l’échec jugulé. C’est ce même discours qu’exploite à sa façon Céline Alvarez et ses fameuses « lois naturelles », dont on connaît l’impact médiatique et publicitaire, même auprès de certains enseignants.

      L’échec scolaire aurait donc essentiellement pour cause l’inaptitude des professeurs (trop ignorants des découvertes « neuro ») pour effectuer ces stimulations comme il faudrait. Là encore, la cause des inégalités ne serait pas pour l’essentiel d’origine sociale, comme le montre de façon détaillée et percutante le dernier livre dirigé par Bernard Lahire (Enfances de classe, de l’inégalités parmi les enfants) mais proviendrait de l’école et des méthodes qu’elle met en œuvre, provoquant des inégalités de réussite entre enfants. Le déni sociologique implicite des « neuros » va si loin que j’ai pu entendre Boris Cyrulnik à France Culture le 3 septembre dernier affirmer qu’« aujourd’hui c’est l’école qui fait les classes sociales ». Conclusion des partisans « neuros » du ministre : en reformatant l’école selon les méthodes « neuro », on pourra assurer « l’égalité des chances ». Dans la même veine, le ministre présente ses mesures de dédoublements des CP comme la principale mesure de politique sociale du quinquennat ! Il laisse entendre aussi que la réforme des études au lycée général a pour but l’épanouissement personnel de chaque lycéen qui pourra échapper aux filières ségrégatives et enfin construire par lui-même son parcours et sa vie réussie. Le recours à la thématique du « développement personnel » à des fins institutionnelles vient ici gommer comme par magie les déterminismes inégalitaires inscrits dans l’organisation même du système. Les établissements sont loin d’être dotés des mêmes ressources et opportunités, sans parler du fossé entre la voie générale et technique et la voie professionnelle !

      Le naturalisme et le scientisme inhérents à l’épistémologie biomédicale des neuroscientifiques pro-Blanquer (que j’analyse en détails dans mon livre) ne sont donc pas les seuls biais qu’on peut relever. L’éviction des déterminants sociologiques est aussi un de leurs traits idéologiques. Cela permet de cantonner la question des inégalités de réussite scolaires dans l’enceinte de l’école, puis de les réduire à une sorte de « pédagogie du cerveau » à quoi se résume la prétention de la « neuro-pédagogie ». Cela permet aussi d’abandonner la question sociale en tant que telle (les inégalités de conditions familiales et sociales décrites par les sociologues) aux registres compassionnel et philanthropique.

      Un des points les plus remarquables également de votre approche du manuel scolaire est la place que le Ministère accorde aux éditeurs. Contrairement à une idée reçue, tenace notamment chez les enseignants, les éditeurs sont, en fait, maltraités comme l’essentiel des autres acteurs. Comment sont ainsi vus les éditeurs de manuels par le ministère ? Pourquoi, appartenant pourtant au privé, les éditeurs ne bénéficient-ils pas selon vous de la tornade néo-libérale qui, depuis l’arrivée de Blanquer, s’abat sur le ministère ?

      Dans le prolongement de ce que j’ai déjà dit, à l’évidence les éditeurs sont vus au mieux comme des prestataires de service s’ils jouent le jeu des appels d’offre. Au pire, comme un reliquat du passé avec lequel il faut composer. Ils ne sont pas vus en tout cas comme des partenaires autonomes dans un système horizontal de liberté pédagogique où collaboreraient de multiples acteurs dont les auteurs (chacun dans son rôle, régulé par une commune référence aux programmes officiels). Du point de vue de l’étatisme à la Blanquer, ils peuvent même être vus comme des opposants s’ils défendent la doctrine républicaine en vigueur depuis 130 ans ! Car c’est un fait historique que l’édition scolaire a été assurée par des entreprises privées depuis le milieu du XIXe siècle dans une logique concurrentielle et pluraliste. Parmi les libertés publiques républicaines, il y a, faut-il le rappeler, la liberté de publication. L’édition scolaire a été l’une des composantes qui a permis l’essor de l’édition puisqu’elle a contribué au développement de la scolarisation et donc de l’accès à la lecture.

      Ce point me permet d’aborder quelques réactions négatives ou dubitatives à l’égard de mon livre puisqu’il a été écrit par un ancien éditeur scolaire qui revendique son expérience. Certains critiques trollesques m’accusent de représenter le lobby de l’édition scolaire et voit dans mes critiques du technocratisme néo-libéral de Jean-Michel Blanquer un prétexte pour dissimuler la défense des rentes et profits (nécessairement faramineux) de l’édition scolaire privée. D’autres, moins négatifs, me reprochent de ne pas croire que le service public serait la seule option progressiste pour les auteurs souhaitant éviter d’être compromis avec la cartellisation de l’économie capitaliste. Contrairement à Ferdinand Buisson, ils ne voient pas les risques liberticides de confier l’édition scolaire à un monopole d’Etat ou à un organisme sous tutelle étatique dont la mission est de répercuter la politique officielle au gré de ses changements d’orientation. Comment gérer un vrai pluralisme de points de vue à l’intérieur d’une telle institution ? D’autres enfin me soupçonnent de mener un combat d’arrière-garde pour défendre un secteur économique condamné par le progrès technologique qu’ils voient incarné par les produits des seigneurs numériques ou les startups prétendument indépendantes (avant rachat par les premiers). Ils pensent que le numérique rend tout un chacun spontanément libre, compétent, collectivement intelligent. A mon sens, toutes ces critiques, parfois teintées d’un halo sulfureux de complotisme (bien qu’elles s’en défendent), ont perdu de vue la philosophie républicaine de la liberté pédagogique. Elles méconnaissent l’histoire et la réalité des entreprises d’édition, leur rôle pour permettre aux auteurs de donner consistance à une liberté chèrement conquise. Elles minorent les dangers de censure et de perte d’autonomie professionnelle pour les acteurs de l’école que recèlent tout affaiblissement de l’édition scolaire concurrentielle, soit lié à des limitations étatiques, soit lié à une trop forte concentration capitalistique.

      Le ministre, en tacticien roué, sait qu’il peut jouer sur l’esprit de loyauté des professeurs envers l’État employeur et leur attachement au service public, réputé défenseur désintéressé de l’intérêt général. Ses prises de pouvoir institutionnelles s’en trouvent plutôt facilitées, alors que, déposées en d’autres mains extrêmes, elles auraient des conséquences redoutables pour les démocrates. On ne comprend pas encore suffisamment, selon moi, en quoi le ministre joue les apprentis sorciers ! Il peut aussi user à bon compte de la méfiance des enseignants à l’égard des domaines d’activité où l’argent, le commerce, l’entrepreneuriat sont impliqués, autant de figures menaçantes représentant un supposé poison pour l’école publique, ces traits étant associés dans l’esprit des enseignants à une hostilité de principe à l’Etat-providence, ce qui est faux. Mais je sais aussi que cette attitude des professeurs est ambivalente. Ainsi on ne peut les soupçonner de souhaiter que l’édition de littérature, pour prendre un exemple saisissant, soit confiée à l’Etat ou à un organisme public… On peut au contraire penser qu’ils souhaitent qu’elle reste l’apanage d’éditeurs passionnés dans des entreprises ou des collectifs de statuts variés et à taille humaine.

      S’agissant encore du secteur privé et de la place que peut lui accorder un ministre néo-libéral comme Blanquer, vous montrez, et vous êtes le seul, qu’il faut plutôt les chercher du côté des associations et instituts qui rôdent autour de la rue de Grenelle. Vous dénoncez notamment la collusion de la Fondation Axa et son entrisme au ministère via l’association « Agir pour l’école » dont Blanquer a été un temps membre du comité directeur ainsi que l’Institut Montaigne. Pouvez-vous nous dire quels liens et quels rôles ces organismes entretiennent-ils avec l’Education nationale et comment Blanquer use de ces groupes pour mener sa politique ministérielle ?

      Je ne suis pas le seul à pointer les liens entre Jean-Michel Blanquer et la philanthropie du groupe d’assurance Axa. Les hauts technocrates au pouvoir actuellement n’ont plus du tout le profil de leurs devanciers. Ils ont un pied dans la haute fonction publique et un pied dans les directions opérationnelles des grands groupes industriels et financiers. De nombreuses études et enquêtes documentent cette évolution. De sorte qu’il semble tout à fait naturel à ces hauts dirigeants d’ouvrir les portes des organismes publics et des directions ministérielles à des partenariats ou à des actions « philanthropiques ». C’est ainsi que l’Institut Montaigne, financé par la Fondation Axa, explique au ministère comment mener à bien la numérisation de l’école primaire en France. C’est ainsi que l’association Agir pour l’école, financée par le mécénat Axa, a l’autorisation exceptionnelle de mener des expérimentations autour de sa méthode de lecture validée « neuro » dans des classes de l’école publique. Ce ne fut possible que grâce à l’appui discrétionnaire de Jean-Michel Blanquer lorsqu’il était DGESCO puis lorsqu’il devint ministre. La particularité de cette faveur être d’être accordée au plus haut niveau du ministère sans qu’il ne soit vraiment prévu de rendu de compte autre que ceux de l’association elle-même. Évidemment elle vante ses brillants résultats qui s’appuient sur « la science » ! Ce genre d’opération exceptionnelle au sein de l’Education nationale est un fait du prince auquel les enseignants de terrain dans les zones concernées sont tenus de se soumettre sous la pression de leur hiérarchie directe. On déguise en volontariat ce qui relève en fait d’une sorte d’embrigadement hiérarchique pour faciliter un entrisme caractérisé. J’évoque en détails dans mon livre la stratégie d’Agir pour l’école et de ses parrains.

      Il faut comprendre, au vu de cet exemple, que le néo-libéralisme a partie liée avec ce qu’on appelle le « philanthro-capitalisme ». En réduisant drastiquement les impôts des grands groupes privés et des grandes fortunes, il réduit d’autant les budgets publics et impose un rabotage général des dépenses. Faute de financements disponibles liés à une pénurie bien organisée, il favorise l’immixtion du mécénat des mêmes groupes privés et grandes fortunes pour financer des opérations qui auraient dû l’être sur le budget de l’Etat ou des collectivités territoriales. La conséquence est que ce ne sont plus les responsables au sein de l’appareil d’Etat ou des organismes publics sous tutelle qui ont le pouvoir de décider des nouveaux projets à mener. Ce sont des fondations privées externes qui se voient de plus en plus doter de ce pouvoir en décidant elles-mêmes des programmes qu’elles acceptent de financer. Cette prise de pouvoir larvée est une privatisation déguisée, réalisée avec la complicité des hauts technocrates néo-libéraux, censés pourtant défendre l’intérêt général à la tête de la puissance publique. A l’évidence les conflits d’intérêt, à terme, sont patents. Mais tout se fait par petites touches, dans une discrétion complice, par le truchement d’associations sans but lucratif. Les grands groupes peuvent communiquer sans vergogne sur leur remarquable générosité et leur implication citoyenne dans les affaires de la collectivité et afficher, comme retour sur investissement, un républicanisme de bon aloi !

      En parlant d’« Agir pour l’école », il faut aussi évoquer Stanislas Dehaene dont vous nous apprenez qu’il mène une partie de ses recherches en synergie avec cette association. Votre démonstration est implacable : de fait, la place au sein de l’Éducation nationale qu’occupe désormais Stanislas Dehaene, neuroscientifique, ne manque pas d’intriguer tant elle est surprenante. Si, de fait, le ministère avec Blanquer tombe sous la coupe réglée des neurosciences, on ne peut qu’être étonné que ce psychologue cognitiviste, étranger aux sciences de l’éducation notamment, soit président du Conseil scientifique de l’Education nationale. Et on ne peut qu’être étonné surtout des propos, inquiétants il faut le dire, qui sont les siens ainsi que, plus largement, de sa démarche.

      En effet, vous rappelez ses déclarations pour le moins déconcertantes sur les manuels scolaires qu’il considère comme autant de « médicaments ». Vous poursuivez d’ailleurs à très juste titre en disant que cette personne emploie plus généralement des métaphores médicalisées pour parler de l’Education. Vous dites que peut-être bientôt on va appeler les élèves des « malades » ou des « patients ». Posons la question sans détour : est-ce que la place que prennent les neurosciences à l’école n’ouvre pas potentiellement un nouveau marché à l’industrie pharmaceutique : soigner par exemple les enfants dont les tests de positionnement en primaire ou en Seconde révéleraient des difficultés dans l’acquisition de connaissances ?

      Les liens entre Stanislas Dehaene et Jean-Michel Blanquer sont anciens. Bien avant d’être ministre, ce dernier (juriste de formation et professeur de droit public, rappelons-le) a toujours été sur une ligne critique à l’égard des professeurs des écoles qu’il accuse, depuis son premier passage au ministère en 2006 (sous Robien), de ne pas enseigner correctement les « fondamentaux ». On se souvient de la campagne du ministre Robien en faveur de la « méthode syllabique » et déplorant que l’école primaire soit, selon ses dires, infestée par la « méthode globale ». C’était peu de temps après qu’un consensus s’était pourtant formé parmi les spécialistes du lire-écrire sur les facteurs clés de cet apprentissage. Mais, quels que soient les avis des chercheurs, les ministres de droite ont toujours joué sur une communication grand public anti-prof, cherchant à raviver de faux débats, entretenus par tous les chroniqueurs déclinistes, pour se rallier une majorité de parents-électeurs. Jean-Michel Blanquer a tiré les leçons de l’échec de Robien à imposer ses manières de voir rétrogrades. Pour éviter les mêmes déboires, il a cherché des alliés parmi les experts médiatiques et les à trouver chez certains neuroscientifiques, dont le chef de file est Stanislas Dehaene. C’est d’ailleurs dans la collection que dirige ce dernier chez Odile Jacob que le futur ministre a publié ses ouvrages programmatiques sur l’école.

      Comment analyser cette alliance entre le haut fonctionnaire devenu le « vice-président » d’Emmanuel Macron (selon l’hebdomadaire Le Point) et l’éminent neuroscientifique de l’INSERM et du Collège de France qui préside le CSEN instauré début 2018 par le premier ? Quel est le ressort de cette alliance entre un ministre néo-libéral au verbe républicain et le patron d’un pool de spécialistes partageant le même culte du cerveau et de la randomisation ? A mon sens, un nouveau front idéologique s’est constitué là où se retrouve et s’étaye mutuellement le scientisme neurobiologique (foncièrement opposé aux méthodes non strictement quantitativistes des sciences sociales), le technocratisme néo-libéral (foncièrement convaincu de la supériorité des « savoirs experts » randomisés sur les savoirs expérientiels des praticiens) et les intérêts de l’industrie biomédicale qui finance en grande partie les recherches en neurosciences appliquées et, de façon plus large, de l’industrie de la santé et de l’assurance.

      Outre ses puissants réseaux d’influence, la force de cette alliance est sa stratégie de communication qui est fondée sur un storytelling très efficace. Le point de départ est souvent constitué par des éléments de langage qui concourent à dresser un tableau dramatique de la situation, notamment de l’école. Les évaluations internationales de type PISA ou les rapports d’expertise sont instrumentalisées à cette fin. Certains défauts du système sont dûment pointés et mobilisés comme éléments à charge, de sorte que des critiques qui émanent de la gauche de la gauche peuvent aussi être reprises comme arguments recevables et comme force d’appoint dans les instances mises en place. Il s’agit de montrer l’irresponsabilité des anciens gouvernants, la stérilité des débats antérieurs, les contradictions entre les discours et les réalités. Et de conforter finalement les arguments du camp des déclinistes (qui ont peu varié les airs qu’ils entonnent depuis Jules Ferry, sur le niveau qui baisse, la tradition qui est pervertie, la barbarie qui s’installe dans l’école, la nuisance des « pédagogistes », etc.). Cet éclectisme associant des points de vue extrêmes à un pragmatisme qui se veut apolitique est déroutant au premier abord et fait de ce courant opportuniste un attrape-tout.

      A partir de cette mise en scène décliniste, l’alliance « techno+neuro » a beau jeu de se présenter en sauveur de l’école menacée de péril ou de faillite, de prendre des poses de fervente républicaine apte à redresser une situation gravement compromise. Qui peut être contre de tels bienfaiteurs qui font constamment la une des médias, relayant sans beaucoup d’interrogations leurs discours bien huilés, leurs incessants « plans d’action » ? Qui peut s’opposer aux déclarations, en général indexées à gauche, sur la lutte contre l’échec scolaire, la réussite pour tous, l’égalité des chances, l’épanouissement individuel, et même la confiance retrouvée. Cette belle alliance entièrement désintéressée et dévouée au bien commun peut donc espérer gagner le soutien de bords considérés autrefois comme antagonistes, neutraliser les oppositions minoritaires accusées de corporatisme ou d’idéologie nuisible, et dérouler son plan de reformatage des institutions en accaparant tous les pouvoirs, en révisant les anciens compromis sociaux taxés d’immobilisme et, au passage, opérer un hold-up sur les crédits de recherche.

      Il faut comprendre qu’il y a une profonde communauté de vision du monde entre les technocrates et les neuroscientifiques du CSEN : c’est le culte scientiste du quantitatif et de la statistique. Le haut technocrate ne jure que par les indicateurs des multiples tableaux d’analyse qu’il concocte pour comprendre la réalité qu’il doit gérer. Les comparaisons et les variations statistiques appliquées ensuite aux données sont censées lui permettre de comprendre la diversité des situations réelles et proposer des mesures d’ajustement. De façon similaire, le chercheur quantitativiste ne jure que par l’expérimentation randomisée et considère comme pure opinion improuvable les constats qui ressortent de toutes les autres modalités d’observation ou d’enquête.

      La randomisation, qui a contribué à l’attribution du Nobel d’économie à Esther Duflo (membre du CSEN), est la méthode expérimentale utilisée par les quantitativistes des sciences cognitives (mais aussi en économie ou en sociologie) pour valider leurs hypothèses interprétatives et éliminer les variables dues au hasard. Elle consiste à vérifier empiriquement, en comparant des groupes tests et des groupes témoins soumis aux mêmes épreuves dans des conditions différentes, si les indicateurs postulés par la théorisation sont pertinents et permettent de comprendre comment fonctionne le dispositif observé. Cette forme de recherche expérimentale est le décalque des modalités d’expérimentation mises au point par l’industrie pharmaceutique pour tester l’effet des molécules sur des groupes ciblés d’individus affectés de divers troubles ou maladies.

      Il n’est pas surprenant que les neurosciences fassent le pont entre les méthodologies du biomédical et celle de la psychologie cognitive. Leur processus de recherche est le suivant : dans un premier temps elles formulent des hypothèses sur le fonctionnement du cerveau apprenant en observant des individus isolés sous IRM fonctionnel soumis à des tâches. A ce stade, ces recherches se déroulent dans l’environnement de la recherche biomédicale qui utilise les mêmes appareillages et méthodes de retraitement des données. Dans un second temps, elles déduisent de ces hypothèses et paradigmes (qui font l’objet de vifs débats au sein des neuro-chercheurs, ne l’oublions pas !) des prescriptions didactiques qui feront l’objet de tests en classe pour mesurer leur efficacité grâce à des évaluations dûment randomisées. Ces tests pourront en retour servir à relancer les hypothèses initiales, et ainsi de suite. La cherté de ces recherches biomédicales randomisées, comparée à d’autres méthodes d’observation pratiquées en sciences sociales, produit un effet d’évitement constaté par nombre de chercheurs : pour financer une seule recherche « neuro », il faut ne pas financer de nombreuses autres recherches non « neuro » ! Le scientisme biomédical n’est pas seulement une philosophie, c’est aussi un outil politique de gestion de la recherche qui a une tendance à la domination et au monopole, à l’impérium comme je le dénonce dans mon livre.

      Je voudrais m’attarder, si vous me le permettez, sur ces tests de positionnements qui paraissent révélateurs de la politique « neuro-techno » menée par Blanquer. Ma question sera double : est-ce qu’avec ces tests de positionnement de Seconde où les élèves doivent répondre comme à des stimuli et non engager une véritable réflexion, on ne peut pas considérer qu’il s’agit pour les neurosciences à la manœuvre ici de faire des élèves des cobayes ?

      Enfin, et vous le suggérez avec force, n’y a-t-il pas instrumentalisation de la part des neuroscientifiques, et notamment de Dehaene, des élèves pour leur faire passer des tests ? N’expérimentent-ils pas sur les élèves des méthodes afin de financer leurs propres recherches et monnayer leurs résultats pour, par exemple, faire l’acquisition d’IRM et d’appareils d’imagerie médicale sophistiquée afin de continuer à cartographier le cerveau ?

      Comme je l’ai souligné plus haut, l’expérimentation randomisée est la principale méthode qui permet aux recherches de laboratoire en neurosciences de déboucher ensuite sur d’éventuelles applications en classe moyennant la passation de tests contrôlés. Dans les dispositifs d’observation sous IRM, les bébés ou les enfants sont effectivement pris comme des cobayes. Mais c’est peu ou prou le cas de tous les dispositifs de recherche en psychologie cognitive, qu’ils soient effectués en laboratoire ou en milieu ouvert contrôlé. Dans le cas des recherches « neuro », l’ équipement des sujets en capteurs pour enregistrer leurs données d’activité cérébrale renforce cette image dévalorisante du cobaye. Mais, en principe, il n’y a pas de maltraitance ! Sauf, de façon assez courante dans le biomédical semble-t-il, sur les données elles-mêmes et leur interprétation pour pouvoir publier au plus vite des articles dans les revues scientifiques faisant état de résultats tangibles et continuer à se faire financer (je renvoie au livre très documenté Malscience, de la fraude dans les labos de Nicolas Chevassus-au-Louis). Or un nombre significatif de ces articles contient des résultats non reproductibles ou douteux. Il n’est donc pas inutile de se défier de tous les arguments d’autorité du type « la littérature scientifique internationale a montré que… », « la recherche internationale a conclu que… », « la méta-analyse de x recherches a prouvé que… ». L’absence de recul critique sur les conditions de publication de la littérature scientifique favorise le rejet en bloc des travaux scientifiques, ce qui n’est pas souhaitable, car, dégagés des diverses instrumentalisations dont ils sont l’objet, ils sont la source d’apports précieux pour les débats sérieux qui font avancer les connaissances en éducation, à la condition expresse d’intégrer l’ensemble des disciplines de recherche aux méthodologies et points de vue très variés et d’être ouvert aux savoirs expérientiels des praticiens.

      S’agissant toujours enfin de ces tests de positionnement, Blanquer paraît les user pour une fois de plus remettre en cause le métier même d’enseignant. Automatisés, ces tests ne sont pas corrigés par les enseignants qui, parfois, ne les font même pas passer à leurs propres élèves. C’est le rôle même d’enseignant qui est nié purement et simplement, les résultats des tests ne pouvant par ailleurs servir le plus souvent à nourrir le cours ou construire une quelconque séquence d’enseignement. Est-ce que ces tests sont pour Blanquer une nouvelle manière à la fois de nier l’expertise professorale et reconduisent le vieux fantasme moderniste de substituer un micro-processeur au professeur ? Enfin, en quoi accentuer la place du français et surtout des mathématiques, via ces tests, relève, comme vous le mentionnez, du « populisme éducatif » de Blanquer ?

      Le « populisme éducatif » est un concept forgé par le chercheur Xavier Pons pour désigner le fait que « les gouvernants proposent un programme d’action publique qui flatte les attentes perçues de la population sans tenir compte des propositions, des arguments et des connaissances produites dans le cours de l’action par les corps intermédiaires ou les spécialistes du sujet » (voir notamment son interview aux Cahiers pédagogiques). Cela caractérise bien la façon de gouverner de Jean-Michel Blanquer qui n’a tenu aucun compte des rejets massifs de ces réformes par les instances de concertation au sein de l’Education nationale ni des nombreuses critiques ou oppositions des spécialistes, y compris parmi les neuroscientifiques ! Sa manœuvre a consisté à faire croire que les meilleurs experts étaient avec lui. Les membres du CSEN ont une responsabilité particulière dans cette instrumentalisation politique.

      Sur la question des tests de positionnement et des évaluations en général, il faut clairement distinguer trois types de tests. Le premier concerne ce que nous avons vu plus haut, à savoir ces tests dérivés des recherches de laboratoire et destinés à mesurer l’efficacité de dispositifs inspirés des paradigmes théoriques formulés dans les labos. On peut les qualifier de « scientifiques » puisqu’ils ont pour cadre des recherches institutionalisées, une théorisation au sein d’une communauté savante et des retombées applicatives.

      Le deuxième type concerne les évaluations en classe, sur des épreuves calibrées, d’un échantillon d’élèves représentatif d’une population globale afin d’obtenir une image d’ensemble du niveau des élèves, d’effectuer des comparaisons dans le temps et des typologies en fonction de données contextuelles caractérisant les élèves et les établissements. Le but de ce type d’évaluation n’est pas d’intervenir dans la scolarité des élèves en faisant un retour des résultats auprès des classes via les enseignants. C’est d’observer une réalité dans ses multiples composantes pour en obtenir une représentation experte. L’exemple le plus connu de ce type d’évaluation est PISA.

      Le troisième type concerne les évaluations nationales obligatoires telles qu’elles sont mises en place en France depuis 2018. Elles visent à situer chaque élève sur une échelle comparative en identifiant points forts et points faibles et à faire un retour vers l’enseignant pour qu’il adapte son enseignement aux difficultés identifiées de ses élèves, voire l’individualise. Mais n’est-ce pas ce que s’attache déjà à faire les enseignants ? Ces évaluations ont donc un objectif d’ordre pédagogique. Toutefois, la composition des épreuves n’est pas neutre et comporte des choix didactiques implicites qui obligent les enseignants à s’adapter à leurs réquisits au fil des passations. C’est ce que j’appelle le pilotage par l’aval des pratiques pédagogiques. C’est un premier effet caché par le CSEN et les promoteurs de ces évaluations qui ne l’évoquent jamais.

      Un autre biais dissimulé est l’évaluation des enseignants eux-mêmes. Il faut bien voir que les résultats anonymisés et centralisés donnent lieu à des compilations au plan national et local qui permettent d’évaluer les élèves, les classes, les enseignants, les établissements et d’établir des comparaisons voir des classements. Le ministre et le CSEN viennent de se glorifier de l’amélioration des performances de élèves de CP et de CE1 d’une année sur l’autre en utilisant les données compilées ! Ces évaluations ont donc un second objectif déguisé qui consiste à faire comme si l’ensemble des classes du pays d’un même niveau scolaire n’en formait qu’une, toute chose égale par ailleurs, et qu’on pouvait déduire de ces données une forme d’enseignement efficace universelle, valable dans tous les contextes, sans tenir compte des énormes disparités entre les écoles et les établissements, des effets délétères d’un système fortement ségrégatif.

      A mon sens, la stratégie ministérielle ne consiste pas pour l’instant à substituer des tests à de l’enseignement présentiel. Il vise deux choses. D’abord à faire en sorte que la culture du test s’installe dans le paysage scolaire à tous les niveaux possibles, que la réussite aux tests devienne l’objectif premier de l’enseignement, ce qui limite l’autonomie professionnelle des professeurs dont les référentiels traditionnels sont les programmes scolaires et la liberté pédagogique. De ces tests pourront aussi émaner des ressources labellisées substitutives aux manuels et ressources actuelles. L’autre objectif est de pouvoir plus tard confier cet enseignement reconditionné par le CSEN et les instances ministérielles sous la coupe directe du ministre à des personnels recrutés et formés autrement qu’actuellement, beaucoup moins autonomes, davantage isolés et dominés par une hiérarchie technocratique qui pourra évaluer quantitativement leur « mérite » en fonction des résultats aux tests et individualiser les rémunérations en conséquence. C’est une école aux mains des « technos » et des « neuros » qui se dessine, bien différente de l’école publique républicaine et de ses valeurs !

      https://diacritik.com/2019/11/13/philippe-champy-les-beaux-discours-de-blanquer-sur-la-confiance-ne-reussi

  • Jean-Michel Blanquer en président de l’Éducation nationale | AOC media - Analyse Opinion Critique
    https://aoc.media/opinion/2019/09/23/jean-michel-blanquer-en-president-de-leducation-nationale

    Depuis sa nomination, Jean-Michel Banquer a mis les neurosciences et le numérique au centre de sa politique de réforme. Mais au lieu d’y puiser des éléments de connaissances et des pratiques utiles aux enseignants, ces axes font l’objet d’une instrumentalisation technocratique visant à reformater un système jugé trop indépendant. La tradition républicaine de liberté pédagogique des enseignants, perçue comme une incitation à la désobéissance, se trouve frontalement contestée par ce processus de verticalisation au profit de celui qui se conduit de plus en plus en président de l’Éducation nationale.

    À constater l’alliance « technos + neuros » à l’œuvre sous Blanquer – aboutissement spectaculaire de tendances plus discrètes déjà anciennes –, on peut s’interroger pour savoir si l’École française a bien la République qu’elle mérite. Les hauts technocrates ont l’habitude d’aborder la question à l’envers en culpabilisant l’École qui ne serait pas conforme à leur vision de la République. Historiquement le « lire-écrire-compter », une antienne reprise par l’actuel ministre, n’est pas républicain. Il appartient à François Guizot et à la Monarchie de Juillet. Les fondateurs de la IIIe République en critiquèrent les limites en regard des besoins d’éducation des enfants et de la jeunesse. Avec notre Ve République et les derniers quinquennats qui se sont succédé, l’évolution néolibérale des hauts technocrates au sommet de l’exécutif a achevé sa mue. Ils sont désormais partout aux affaires, à l’extérieur comme à l’intérieur de l’État. Cette omnipotence explique qu’un Blanquer se conduise en président de l’Éducation nationale.

    #Education #Neurosciences #Scientisme #SHS #Numérique_éducatif

  • Comment la littérature change votre cerveau (et votre rapport aux autres)
    http://theconversation.com/comment-la-litterature-change-votre-cerveau-et-votre-rapport-aux-au

    Nos motivations à lire sont diverses. Nous lisons des fictions populaires pour nous distraire, des fictions littéraires pour l’esthétique de leurs tournures, des textes documentaires pour enrichir nos connaissances, qu’elles soient académiques ou techniques, ou des ouvrages de développement personnel, dans un but explicitement énoncé par leur désignation même…

    Il a toutefois été clairement démontré que la lecture procure des bienfaits considérables, en particulier sur la pensée, même si à ce titre, toutes les catégories d’ouvrages ne se valent pas. Retour sur quelques enseignements marquants des rares études existantes.
    Mieux « lire » les autres grâce à la littérature

    Le résultat le plus stupéfiant est celui obtenu par David Comer Kidd et Emanuele Castano, publié dans la prestigieuse revue Science en 2013, puis reproduit par une autre équipe en 2018.

    Kidd et Castano ont montré que le simple fait de lire un extrait d’une fiction littéraire (autrement dit, un ouvrage récompensé par un prix et/ou écrit par un auteur de référence, comme Patrick Modiano ou Jean‑Marie Gustave Le Clézio), permet d’obtenir par la suite de meilleures performances en « théorie de l’esprit » que le fait de lire un passage tiré d’une fiction populaire (tel qu’un ouvrage faisant partie des meilleures ventes).

    La théorie de l’esprit se définit comme la capacité à attribuer à autrui des pensées, des intentions, des émotions, et être ainsi à même de comprendre et de prédire le comportement des autres. Durant leurs travaux, Kidd et Castano ont évalué cette aptitude grâce au test d’interprétation du regard qui consiste à sélectionner le mot qui correspond à la pensée, à l’intention ou à l’émotion exprimée par le regard d’un individu.

    #Lecture #Empathie #Neurosciences

  • Peut-on vraiment apprendre en dormant ?
    http://www.internetactu.net/a-lire-ailleurs/peut-on-vraiment-apprendre-en-dormant

    Peut-on apprendre dans son sommeil ? C’est une vieille croyance qui n’a jamais été vérifiée et qui fleure bon la pseudoscience. Mais une récente étude nous laisse à penser qu’il y a peut-être un brin de vérité dans tout cela, même si l’effet reste très limité. Une équipe suisse a tenté (...)

    #A_lire_ailleurs #Recherches #neuroscience

  • Neurosciences : comment Blanquer veut entrer dans la tête de vos enfants (L’Obs)
    https://www.nouvelobs.com/education/20190121.OBS10418/neurosciences-comment-blanquer-veut-entrer-dans-la-tete-de-vos-enfants.ht

    Les évaluations de CP et CE1, dont la deuxième session démarre cette semaine, sont la partie visible d’une révolution qui n’ose pas dire son nom.

    La lecture de cet article au titre effrayant est édifiante. Quelques extraits, à mon sens, significatifs :

    1. Les neurosciences de Stanislas Dehaene, cette nouvelle phrénologie

    Ces images, ce sont celles de l’activité cérébrale de nos enfants : rouge vif quand les synapses s’affolent, bleu profond quand elles sont au repos. Elles nourrissent les travaux du chercheur sur les différentes régions du cortex dévolues aux apprentissages – « bosse des maths » ou « boîte aux lettres » de la lecture.

    La « bosse des maths » est une expression qu’on doit à la phrénologie, une pseudo-science du XIXème siècle qui associait capacités cognitives et formes du crâne (cf. https://fr.wikipedia.org/wiki/Phr%C3%A9nologie). « La Bosse des Maths » est d’ailleurs le titre d’un livre de Stanislas Dehaene qui semble revendiquer lui-même une forme de filiation (cf. https://www.odilejacob.fr/catalogue/sciences/mathematiques/bosse-des-maths_9782738125248.php).
    Stanislas Dehaene, psychologue cognitiviste et neuroscientifique, qualifié par ses détracteurs le « Raspoutine de Blanquer », est le Président du Conseil scientifique de l’Éducation nationale (https://fr.wikipedia.org/wiki/Conseil_scientifique_de_l%27%C3%89ducation_nationale).

    2. Une vision mécaniste des apprentissages

    Pour le scientifique, cela justifie d’adopter une méthode d’apprentissage explicite, répétitive et progressive : décoder des syllabes (ba, bo, bu), puis des pseudo-mots (tarba, rabata), puis des mots et des phrases entièrement décryptables – « la banane du bébé est belle ».

    3. Une idéologie et non une pédagogie

    Deux des membres du CSEN, Dehaene lui-même et le Marseillais Jo Ziegler développent des logiciels qui permettent aux élèves à besoin de s’entraîner « en fond de classe sans accaparer leurs enseignants ».

    Accaparer … tout est dit. Dehaene et Blanquer sont les meilleurs élèves du macronisme. Sous des propos consensuels ("aider les élèves les plus fragiles") et des argumentaires scientistes, il s’agit bien de construire une école efficace qui ne perd pas de temps avec les derniers de cordée à besoin .

    #éducation #neurosciences #apprentissage

    NB : L’article est sous #paywall, mais… on peut en retrouver l’intégralité dans la revue de presse (à la gloire) du Ministère qui gère moyennement le respect du droit d’auteur (ou de propriété ?), ici : https://www.ac-strasbourg.fr/fileadmin/public/Presse/Panorama_presse/Janvier_2019/Panoramanational_20190122.pdf

  • Technologies and Startups that Hack Brain
    https://hackernoon.com/technologies-and-startups-that-hack-brain-e51ea6983edb?source=rss----3a8

    Technologies and Startups that Hack the BrainWhat they do and how machine learning fits inCover of the Brazilian edition of ‘Neuromancer’‘…physics and #neuroscience are in some ways the most fundamental subjects: one is concerned with the external world out there, and the other with the internal world in our minds’.Demis Hassabis, a co-founder of DeepMind. FT.com***The development of technologies that study and affect the ‘internal world in our minds’ is fuelled by investment activity, among other things. In the summer of 2016, CB Insights, an investment database, published a review of 17 startups that boost the brain. In just two years, in June 2018, Neuronetics, the most well-funded #startup from the list, went public. Other companies from that list raised substantial investment rounds. For (...)

    #data-science #mindfulness #ai

  • #branding and the #brain: the #neuroscience behind consumer decision making
    https://hackernoon.com/branding-and-the-brain-the-neuroscience-behind-consumer-decision-making-

    Why performance #marketing isn’t enoughI recently spoke to a really smart group of performance marketers about the importance of brand marketing. This was a very analytical group, so I decided to attempt to reduce the fluffy reputation of brand marketing by talking about neuroscience and how the brain works when it comes to decision making.I started by showing the group a slide with the following logo pairings on them. As we went through each pairing one by one, I asked them to choose one, and I’d like you to do this too. Quickly. Don’t think about why, just choose one for each.(No more comments on this for now — we’ll come back to this later)Rational choice theory tells us that consumers are rational agents who make choices after considering all the available information, costs, benefits and (...)

    #brand-strategy

  • Le club des Têtes au Carré
    https://www.franceinter.fr/emissions/la-tete-au-carre/la-tete-au-carre-15-fevrier-2019

    Sébastien Bolher viendra nous expliquer pourquoi notre cerveau risque aujourd’hui de causer notre perte. Dans son essai, le #Bug_humain, publié chez Robert Laffont, il explique que les neurones en charge d’assurer notre survie ne sont jamais rassasiés et réclament toujours plus de nourriture, de sexe et de pouvoir. Ainsi, nous sommes 8 milliards d’êtres humains sur Terre à rechercher encore et toujours la croissance dans tous les domaines. Pour ce faire, notre espèce hyper-consommatrice surexploite la planète, modifie son écosystème... et se met gravement en péril. Comment se fait-il que, ayant conscience de ce danger, nous ne parvenions pas à réagir ? Peut-on résoudre ce bug et redevenir maîtres de notre destin ?

    Dans les tests abordés, les femmes sont plus aptes au partage.

    #collapsologie #neurosciences

  • Monkey Thinking
    https://hackernoon.com/monkey-thinking-7241e9db353e?source=rss----3a8144eabfe3---4

    Let’s begin with this music video…https://medium.com/media/0ea26cbdfe8f558064d2355d815c0aef/hrefWithout a doubt this is my favourite song and since hearing it first in late 2013, I’ve probably listened to it a few times each week since. It was during one of those weeks that I started working on a feature for a programming-project that heavily uses natural-language processing/understanding and it was during this song, that I asked myself:What’s the difference with how I hear this song and how the computer hears it?The key in answering this is to first consider how computers attempt to emulate our own physiological processes when we hear the opening line, “Have you got colour in your cheeks’…”. So, how do we hear that?When Matt Helders (the drummer in the Arctic Monkeys) starts with the (...)

    #monkey-thinking #engineering #computer-science #medicine #neuroscience

  • Hijacking A Thief’s Mind
    https://hackernoon.com/hijacking-a-thiefs-mind-123693e36ba9?source=rss----3a8144eabfe3---4

    Rooms By The Sea — Edward HopperEvery year summer melts the locals and tourists in Manly Corso into a thick paste of thirsty beachgoers. As you sludge away from the beach and to the crowded vendors, its consistency is unremarkable — a blur of unforgiving pedestrian-traffic and a creeping haze of sweat and vaporising sunscreen. As repetition begins to define itself at the beginning of November, the workers that hold up the sides of Manly Corso descend into homogeneity. A cycle of demand fastens till it reaches constant velocity.As the arena for predictability rises, the workers let down their own guards as they take their seats for the Summer rush. No one wants to stand and get in someone’s way.Which is what a thief wants: consistency.“‘Be yourself’ is about the worst advice you can give some (...)

    #programming #thiefs-mind #medicine #machine-learning #neuroscience

  • Your Brain At Work”.
    https://hackernoon.com/your-brain-at-work-c319be34f30e?source=rss----3a8144eabfe3---4

    This is what happens to your brain at workI recently read “Your Brain At Work” by David Rock. Many of my friends were interested in the findings of this work as it dives into what happens to your brain when you’re at work and applicable to the masses. I decided to put together a list of the top 16 takeaways that might be helpful as you navigate the complexities of managing your brain at work.When you have competing things going on, write them all down, and prioritize them. Work on the hardest problems first. New concepts take up more space. When trying to decide between options, the optimal number of items to compare is two. Memory degrades when you try to hold more than one idea in your mind.Peak performance requires just the right level of stress. Peak performance occurs when you have (...)

    #science #productivity #marketing #neuroscience #product-design

  • Peut-on apprendre de l’histoire ?
    http://www.internetactu.net/2018/11/06/peut-on-apprendre-de-lhistoire

    « Ceux qui ne peuvent se rappeler l’histoire sont condamnés à la répéter ». Cette fameuse phrase du philosophe George Santayana est devenu un dicton de la sagesse populaire. Mais est-ce vrai ? Il nous faudrait tout d’abord vraiment comprendre les événements historiques. Or il se pourrait bien que la vérité de ceux-ci (...)

    #Articles #histoire #neuroscience

  • Les pouvoirs et limites de la neuroplasticité (2/2) : voyage au pays de l’amélioration cognitive
    http://www.internetactu.net/2018/10/15/les-pouvoirs-et-limites-de-la-neuroplasticite-22-voyage-au-pays-de-lam

    Caroline Williams (@ScienceCaroline) est une journaliste scientifique, qui a notamment travaillé au New Scientist.Elle s’est demandé comment « améliorer son cerveau ». Par chance, elle était bien connectée. Plutôt que tenter de « hacker son esprit » chez elle en se basant sur les exercices et les techniques disponibles sur le marché, elle nous (...)

    #Articles #Usages #cognition #neuroscience

  • Les pouvoirs et limites de la neuroplasticité (1/2) : efficace, mais jusqu’où ?
    http://www.internetactu.net/2018/10/09/les-pouvoirs-et-limites-de-la-neuroplasticite-12-efficace-mais-jusquou

    Jusqu’où le cerveau peut-il changer ? Avons-nous des limites à notre développement mental ? Ou pouvons-nous indéfiniment nous « augmenter » à l’aide d’exercices cognitifs, de produits chimiques, de stimulation magnétique ou électrique ? Jusqu’à il n’y pas très longtemps, la messe semblait dite ; le cerveau, apprenait-on, ne crée pas de nouveaux neurones. Il existe (...)

    #Articles #Recherches #cognition #neuroscience #vieillissement

  • Nouvelles évaluations : l’enfant chargé de chiffres (Stella Baruk, Le Club de Mediapart)
    https://blogs.mediapart.fr/stella-baruk/blog/280918/nouvelles-evaluations-l-enfant-charge-de-chiffres

    Ce que ces évaluations semblent laisser prévoir, c’est qu’avec les meilleures intentions du monde, le petit sujet connaissant qui entre en classe aujourd’hui a toute chance d’être regardé par l’institution scolaire comme un « sujet neurocognitif » qui, plutôt qu’un apprentissage, subira un entraînement, sur le mode sportif de la recherche de performance.
    […]
    L’engouement actuel autour du cerveau semble faire monter à la tête de nombre de neuroscientifiques un sentiment de puissance démesuré. Qui pourra jamais rendre compte de « toutes les dimensions cognitives » d’un enfant, de leur infinies combinatoire et métamorphoses présentes et à venir ?
    […]
    Deux questions de fond apparaissent alors.
    Celle de la pratique de QCM pour de jeunes enfants. Faut-il avoir recours aux « sciences cognitives » pour comprendre que ‘choisir’ une réponse n’a rien d’équivalent à en proposer une de son cru ? Au lieu de solliciter l’attention d’un enfant face à une tâche précise, on la détourne en multipliant de supposées tentations, la diminuant d’autant.
    Celle d’une culture de la vitesse, du rendement. Rapidement, la fatigue face à des pages noires de signes, et le stress dû à la nécessité d’aller vite, éprouveront nombre d’élèves qu’on supposera alors ‘fragiles’.

    #éducation #évaluations #neurosciences #défaite_de_la_pédagogie

  • Neurocapitalism | openDemocracy
    https://www.opendemocracy.net/ewa-hess-hennric-jokeit/neurocapitalism

    There is good reason to assert the existence, or at least the emergence, of a new type of capitalism: neurocapitalism. After all, the capitalist economy, as the foundation of modern liberal societies, has shown itself to be not only exceptionally adaptable and crisis-resistant, but also, in every phase of its dominance, capable of producing the scientific and technological wherewithal to analyse and mitigate the self-generated “malfunctioning” to which its constituent subjects are prone. In doing so – and this too is one of capitalism’s algorithms – it involves them in the inexorably effective cycle of supply and demand.

    Just as globalisation is a consequence of optimising the means of production and paths of communication (as Karl Marx and Friedrich Engels predicted), so the brain, as the command centre of the modern human being, finally appears to be within reach of the humanities, a field closely associated with capitalism. It may seem uncanny just how closely the narrow path to scientific supremacy over the brain runs to the broad highway along which capitalism has been speeding for over 150 years. The relationship remains dynamic, yet what links capitalism with neuroscience is not so much strict regulation as a complex syndrome of systemic flaws.

    At this point, if not before, the unequal duo of capitalism and neuroscience was joined by a third partner. From now on, the blossoming pharmaceutical industry was to function as a kind of transmission belt connecting the two wheels and making them turn faster. In the first half of the twentieth century, mental disorders were treated mainly with sedative barbiturates, electric shock therapy and psychosurgery. But by the 1930s, neuro-psychopharmacology was already winning the day, as Freud had predicted it would.

    Is it a paradox, or one of those things that are so obvious they remain unobserved, that the success of Freud’s psychoanalysis and that of modern neuroscience are based on similar premises? Psychoanalysis was successful because it wove together medically relevant disciplines like psychiatry and psychology with art, culture, education, economics and politics, allowing it to penetrate important areas of social life. At the beginning of the twenty-first century, the neurosciences seem to be in a position to take on a comparable role in the future.

    The ten top-selling psychotropic substances in the USA include anti-depressants, neuroleptics (antipsychotics), stimulants and drugs for treating dementia. In 2007 one hundred million prescriptions were issued for these drugs with sales worth more than sixteen billion dollars. These figures illustrate how, in an environment that is regulated but difficult to control, supply and subjectively perceived need can create a market turning over billions of dollars. What is more, it is a market that is likely to expand into those areas in which a performance-driven society confronts the post-postmodern self with its own shortcomings: in others words in schools and further education, at work, in relationships, and in old age. Among the best-selling neuro-psychotropic drugs are those that modulate the way people experience emotions and those that improve their capacity to pay attention and to concentrate, in most cases regardless of whether there is a clinically definable impairment of these functions.

    openDemocracy
    About
    NorthAfricaWestAsia
    openGlobalRights
    Human rights and the internet
    CanEuropeMakeIt?
    BeyondSlavery
    oDR
    oD-UK
    oD 50.50
    democraciaAbierta
    Shine A Light
    Transformation
    More

    Neurocapitalism
    Ewa Hess and Hennric Jokeit 3 March 2010
    Despite the immense costs for healthcare systems, the fear of depression, dementia and attention deficit disorder legitimises the boom in neuro-psychotropic drugs. In a performance-driven society that confronts the self with its own shortcomings, neuroscience serves an expanding market

    Today, the phenomenology of the mind is stepping indignantly aside for a host of hyphenated disciplines such as neuro-anthropology, neuro-pedagogy, neuro-theology, neuro-aesthetics and neuro-economics. Their self-assurance reveals the neurosciences’ usurpatory tendency to become not only the humanities of science, but the leading science of the twenty-first century. The legitimacy, impetus and promise of this claim derive from the maxim that all human behaviour is determined by the laws governing neuronal activity and the way it is organised in the brain.

    Whether or not one accepts the universal validity of this maxim, it is fair to assume that a science that aggressively seeks to establish hermeneutic supremacy will change everyday capitalist reality via its discoveries and products. Or, to put it more cautiously, that its triumph is legitimated, if not enabled, by a significant shift in the capitalist world order.

    There is good reason to assert the existence, or at least the emergence, of a new type of capitalism: neurocapitalism. After all, the capitalist economy, as the foundation of modern liberal societies, has shown itself to be not only exceptionally adaptable and crisis-resistant, but also, in every phase of its dominance, capable of producing the scientific and technological wherewithal to analyse and mitigate the self-generated “malfunctioning” to which its constituent subjects are prone. In doing so – and this too is one of capitalism’s algorithms – it involves them in the inexorably effective cycle of supply and demand.

    Just as globalisation is a consequence of optimising the means of production and paths of communication (as Karl Marx and Friedrich Engels predicted), so the brain, as the command centre of the modern human being, finally appears to be within reach of the humanities, a field closely associated with capitalism. It may seem uncanny just how closely the narrow path to scientific supremacy over the brain runs to the broad highway along which capitalism has been speeding for over 150 years. The relationship remains dynamic, yet what links capitalism with neuroscience is not so much strict regulation as a complex syndrome of systemic flaws.

    Repressive late nineteenth-century capitalism, with its exploitative moral dictates, proscriptions and social injustices, was a breeding ground for the neurosis diagnosed by scientists in the early twentieth century as a spiritual epidemic. This mysterious scourge of the bourgeoisie, a class which according to Marx, “through the rapid improvement of all instruments of production [...] draws all, even the most barbarian nations, into civilisation”, expressed the silent rebellion of the abused creature in human beings. It was, in other words, the expression of resistance – as defiant as it was futile – of people’s inner “barbarian nation” to forceful modernisation and civilisation.

    To introduce here the inventor of psychoanalysis and neurosis researcher Sigmund Freud as the first neurocapitalist practitioner and thinker might be thought to be overstepping the mark. Yet people tend to forget that Freud was a neuro-anatomist and neurologist by training, and saw himself primarily as a neuroscientist. What distinguished him from his colleagues was that he was more aware of the limitations of the methods available for studying the brain at the end of the nineteenth century. Having identified neurosis as an acquired pathology of the nervous system for which there was no known treatment or way to localise, he decided instead to take an indirect route. The means he invented in order both to research and to cure this mysterious illness was psychoanalysis. Fellow researchers like Oskar Vogt, who continued to search for the key to psychopathology and genius in the anatomy of the brain, were doomed to fail. From then on, psychology served the requirements of everyday life in a constantly changing capitalist reality. As a method based on communication, psychoanalysis penetrated all spheres of social interaction, from the intimate and private to the economic and cultural. In doing so, it created new markets: a repair market for mental illness and a coaching market for those seeking to optimise capitalist production and reproduction.

    Delayed by the Second World War, the repressive capitalism of the nineteenth century was eventually replaced by libertarian, affluent capitalism. Conformity, discipline and feelings of guilt – the symptoms of failure to cope with a system of moral dictates and proscriptions – gave way to the new imperative of self-realisation. The psychic ideal of the successful individual was characterised by dynamically renewable readiness for self-expansion, which for the subject meant having a capacity for self-motivation that could be activated at any time and that was immune to frustration. Failure now meant not being able to exhaust the full potential of one’s options. This development brought a diametric change in the character of mental illness. Neurosis, a disorder born of guilt, powerlessness and lack of discipline, lost its significance. Attention shifted to the self’s failure to realise itself. Depression, the syndrome described by Alain Ehrenberg in The Weariness of the Self: Diagnosing the History of Depression in the Contemporary Age, began its triumphal march.

    Depression, however, was also the first widespread mental illness for which modern neuroscience promptly found a remedy. Depression and anxiety were located in the gaps between the synapses, which is precisely where they were treated. Where previously there had only been reflexive psychotherapy, an interface had now been identified where suffering induced by the self and the world could now be alleviated directly and pre-reflexively.

    At this point, if not before, the unequal duo of capitalism and neuroscience was joined by a third partner. From now on, the blossoming pharmaceutical industry was to function as a kind of transmission belt connecting the two wheels and making them turn faster. In the first half of the twentieth century, mental disorders were treated mainly with sedative barbiturates, electric shock therapy and psychosurgery. But by the 1930s, neuro-psychopharmacology was already winning the day, as Freud had predicted it would.

    Is it a paradox, or one of those things that are so obvious they remain unobserved, that the success of Freud’s psychoanalysis and that of modern neuroscience are based on similar premises? Psychoanalysis was successful because it wove together medically relevant disciplines like psychiatry and psychology with art, culture, education, economics and politics, allowing it to penetrate important areas of social life. At the beginning of the twenty-first century, the neurosciences seem to be in a position to take on a comparable role in the future.

    What cannot be overlooked is that the methodological anchoring of the neurosciences in pure science, combined with the ethical legitimacy ascribed to them as a branch of medicine, gives them a privileged position similar to that enjoyed by psychoanalysis in the early twentieth century. Unlike the latter, however, the neurosciences are extremely well funded by the state and even more so by private investment from the pharmaceutical industry. Their prominent status can be explained both by the number and significance of the problems they are attempting to solve, as well as the broad public recognition of these problems, and by the respectable profits to be made should they succeed. In other words, they are driven by economic and epistemic forces that emanate from the capitalism of today, and that will shape the capitalism of tomorrow – whatever that might look like.
    II

    In Germany, the USA and many western European countries, it is neither painkillers nor cardiovascular drugs that now put the greatest strain on health budgets, but rather neuro-psychotropic drugs. The huge market for this group of drugs will grow rapidly as life expectancy continues to rise, since age is the biggest risk factor for neurological and psychiatric illness. All over the world, whole armies of neuroscientists are engaged in research in universities, in projects often funded by the pharmaceuticals industry, and to an even greater extent in the industry’s own facilities, to find more effective and more profitable drugs to bring onto the market. The engine driving the huge advances being made in the neurosciences is capital, while the market seems both to unleash and to constrain the potential of this development.

    Depression, anxiety or attention deficit disorders are now regarded by researchers and clinical practitioners alike as products of neuro-chemical dysregulation in interconnected systems of neurotransmitters. They are therefore treated with substances that intervene either directly or indirectly in the regulation of neurotransmitters. Given that the body’s neuro-chemical systems are highly sensitive and inter-reactive, the art of successful treatment resides in a process of fine-tuning. New and more expensive drugs are able to do this increasingly effectively and selectively, thus reducing undesirable side effects. Despite the immense costs for healthcare systems, the high incidence of mental disorders and the fear of anxiety, depression and dementia make the development of ever better neuro-psychotropic drugs desirable and legitimate.

    However, the development and approval of drugs designed to alleviate the symptoms of mental disorders also open the gates to substances that can be used to deliberately alter non-pathological brain functions or mental states. The rigid ethical conventions in the USA and the European Union – today the most profitable markets for neuro-psychotropic drugs – mean that drug development, whether funded by the state or by the pharmaceuticals industry, is strictly geared towards the prevention and treatment of illness. Few pharmaceutical companies are therefore willing to make public their interest in studying and developing substances designed to increase the cognitive performance or psychological wellbeing of healthy people. The reason is simple: there is no legal market for these so-called “neuro-enhancers”. Taking such drugs to perform better in examinations, for example, is a punishable offence in the USA. Yet sales figures for certain neuro-psychotropic drugs are considerably higher than the incidence of the illnesses for which they are indicated would lead one to expect. This apparent paradox applies above all to neuropsychotropic drugs that have neuro-enhancement properties. The most likely explanation is that neuro-enhancers are currently undergoing millions of self-trials, including in universities – albeit probably not in their laboratories.

    The ten top-selling psychotropic substances in the USA include anti-depressants, neuroleptics (antipsychotics), stimulants and drugs for treating dementia. In 2007 one hundred million prescriptions were issued for these drugs with sales worth more than sixteen billion dollars. These figures illustrate how, in an environment that is regulated but difficult to control, supply and subjectively perceived need can create a market turning over billions of dollars. What is more, it is a market that is likely to expand into those areas in which a performance-driven society confronts the post-postmodern self with its own shortcomings: in others words in schools and further education, at work, in relationships, and in old age. Among the best-selling neuro-psychotropic drugs are those that modulate the way people experience emotions and those that improve their capacity to pay attention and to concentrate, in most cases regardless of whether there is a clinically definable impairment of these functions.

    Attempts to offset naturally occurring, non-pathological deviations from the norm are referred to as “compensatory” or “moderate enhancement” – in the same way that glasses are worn to correct the eyes’ decreasing ability to focus. The term describes a gradual improvement in function to a degree that is still physiologically natural. By contrast, “progressive” or “radical enhancement” denotes a qualitative improvement in function that exceeds natural boundaries. To return to the optical metaphor, we could say that the difference between these forms of performance enhancement is like that between wearing spectacles and night-vision glasses.

    In all ages and cultures, producers and purveyors of drugs and potions purported to enhance the individual’s cognitive state have been able to do a tidy trade, as the many references to magic potions and fountains of youth in literature and the fine arts testify. Nowadays, one substance with this kind of mythical status is ginkgo. Billions of dollars worth of ginkgo-biloba preparations are sold in the USA every year; and if ginkgo really did have any significant effect on cognition or memory, it would be a classic case of the widespread, unchecked use of a compensatory neuro-enhancer. As it is, however, the myth and commercial success of ginkgo are more a testament to the perhaps universal human need for a better attention span, memory and mental powers, and to the willingness to pay good money to preserve and enhance them.

    For the attainment of happiness as the aim of a good life, Aristotle recommended cultivating a virtuous mind and virtuous character. This is precisely what some neuro-psychotropic drugs are designed to do. The virtues of the mind are generally understood to be instrumental traits like memory and attention span. The extent to which these traits are innate or acquired varies from person to person. After adolescence, their efficiency gradually goes into decline at individually varying rates. Inequality and the threat of loss are strong motivations for action. The current consensus on the ethics of neuro-enhancement seems to be that as long as the fundamental medical principles of self-determination, non-harm (nil nocere) and benefit (salus aegroti) are adhered to, rejecting pharmacological intervention in the instrumental traits of the brain would be at odds with a liberal understanding of democracy.

    A more complex ethical problem would seem to be the improvement of so-called character virtues, which we shall refer to here as socio-affective traits. Unlike instrumental traits such as attention span and memory, traits like temperament, self-confidence, trust, willingness to take risks, authenticity and so on are considered to be crucial to the personality. Pharmacological intervention that alters these traits therefore affects a person’s psychological integrity. While such interventions may facilitate and accelerate self-discovery and self-realisation (see the large body of literature on experience with Prozac, e.g. Peter D. Kramer, Listening to Prozac: Psychiatrist Explores Antidepressant Drugs and the Remaking of the Self , they may also do the exact opposite. We will never be able to predict with any certainty how altering instrumental and socio-affective traits will ultimately affect the reflexively structured human personality as a whole. Today’s tacit assumption that neuro-psychotropic interventions are reversible is leading individuals to experiment on themselves. Yet even if certain mental states are indeed reversible, the memory of them may not be.

    The barriers to neuro-enhancement actually fell some time ago, albeit in ways that for a long time went unnoticed. Jet-lag-free short breaks to Bali, working for global companies with a twenty-four hour information flow from headquarters in Tokyo, Brussels and San Francisco, exams and assessments, medical emergency services – in all of these situations it has become routine for people with no medical knowledge to use chemical substances to influence their ability to pay attention. The technologies that have sped up our lives in the era of globalisation – the Internet, mobile phones, aeroplanes – are already a daily reality for large numbers of people and are interfering with their biologically and culturally determined cycles of activity and rest.

    That is not to say that the popularisation of these findings has had no effect at all. Reconceptualising joy as dopamine activity in the brain’s reward centres, melancholy as serotonin deficiency, attention as the noradrenalin-induced modulation of stimulus-processing, and, not least, love as a consequence of the secretion of centrally acting bonding hormones, changes not only our perspective on emotional and mental states, but also our subjective experience of self. That does not mean that we experience the physiological side of feelings like love or guilt any differently, but it does make us think about them differently. This, in turn, changes the way we perceive, interpret and order them, and hence the effect they have on our behaviour. By viewing emotions in general terms rather than as singular events taking place in a unique temporal and spatial context, the neurosciences have created a rational justification for trying to influence them in ways other than by individual and mutual care.

    The possibility of pharmacological intervention thus expands the subjective autonomy of people to act in their own best interests or to their own detriment. This in turn is accompanied by a new form of self-reflection, which encompasses both structural images of the brain and the ability to imagine the neuro-chemical activity that goes on there. What is alarming is that many of the neuroscientific findings that have triggered a transformation in our perception of ourselves are linked with commercial interests.

    It is already clear that global capitalism will make excessive demands on our material, and even more so on our human-mental resources. This is evident from the oft-used term “information society”, since information can only function as a commodity if it changes human behaviour, and it can only do this if we accord it our attention and engage with it emotionally.

    #Neurocapitalisme #Neurosciences

  • Crise au sein du projet européen sur le cerveau coordonné par l’EPFL Lucia Sillig/oang - 21 Aout 2018 - RTS

    http://www.rts.ch/info/sciences-tech/medecine/9789362-crise-au-sein-du-projet-europeen-sur-le-cerveau-coordonne-par-l-epfl.htm

    Le directeur exécutif du Human Brain Project, le vaste projet européen de recherche sur le cerveau, démissionne. La décision de Chris Ebell est liée à des divergences de point de vue avec l’EPFL.
    Le scientifique avait été nommé à la tête du Human Brain Project (HBP) en 2015, après une précédente crise de gouvernance au sein de ce projet visant à simuler le cerveau humain par ordinateur et doté d’un milliard d’euros sur dix ans. Sa démission a été annoncée via un communiqué de quelques lignes sur le site du HBP. https://www.humanbrainproject.eu/en/follow-hbp/news/information-concerning-the-human-brain-projects-coordination-offic

    Chris Ebell et l’EPFL disent se séparer d’un commun accord, à la suite d’un changement de leadership universitaire - vraisemblablement le changement de direction à la tête de l’EPFL - et compte tenu de divergences d’opinion sur la gouvernance et sur les orientations stratégiques du projet.

    L’intérim sera assuré par l’actuel vice-directeur Christian Fauteux. L’EPFL se refuse à tout commentaire supplémentaire.

    De précédentes turbulences
    Gigantesque projet de recherche scientifique, le Human Brain Project réunit une centaine d’universités, avec l’EPFL comme institution de coordination. Il a déjà vécu diverses turbulences avec notamment le déménagement d’une grosse partie du projet de Lausanne à Genève en 2014. Son installation sur le Campus Biotech avait fait grincer quelques dents.

    La même année, des centaines de scientifiques avaient signé une lettre ouverte pour dénoncer une structure trop compliquée, trop centralisée et pas assez transparente. Ils reprochaient aussi à la direction de trop se concentrer sur le volet informatique et de négliger les neurosciences.

    Après un processus de médiation, le comité directeur de trois personnes avait été dissous. Il avait été remplacé par un conseil de 22 personnes, dirigé par Chris Ebell.

    Intérêt scientifique incertain
    Sur le plan purement scientifique, il est encore difficile de dire aujourd’hui si HBP tient ses promesses. Les intérêts en jeu sont nombreux et les avis très tranchés. Une partie de la communauté scientifique estime que c’est un gros soufflé qui va finir par retomber, tandis que d’autres y croient dur comme fer.

    Pour l’instant, les chercheurs ont réussi à simuler une partie du cerveau d’un rat - un échantillon de 30’000 neurones. Or c’est un cerveau humain, avec ses 87 milliards de neurones, qu’ils ambitionnent de mettre en boîte d’ici à 2024. Le pari est immense.

    #Human_Brain_Project #cerveau #recherche #neurosciences #brain #transhumanisme #intelligence_artificielle

  • How #marketing Meets #neuroscience and What It Has to Do With Your #ico
    https://hackernoon.com/how-marketing-meets-neuroscience-and-what-it-has-to-do-with-your-ico-1d0

    Wait, you said marketing and neuroscience?Exactly, and the result of such a collision is called neuromarketing (admittedly the name is rather less imaginative than the concept). The field started to develop in the 1990s and took off quite quickly, as it didn’t take big corporations long to see its substantial benefits. What the research primarily focuses on is the brain’s response to various marketing stimuli. Therefore, the main goals of neuromarketing are to figure out how customers make their purchasing decisions and how to make various tools used for promoting goods and services more effective.And how does it work?In a nutshell, the human brain can be divided into three parts: the neocortex, the most recently developed part responsible for conscious thoughts, language, and spatial (...)

    #neuroscience-ico #ico-marketing