[Se repenser à l’heure du prêt-à-penser] Quand Le Monde, Facebook et Google partent en croisade…

/se-repenser-%C3%A0-lheure-du-pr%C3%AAt-

  • Quand Le Monde, Facebook et Google partent en croisade contre la post-vérité
    https://medium.com/@sly/se-repenser-%C3%A0-lheure-du-pr%C3%AAt-%C3%A0-penser-quand-le-monde-facebook

    Pas mal de choses intéressantes dans ce billet d’un prof de communication et responsable de la communauté numérique de l’université Lyon 2.

    Premier point notable : le procédé se place au niveau de la source (du média) et non du contenu (de l’article) ou de l’auteur (du journaliste).
    (…) Deuxième point : malgré les apparences, le classement en 5 classes n’est pas véritablement un système d’échelle (du plus ou moins fiable), mais cache une classification en fait assez binaire, incarnée par un système de whitelist / blacklist, avec une classe intermédiaire pour les bordelines, une classe pour les inclassables et une classe pour les médias satiriques. (…)

    Problème : (…) on ne sait pas grand chose sur la méthodologie : quelles sont les personnes qui participent à la classification, sous quelle forme (individuelle, participative, “démocratique”), avec quelle grille de critères ?

    Noter le média plutôt que le contenu, un mode de préservation de statut :

    Le système du décodex fonctionne en fait sur le modèle traditionnel médiatique : c’est la sélection et la curation réalisées par les humains ( des journalistes ?) qui cadrent le corpus médiatique légitime, non plus à l’échelle du contenu (agenda-setting), mais ici à l’échelle du média : on pourra donc parler de media-setting.

    Paradoxalement, on retrouve derrière ce modèle qui dit évaluer par les faits (fact-checking) un modèle traditionnel de gatekeeping basé sur l’autorité, celles de journalistes, et du coup de leur opinions (ce qui n’est pas grave en soi, mais qui est toujours gênant quand le procédé se réclame d’un modèle opposé).

    Au fond, cela n’est pas tellement étonnant : Le Monde reste ici dans un modèle médiatique pré-digital, à l’opposé des processus d’accessibilité à l’information des plateformes sociales (facebook, twitter) qui, couplées avec des algorithmes, fonctionnent sur l’input des utilisateurs (mon propos ici a valeur de constat et non de jugement).

    Pour aller plus loin, on peut même se demander si Le Monde, perdant son statut de média de référence avec les bouleversements induits par le digital, ne trouve pas avec cette initiative un ultime sursaut de restaurer ce statut, non plus via sa ligne éditoriale mais en s’auto-imposant légitime dans un rôle d’évaluateur et d’accréditeur des médias, c’est à dire en se plaçant “au dessus” des autres médias.

    Du fact-checking à l’argument d’autorité :

    Parce qu’il est toujours possible d’opposer des faits à d’autres, surtout lorsque des liens de causalité rentrent en ligne de compte, le fact-checking utilise l’argument d’autorité pour contourner cette subjectivité et parvenir au bout du processus : classer les média, et donc finalement créditer ou discréditer, qualifier ou disqualifier (…)

    Par contre, et c’est là un terrain de jeu majeur du fact-checking, l’exercice de rattacher l’auteur d’une idée ou d’un propos à une autorité prend tout son sens.

    Au plus cette autorité est au centre de la sphère consensuelle, au plus son auteur sera facilement crédité. Au plus elle s’écartera de celle-ci au plus elle sera discrédité.

    Les fake news, une radicalisation sémantique :

    Il est intéressant de constater une radicalisation sémantique dans le champ lexical médiatique : le nom rumeur, qui décrit le mode de propagation d’une information plus que la qualification de l’information, a laissé place à des concepts tels que fake news ou post-vérité, qui disqualifient en formant et en enfermant une catégorie de contenus bannis.

    Sur la question de la vérité, la définition de la rumeur offre la possibilité d’un doute (“véracité douteuse”) là ou le concept de fake news repose sur une approche binaire (vrai / faux) et excluante.

    Et plein d’autres choses intéressantes, notamment sur Wikipedia que l’auteur semble bien connaître.

    #Decodex #fake_news

    • A l’époque de l’affaire google, notamment chez Calimaq Silex, les chiffres concernant le mode d’accès aux articles et aux médias démontraient que les plateformes loin d’être des prescripteurs étaient la principale porte d’entrée sur les médias écrit. Supprimez cette entrée et c’est tout un pan de l’information qui disparait.
      Information unique, pensée unique.
      C’est à mon avis les sens du Decodex qui couplé aux Gafa va filtrer et faire disparaitre. Plus que de sphère consensuelle, je parlerai de sphère officielle et la coupure à un accès à toute information dissonante.
      On peut toujours parler sémantique et préservation de position mais il me semble que c’est rester loin de l’enjeu de démocratie que représente le decodex.

    • @unagi : tout à fait, on pourrait aussi parler du lien entre les prescripteurs du Decodex (et autres outils de certification, le Decodex n’étant qu’une expression d’un mouvement plus global dans la presse) et le mouvement de concentration verticale dans les médias numérique, entre fournisseurs d’accès et fournisseurs de contenus. Mais ça reste pour l’heure hypothétique et sans application concrète.

    • Premier point notable : le procédé se place au niveau de la source (du média) et non du contenu (de l’article) ou de l’auteur (du journaliste).

      En effet, réflexion aussi fondamentale. On peut potentiellement trouver partout (y compris dans le Monde...)des articles et des approches et des auteur·es dans lesquelles on pourrait faire confiance. Des articles intéressant aux côtés de grosses bouses. Mais on ne sait pas comment sont édités ces textes, et on sait que dans des journaux comme le Monde, le Diplo, le Figaro, Libé, le passage à l’édition (voire la censure souvent), ce travail éditorial est « profond ». Nous en avons de multiples exemples, plus d’un·e auteur·e ou actrices.eur d’articles se sont arrachés les yeux en lisant l’article qu’elles·ils avaient commis ou dont ils étaient les héros légèrement déshonoré (poke à ma copine Méta qui aurait bien lancé une salve de scud sur le Monde l’année dernière depuis le Bronx où elle habite). L’immense perte de confiance dans cette presse finalement toujours papier, elle est là aussi et surtout. Pas seulement dans les compromissions politiques et économiques.

      Mais si ce que ce prof écrit se révèle être exact - je veux dire le processus réel en cours et les intentions derrière Decodex, ce serait donc bien pire que tout ce que nous en avons pensé jusqu’ici. J’espère toujours, pour l’instant, que #Decodex n’est un énorme bug destiné à être éradiqué au plus vite.

      L’article est très intéressant, et amène un éclairage un peu nouveau sur cette affaire minable.

    • @reka : pour rendre justice aux éditeurs et éditrices (SR dans la presse, ou dans une certaine mesure modérateurs et modératrices dans les sites Mutu, j’imagine qu’il y en a ailleurs aussi), leur travail associé à celui des correcteur·rices permet 99% du temps d’éviter des erreurs et de rendre bien plus lisibles les articles.

      Cela dit, la circulation de la copie dans un quotidien est particulière. D’une part, sa rapidité est propice à toutes les approximations, simplifications voire décisions arbitraires des rédacs chef·fes. D’autre part, l’auteur·e ne le revoit pas avant parution, à la différence d’hebdos ou mensuels.

    • Très instructif. J’ajoute modestement au débat cette idée qui me trotte dans la tête depuis quelques jours : le phénomène auquel s’attaquent les initiateurs du Décodex, n’est pas fondamentalement la multiplication des fake news, mais le fait que les gens aillent sur des sites alternatifs s’informer. Cette attirance des internautes pour des informations dissonantes, alternatives, s’explique par la confiance très modérée qu’ils placent dans les média officiels (ce que les études d’opinion démontrent année après année). La stratégie des média mainstream consistant à tenter de discréditer les média alternatifs en les évaluant est voué à l’échec, précisément parce que la confiance en leur jugement est faible dans l’opinion . Ce qui pourrait sauver ces média consisterait à s’interroger sur ce qui fait qu’on ne les croit plus, et sur les manières dont ils pourraient modifier leurs pratiques de travail pour regagner la confiance du public. Mais de ça, il n’est jamais question.

    • Ça pique un peu les yeux de lire pragmatisme pour google et facebook et bonnes intentions pour le decodex alors que c’est une belle saloperie.

      Dans son manifeste récent Mark Zuckerberg mettait en valeur sa vision d’une colonie mondiale centralisée dont les règles seraient dictées par l’oligarchie de la Silicon Valley. https://seenthis.net/messages/571702

      Recension du livre de Eric Schmidt PDG de google par piece et main d’oeuvre :

      Le 4e Reich sera cybernétique : : Pièces et Main d’Oeuvre
      http://www.piecesetmaindoeuvre.com/spip.php?page=resume&id_article=439

      The New Digital Age. Reshaping the Future of People, Nations and Business » (« Le Nouvel Âge digital. Refaçonner le futur des peuples, des nations et des affaires ») Il faut prendre les auteurs au sérieux. Eric Schmidt, PDG de Google, et Jared Cohen, directeur de Google Ideas, sont des technarques. D’éminents représentants de cette technocratie qui gouverne notre présent et planifie notre avenir. C’est-à-dire qu’ils ont les moyens de réaliser leurs plans. Google, vous savez, l’entreprise partenaire de l’Etat américain et de la NSA (National Security Agency) dans le programme Prism d’espionnage universel. La machine à gouverner qui sait tout de nous, qui investit d’énormes capitaux dans la mise au point de « l’homme augmenté », du cyborg, du surhomme électronique cher à Politis (cf Politis et le transhumanisme : une autre réification est possible) et aux cyberféministes.

      Sans paraphraser l’article de Godard, sachez que ces plans concernent au premier chef la police des populations - ordre et gestion (cf Terreur et possession. Enquête sur la police des populations à l’ère technologique), la prévention des dissidences et insurrections.

      « Le danger est identifié : l’individu qui se cache. Et la sentence tombe : - "No hidden people allowed". "Interdit aux personnes cachées" (…) Les gouvernements doivent décider, par exemple, qu’il est trop risqué que des citoyens restent « hors ligne », détachés de l’écosystème technologique. Dans le futur comme aujourd’hui, nous pouvons être certains que des individus refuseront d’adopter et d’utiliser la technologie, et ne voudront rien avoir à faire avec des profils virtuels, des bases de données en ligne ou des smartphones. Un gouvernement devra considérer qu’une personne qui n’adhèrera pas du tout à ces technologies a quelque chose à cacher et compte probablement enfreindre la loi, et ce gouvernement devra établir une liste de ces personnes cachées, comme mesure antiterroriste. »

    • @arnoferrat Je suis d’accord, j’ai été « édité » autant que j’ai « édité » moi même, je sais bien la difficulté de ce métier, de faire les compromis nécessaire pour respecter, être fidèle à l’esprit de l’auteur·e, et surtout s’assurer que l’auteur·e est d’accord pour les changements, les ajustements et les suppressions. Ça veut dire qu’il faut du temps, ce temps que les quotidiens n’ont pas (mais le Diplo est un mensuel et bien qu’il y aurait le temps, c’est assez rare qu’un auteur reçoive son texte édité pour le valider, c’est aussi vrai dans d’autres mensuels et hebdo avec lesquels j’ai travaillé)

      j’ai donc peut-être été un peu rapide dans cette présentation qui oubliait le travail magnifique de certain·es éditeurs·trices, comme toujours. Mais j’ai aussi vu d’assez près le travail de rédactions en chef parfaitement scandaleux et manipulateur, c’est surtout de cela que je voulais parler.

      @wardlittell idée séduisante, peut-être vraie (on va la faire passer au Decodex juste pour voir si c’est crédible ha ha !). Et si Decodex n’est pas un gros bug, c’est peut-être en partie ce que tu dis, je ne serai pas surpris. ça fait quatre ou cinq ans que j’entends les responsables de la presse quotidienne, les journalistes « en vue », vomir sur la blogosphère et les sites alternatifs, les initiatives internet participative tellement ils ont la trouille d’être « déclassés ». A suivre en tout cas. Les analyses sur Decodex s’accumulent, difficile de suivre.

      Je me demande si le Monde va réussir à Survivre à Decodex.

    • @reka Merci du retour. A suivre en effet. Il y’a peut-être une analogie qui reste à analyser entre la crise de confiance vis-à-vis de la presse et celle vis-à-vis de la classe politique. De la même manière que la presse « mainstream » s’applique à décrédibiliser toute presse alternative, la réaction de la classe politique consiste à attaquer bille en tête les partis politiques qui récupèrent les électeurs défiants, alors qu’il serait sans doute plus efficace de s’améliorer soi-même pour répondre aux nouvelles exigences citoyennes.