• Les sociologues Marion Fourcade et Kieran Healy signent avec "La société ordinale" une réflexion assez générale sur les paradoxes de la numérisation de nos sociétés. Si l’essai manque parfois d’exemples détaillés, la réflexion sur les limites d’un ordonnancement de la société par la mesure est plutôt pertinente.

    Ils montrent que la généralisation des classements conduit à une aporie. A invisibiliser le social par l’individualisation des calculs, le risque est de produire un "lumpenscoretariat" sans perspectives d’en sortir. La société ordinale est une société ordonnée, gouvernée en toute chose par la mesure, qui produit des effets très concrets sur la société dans une forme de stratification inédite qui bouscule la distribution des opportunités. Ce pouvoir ordinal concentre le pouvoir de la mesure dans quelques mains, mais surtout il distille l’idée que le classement et l’appariement sont la solution à tous nos problèmes. Rien n’est moins vrai. Les classements et appariements invisibilisent les réalités sociales et produisent une société sans échappatoire.

    Au prétexte de pouvoir calculer tout le monde, les systèmes produisent des scores qui fonctionnent très mal pour tous. Certains publics sont mal mesurés et mal classés. C’est ceux que Marion Fourcade appelle le “lumpenscoretariat” du capitalisme numérique. Ceux qui n’entrent pas dans les cases du formulaire, ceux dont la position est trop aberrante par rapport aux données et moyennes, ceux qui vont être maltraités par les systèmes de calcul, et qui seront d’autant plus mal traités que les scores les suivent par devers eux, se répliquent, se consolident dans d’autres index, sous la forme de cascades décisionnels de l’ordinal.

    Dans une société ordinale, l’important est le classement et ce classement ne permet pas de protéger les gens qui sont mal classés : il n’y a pas de compensation pour les marginalisés et les vulnérables. Dans la société ordinale, chacun semble avoir ce qu’il mérite, comme si la société n’existait pas. La société ordinale transforme la structure sociale du social en choix individuels qui n’en sont pas : le fait de ne pas avoir accès au crédit par exemple n’est pas un choix individuel ! Or, le classement et l’appariement n’ont rien de mesures objectives. En invisibilisant le social, elles le révèlent, l’amplifient et le figent au risque de stratifier une “précarité algorithmique”, qui s’installe pour de plus en plus en plus d’entre nous, les déclassés des systèmes.

    https://hubertguillaud.wordpress.com/2024/04/09/laporie-de-la-societe-ordinale

  • Une brève histoire de l’évolution des recommandations algorithmiques

    –> Il y a d’abord la première génération de la recommandation, celle des recommandations sommaires qui associent un produit à un autre.
    Sur les réseaux sociaux, la logique consiste à s’abonner aux gens qui nous intéressent pour être notifié de ce qu’ils ont publiés. C’est ce que l’on peut appeler l’âge de la souscription et le modèle des recommandations simples (2000-2010).

    –> Dans le modèle en réseau qui lui succède, la propagation d’un message ne dépend plus seulement des personnes auxquelles vous êtes abonnées, mais est amplifiée ou rétrogradée par les effets de réseaux. Plus un message est relayé, plus il est amplifié. Ce sont les réactions des autres qui structurent la recommandation. Les contenus sont scorés selon l’intérêt des utilisateurs et la viralité. C’est l’âge du réseau et du modèle des propagations (2010-2016).

    –> Avec la montée en puissance du machine learning, les recommandations se complexifient et prennent en compte de + en + de critères. La recommandation se base sur la similarité : on vous recommande ce qui a plu à des gens qui vous sont similaires parce qu’ils ont les mêmes comportements que vous sur les réseaux. C’est l’âge algorithmique et le modèle de la similarité (2016-2021) qui rendra les grandes plateformes de la recommandation incontournables.

    –> Mais, la recherche d’un engagement optimal ou idéal s’effondre. Confrontées à leurs effets (l’assaut du capitole en est le symbole), les plateformes dégradent volontairement la performance de certaines recommandations, comme l’information ou les hyperliens. Elles assument être à la recherche de leur rentabilité, et se mettent à amplifier leur modèle commercial, notamment la publicité, jusqu’à s’y noyer. C’est ce que l’on peut appeler l’âge du cynisme, des distorsions de marché et de l’emballement du modèle commercial (depuis 2021…).

    Un âge du cynisme dans lequel, faute de régulation pertinente, nous risquons d’être coincés un moment ! J’en parle plus longuement par ici : https://hubertguillaud.wordpress.com/2024/02/20/une-breve-histoire-de-levolution-des-recommandations-algor
    #algorithmes #recommandation

  • Le livre que la journaliste Celia Izoard consacre à l’extractivisme minier nous montre ce que l’on ne veut pas voir, derrière notre voracité sans limite. Beaucoup dirons qu’elle dresse un tableau apocalyptique, quand elle dresse un tableau informé du problème. L’impératif minier crée des états d’exceptions, pas des zones de responsabilité, insiste-t-elle, en montrant ce que nous sacrifions et comment. Au prétexte de la transition - qui cache pourtant bien d’autres enjeux -, nous sommes en train d’accélérer l’exploitation minière et ses conséquences. La mine n’est pas la solution à la crise climatique, explique-t-elle. La décroissance minérale devrait être notre seule perspective, mais elle n’est pas acquise !

    “Pour quiconque réfléchit à l’écologie, il est gratifiant de pouvoir proposer des remèdes, de se dire qu’on ne se contente pas d’agir en négatif en dénonçant des phénomènes destructeurs, mais qu’on est capable d’agir de façon positive en énonçant des solutions. Le problème est que dans ce domaine, les choses sont biaisées par le fonctionnement de la société”. Dans les années 70, les mouvements écologistes ont dénoncé la société fossile et nucléaire et ont défendu des techniques alternatives comme l’éolien ou le solaire. Ils combattaient la surconsommation d’énergie, mais ce n’est pas elle que nos sociétés ont retenues. Le capitalisme a adopté “les alternatives techniques en ignorant le problème politique de fond qui remettait en question la croissance industrielle”. Les éoliennes et centrales solaires à petites échelles sont devenues des projets industriels. La sobriété et la décroissance ont été oubliées. “Avant de se demander comment obtenir des métaux de façon moins destructrice, il faut se donner les moyens d’en produire et d’en consommer moins”.

    https://hubertguillaud.wordpress.com/2024/01/26/au-fond-du-trou-extractiviste #mines #terres_rares #extractivisme

  • Le risque fasciste de l’IA | Hubert Guillaud
    https://hubertguillaud.wordpress.com/2024/01/18/le-risque-fasciste-de-lia

    L’IA une prise de pouvoir par une porte dérobée
    Sur son blog, il présente l’IA comme un Thatchérisme. “L’IA est utilisée comme une forme de “Stratégie du choc“, dans laquelle le sentiment d’urgence généré par une technologie censée transformer le monde est utilisé comme une opportunité pour transformer les systèmes sociaux sans débat démocratique.” Quand l’IA est convoquée pour transformer l’hôpital et l’école, c’est une diversion qui vise à nous masquer leur effondrement sous les coups d’un désinvestissement massif. Or, l’IA ne comprend ni la médecine ni l’éducation. La seule chose que les grands modèles d’IA font très bien, c’est de transférer le contrôle aux grandes entreprises, et ce alors qu’aucun autre acteur n’a les moyens ou la puissance de traiter les données qu’elles savent traiter. “La promotion de l’IA est une privatisation par une porte dérobée”, une privatisation sous stéroïde qui vient renforcer celle déjà à l’oeuvre. L’objectif n’est pas de “soutenir” les enseignants et les travailleurs de la santé par de nouveaux dispositifs, mais de combler les lacunes d’un système en défaillance grâce à l’IA plutôt qu’avec le personnel et les ressources dont les systèmes publics auraient désespérément besoin. L’IA est un “Thatchérisme informatique” qui vise “la précarisation des emplois, la privatisation et les l’effacement des relations sociales réelles”. Elle vise à renforcer la cruauté bureaucratique envers les plus vulnérables comme le montre son utilisation dans les systèmes de protection sociale à travers le monde.

  • Le risque fasciste de l’IA | Hubert Guillaud
    https://hubertguillaud.wordpress.com/2024/01/18/le-risque-fasciste-de-lia

    Le propos fera certainement bondir nombre de thuriféraires de l’IA. Il mérite pourtant une écoute attentive car il souligne que la face sombre de l’IA est plus sombre qu’on le pense. Dan McQuillan est maître de conférence au département d’informatique de l’université Goldsmiths de Londres. Il est l’auteur de Resisting AI, an anti-fascist approach to artificial intelligence (Résister à l’IA, une approche anti-fasciste de l’IA, Bristol University Press, 2022, non traduit).

    • Hannah Arendt

      Quand tout le monde vous ment en permanence, le résultat n’est pas que vous croyez ces mensonges, mais que plus personne ne croit plus rien. Un peuple qui ne peut plus rien croire ne peut se faire une opinion. Il est privé non seulement de sa capacité d’agir, mais aussi de sa capacité de penser et de juger. Et avec un tel peuple, vous pouvez faire ce que vous voulez.

      Je trouve effrayant qu’à présent, plus grand monde en a encore quelque chose à foutre des faits.
      Les politiques mentent pratiquement en boucle et s’en battent les steaks qu’on s’en rende compte, beaucoup de journalistes se contentent de reproduire des dépêches, voire même carrément les communiqués de presse des uns et des autres sans aucun recul, contextualisation, que dalle. La pensée scientifique a quitté cette galaxie…

      C’est totalement déprimant… et totalitaire.