comprendre les nouvelles enclosures algorithmiques pour mieux s’en libérer

/1425

  • Usages de l’information numérique : comprendre les nouvelles enclosures algorithmiques pour mieux s’en libérer

    Olivier Ertzscheid

    http://rfsic.revues.org/1425

    (...) les systèmes d’enclosures évoluent à l’unisson des saillances technologiques des 2 derniers siècles. De la même manière que, dans les usages de l’information, le projet des bibliothèques, de l’imprimerie puis de la presse fut de rendre le monde lisible, cette « lisibilité » s’accompagnant bien sûr progressivement de ses propres logiques de rentes économiques et attentionnelles, le xxe siècle permit de rendre le monde calculable, et ce faisant céda à la tentation d’y établir des enclosures liées à cette nouvelle calculabilité, c’est-à-dire reposant sur les capacités des programmes et des infrastructures technologiques à rendre le monde (et les informations y circulant) chiffrables, simultanément engrammables et encryptables.

    Le xxie siècle, à tout le moins les grands acteurs de l’économie de l’attention39, ont désormais pour objectif de rendre le monde et nos comportements (marchands mais aussi sociaux) prédictibles ; de nouvelles enclosures de prédictibilité émergent déjà, s’appuyant sur la capacité des programmes et des infrastructures technologiques à pré-dire, à dire à notre place, à ne plus nécessiter un quelconque « input » (question, requête) pour générer une foule d’outputs (recommandations), pour orienter et contraindre des usages qui fabriqueront eux-mêmes des représentations supposément communes.

  • Usages de l’information numérique : comprendre les nouvelles enclosures algorithmiques pour mieux s’en libérer
    http://rfsic.revues.org/1425

    Un algorithme peut-il être considéré comme une enclosure, et si oui, comment définir une enclosure algorithmique ? De facto, un algorithme peut entraver la libre circulation documentaire d’un élément de connaissance ou d’une information ; un algorithme peut empêcher cet élément d’information ou cette connaissance d’entrer dans un processus documentaire ; un algorithme peut modeler, définir et réguler les conditions d’appropriation et de partage de ce contenu en fonction de critères définis sans l’accord du producteur ou du créateur de la ressource (cf. l’exemple symptomatique des licences Creative Commons dans l’interface de recherche de FlickR, supprimées puis rétablies suite à la mobilisation massive des usagers22). Par ailleurs, la nature même d’un algorithme est – cf. supra – d’opérer par « rétention des informations dans un écosystème clos et propriétaire, masquage des logiques de traçage, de sélection et d’affichage/d’organisation des contenus, enfouissement des logiques de collecte et de production de données et de métadonnées associées. »

    On se mit alors à inventer des algorithmes de prescription23 : c’est-à-dire non plus capables de répondre à la question « quelles pages renvoyer sur telle requête » mais « dans quel ordre classer les pages renvoyées ». Le PageRank de Google24 fut le premier des algorithmes prescriptifs. Mais à l’époque on le considérait simplement comme la Rolls Royce des algorithmes « de recherche » car on ne voyait pas en quoi l’ordre de présentation des résultats inaugurait un nouvel ordre documentaire mondial.

    L’essentiel des algorithmes actuels sont centrés sur la prescription25 et ne se soucient plus qu’à la marge – publicitaire – de répondre correctement à nos requêtes. Leur ADN algorithmique est de s’arranger pour que la prescription sur ordonnance (des résultats) l’emporte aussi souvent que possible sur l’improbable satisfaction de voir s’afficher des réponses à des questions que de toute façon nous ne posons même plus26. En quelque sorte des algorithmes « d’imposition ». L’EdgeRank de Facebook27 est emblématique de cette troisième génération algorithmique puisqu’il s’agit, dans un écosystème presqu’entièrement dénué de requêtes, de déterminer quels contenus sont les plus susceptibles d’intéresser tels types de profils.

    La question d’une émancipation possible ne peut donc être réglée par ces systèmes eux-mêmes mais par l’action conjointe du politique et de la société civile pour sanctuariser les conditions d’un partage documentaire des ressources, données et profils qui soit aussi équitable que possible :

    en agissant sur la limitation de la « Rétention des informations dans un écosystème clos et propriétaire »,

    en contraignant à la révélation ou à l’explicitation du « masquage des logiques de traçage, de sélection et d’affichage/d’organisation des contenus »,

    et en dévoilant les processus « d’enfouissement des logiques de collecte et de production de données et de métadonnées associées. »

    36 http://www.enssib.fr/breves/2014/04/10/la-cour-de-justice-europeenne-choisit-de-proeteger-les-donne (...)
    37 https://prism-break.org/en on trouvera ici une liste d’outils, de plateformes, d’applications et d (...)
    38 http://affordance.typepad.com//mon_weblog/2013/03/donnees-servitude-volontaire.html.

    35Le politique dispose pour cela d’outils législatifs (cf. par exemple la récente décision de la Cour de Justice européenne sur les données personnelles36), la société civile peut, de manière collective, pousser à l’adoption d’outils et d’environnements technologiques « équitables »37, et, de manière individuelle, cesser d’alimenter la source des données de notre servitude volontaire38.