Les données de la servitude volontaire.

http://affordance.typepad.com//mon_weblo

  • Usages de l’information numérique : comprendre les nouvelles enclosures algorithmiques pour mieux s’en libérer
    http://rfsic.revues.org/1425

    Un algorithme peut-il être considéré comme une enclosure, et si oui, comment définir une enclosure algorithmique ? De facto, un algorithme peut entraver la libre circulation documentaire d’un élément de connaissance ou d’une information ; un algorithme peut empêcher cet élément d’information ou cette connaissance d’entrer dans un processus documentaire ; un algorithme peut modeler, définir et réguler les conditions d’appropriation et de partage de ce contenu en fonction de critères définis sans l’accord du producteur ou du créateur de la ressource (cf. l’exemple symptomatique des licences Creative Commons dans l’interface de recherche de FlickR, supprimées puis rétablies suite à la mobilisation massive des usagers22). Par ailleurs, la nature même d’un algorithme est – cf. supra – d’opérer par « rétention des informations dans un écosystème clos et propriétaire, masquage des logiques de traçage, de sélection et d’affichage/d’organisation des contenus, enfouissement des logiques de collecte et de production de données et de métadonnées associées. »

    On se mit alors à inventer des algorithmes de prescription23 : c’est-à-dire non plus capables de répondre à la question « quelles pages renvoyer sur telle requête » mais « dans quel ordre classer les pages renvoyées ». Le PageRank de Google24 fut le premier des algorithmes prescriptifs. Mais à l’époque on le considérait simplement comme la Rolls Royce des algorithmes « de recherche » car on ne voyait pas en quoi l’ordre de présentation des résultats inaugurait un nouvel ordre documentaire mondial.

    L’essentiel des algorithmes actuels sont centrés sur la prescription25 et ne se soucient plus qu’à la marge – publicitaire – de répondre correctement à nos requêtes. Leur ADN algorithmique est de s’arranger pour que la prescription sur ordonnance (des résultats) l’emporte aussi souvent que possible sur l’improbable satisfaction de voir s’afficher des réponses à des questions que de toute façon nous ne posons même plus26. En quelque sorte des algorithmes « d’imposition ». L’EdgeRank de Facebook27 est emblématique de cette troisième génération algorithmique puisqu’il s’agit, dans un écosystème presqu’entièrement dénué de requêtes, de déterminer quels contenus sont les plus susceptibles d’intéresser tels types de profils.

    La question d’une émancipation possible ne peut donc être réglée par ces systèmes eux-mêmes mais par l’action conjointe du politique et de la société civile pour sanctuariser les conditions d’un partage documentaire des ressources, données et profils qui soit aussi équitable que possible :

    en agissant sur la limitation de la « Rétention des informations dans un écosystème clos et propriétaire »,

    en contraignant à la révélation ou à l’explicitation du « masquage des logiques de traçage, de sélection et d’affichage/d’organisation des contenus »,

    et en dévoilant les processus « d’enfouissement des logiques de collecte et de production de données et de métadonnées associées. »

    36 http://www.enssib.fr/breves/2014/04/10/la-cour-de-justice-europeenne-choisit-de-proeteger-les-donne (...)
    37 https://prism-break.org/en on trouvera ici une liste d’outils, de plateformes, d’applications et d (...)
    38 http://affordance.typepad.com//mon_weblog/2013/03/donnees-servitude-volontaire.html.

    35Le politique dispose pour cela d’outils législatifs (cf. par exemple la récente décision de la Cour de Justice européenne sur les données personnelles36), la société civile peut, de manière collective, pousser à l’adoption d’outils et d’environnements technologiques « équitables »37, et, de manière individuelle, cesser d’alimenter la source des données de notre servitude volontaire38.

  • Les données de la servitude volontaire
    http://affordance.typepad.com//mon_weblog/2013/03/donnees-servitude-volontaire.html

    La chose était déjà possible aux états-unis depuis quelques mois. Elle l’est désormais en France et dans quelques autres pays européens. Twitter vient d’annoncer la possibilité de récupérer l’archive de tous ses tweets. Comme je l’avais à l’époque fait et narré pour la récupération de mes données Facebook, je me suis donc livré au même exercice dont je vous livre ici les résultats ainsi que quelques considérations statistiques et de nature archivistiques.

    • Restons encore un peu du côté des #chiffres et réutilisons la même comparaison que pour Facebook à l’époque. Sachant que « 10 téraoctets pourraient contenir toute la collection des ouvrages imprimés de la bibliothèque du Congrès » (source), on peut donc supposer que #Twitter détient au moins l’équivalent de 28 - mettons 30 - bibliothèques du Congrès uniquement composées de nos gazouillis quotidiens. Celle-ci - la bib du congrès - comptant plus de 33 millions d’ouvrages, cela fait donc l’équivalent de (33 x 30) : 990 millions de livres de conversations.

      #archivage / La Boétie http://www.desobeissancecivile.org/servitude.pdf

      Soyez résolus à ne plus servir, et vous voilà libres. Je ne vous demande pas de le pousser, de l’ébranler, mais seulement de ne plus le soutenir, et vous le verrez, tel un grand colosse dont on a brisé la base, fondre sous son poids et se rompre. (…)