Usages de l’information numérique : comprendre les nouvelles enclosures algorithmiques pour mieux s’en libérer
►http://rfsic.revues.org/1425
Un algorithme peut-il être considéré comme une enclosure, et si oui, comment définir une enclosure algorithmique ? De facto, un algorithme peut entraver la libre circulation documentaire d’un élément de connaissance ou d’une information ; un algorithme peut empêcher cet élément d’information ou cette connaissance d’entrer dans un processus documentaire ; un algorithme peut modeler, définir et réguler les conditions d’appropriation et de partage de ce contenu en fonction de critères définis sans l’accord du producteur ou du créateur de la ressource (cf. l’exemple symptomatique des licences Creative Commons dans l’interface de recherche de FlickR, supprimées puis rétablies suite à la mobilisation massive des usagers22). Par ailleurs, la nature même d’un algorithme est – cf. supra – d’opérer par « rétention des informations dans un écosystème clos et propriétaire, masquage des logiques de traçage, de sélection et d’affichage/d’organisation des contenus, enfouissement des logiques de collecte et de production de données et de métadonnées associées. »
On se mit alors à inventer des algorithmes de prescription23 : c’est-à-dire non plus capables de répondre à la question « quelles pages renvoyer sur telle requête » mais « dans quel ordre classer les pages renvoyées ». Le PageRank de Google24 fut le premier des algorithmes prescriptifs. Mais à l’époque on le considérait simplement comme la Rolls Royce des algorithmes « de recherche » car on ne voyait pas en quoi l’ordre de présentation des résultats inaugurait un nouvel ordre documentaire mondial.
L’essentiel des algorithmes actuels sont centrés sur la prescription25 et ne se soucient plus qu’à la marge – publicitaire – de répondre correctement à nos requêtes. Leur ADN algorithmique est de s’arranger pour que la prescription sur ordonnance (des résultats) l’emporte aussi souvent que possible sur l’improbable satisfaction de voir s’afficher des réponses à des questions que de toute façon nous ne posons même plus26. En quelque sorte des algorithmes « d’imposition ». L’EdgeRank de Facebook27 est emblématique de cette troisième génération algorithmique puisqu’il s’agit, dans un écosystème presqu’entièrement dénué de requêtes, de déterminer quels contenus sont les plus susceptibles d’intéresser tels types de profils.
La question d’une émancipation possible ne peut donc être réglée par ces systèmes eux-mêmes mais par l’action conjointe du politique et de la société civile pour sanctuariser les conditions d’un partage documentaire des ressources, données et profils qui soit aussi équitable que possible :
en agissant sur la limitation de la « Rétention des informations dans un écosystème clos et propriétaire »,
en contraignant à la révélation ou à l’explicitation du « masquage des logiques de traçage, de sélection et d’affichage/d’organisation des contenus »,
et en dévoilant les processus « d’enfouissement des logiques de collecte et de production de données et de métadonnées associées. »
36 ▻http://www.enssib.fr/breves/2014/04/10/la-cour-de-justice-europeenne-choisit-de-proeteger-les-donne (...)
37 ►https://prism-break.org/en on trouvera ici une liste d’outils, de plateformes, d’applications et d (...)
38 ►http://affordance.typepad.com//mon_weblog/2013/03/donnees-servitude-volontaire.html.
35Le politique dispose pour cela d’outils législatifs (cf. par exemple la récente décision de la Cour de Justice européenne sur les données personnelles36), la société civile peut, de manière collective, pousser à l’adoption d’outils et d’environnements technologiques « équitables »37, et, de manière individuelle, cesser d’alimenter la source des données de notre servitude volontaire38.