• Vous avez aimé ceci, vous aimerez cela
    https://www.latribune.fr/opinions/blogs/homo-numericus/vous-avez-aime-ceci-vous-aimerez-cela-834486.html

    HOMO NUMERICUS. Les algorithmes savent presque tout de nous. Ces outils omniprésents dans les nouvelles technologies iront-ils jusqu’à nous ravir notre libre arbitre ? Par Philippe Boyer, directeur de l’innovation à Covivio.

    « Inspiré de votre historique de navigation », «  Notre sélection pour vous » ou encore « Vous avez aimé ceci, vous aimerez cela » ... sont des injonctions que nous connaissons presque tous pourvu que nous achetions déjà sur Amazon, Netflix, Deliveroo et bien d’autres plates-formes numériques. Derrière ces phrases en apparence anodines se cachent une mécanique algorithmique bien huilée destinée à alimenter une stratégie de big data et d’intelligence artificielle qui vise à inciter les utilisateurs à passer toujours plus de temps, et accessoirement dépenser plus d’argent, sur ces sites.

    Grâce aux multiples traces numériques que nous laissons derrière nous, nous devenons de plus en plus prévisibles au point que les applicatifs technologiques en arriveraient presque à anticiper notre propre avenir sans que nous ayons besoin d’y penser nous-mêmes, sorte de renoncement à notre libre-arbitre à « l’insu de notre plein gré ».

    Leibniz
    Pour qui s’intéresse à la philosophie, ces questions de l’affirmation de l’individu face à une entité qui dirige et décide de tout ont animé de très nombreux débats, en particulier au 17ème siècle, quand Descartes et Leibniz, philosophes de la modernité naissante, se demandaient déjà comment affirmer sa liberté face à Dieu, par nature omniscient et grand ordonnateur de toute chose. Leibnitz, est sans conteste le philosophe dont nous pourrions le plus nous inspirer aujourd’hui pour décrire la puissance des algorithmes développés par les entreprises du numérique. Qu’expose-t-il ? Dans son écrit paru en 1714, Monadologie, il oppose deux principes censés fondés l’équilibre du monde. D’une part, la connaissance scientifique, nécessairement vraie. En écrivant que la somme des angles d’un triangle est forcément égale à 180°, il s’agit-là d’une vérité universelle, que le philosophe appelle « principe de contradiction ». Et d’autre part, le « principe de raison suffisante » via lequel des événements se produisent en raison d’un nombre infini de causes qui, assemblées les unes aux autres, finissent par produire un résultat au-dessus de ce qu’un simple humain aurait été capable de penser, de prédire et a fortiori de réaliser.

    Si dans l’esprit du philosophe du 17ème siècle, cette « force obscure » se nomme Dieu, appliqué à notre quotidien du 21ème siècle, imprégné d’algorithmes, une telle « force » pourrait prendre l’appellation de « #big_data » en tant que collecte d’un nombre colossal de données qu’aucun être humain ne pourra jamais ingurgiter. C’est logiquement grâce aux corrélations établies entre toutes ces informations que l’on en arrive ensuite à la mise au point d’algorithmes, pour certains d’entre eux qualifiés de « prédictifs », en ce sens qu’ils peuvent prévoir, voire prédire, certaines de nos futures actions en nous envoyant des recommandations hyper-personnalisées.

    Sommes-nous à ce point transparents ?
    Comment se prémunir face à cette prégnance algorithmique dans laquelle nos comportements numériques sont scrutés, analysés et stockés dans les moindres détails ? Dans une vision dystopique, des algorithmes pourraient-ils finir par nous connaître mieux que nous nous connaissons nous-mêmes ? Sans que nous le sachions, se pourrait-il qu’ils fixent ce que nous pourrions faire sans que nous en ayons pleinement conscience ? Pour ne pas succomber à ce fantasmagorique futur, des débuts de réponses existent. Qu’il s’agisse de la récente législation européenne qui encadre l’usage des données personnelles (RGPD), en passant par nos actions individuelles consistant, sur les principaux moteurs de recherche, à désactiver l’affichage d’annonces basées sur ses propres centres d’intérêt, de nouveaux comportements apparaissent à l’heure d’une prise de conscience grand public de l’usage de ces données et de ses éventuels détournements (on se souvient du scandale Cambridge Analytica ayant eu pour cause la fuite de données personnelles de 87 millions d’utilisateurs Facebook).

    D’autres revendiquent même un certain « droit au mensonge numérique » visant à déjouer les moteurs de recherche à qui nous confions nos questions et nos pensées les plus intimes. S’appuyant sur les recherches Google de millions d’Américains, Seth Stephens-Davidowitz, ancien data scientist de Google, détaille combien ce « sérum de vérité numérique » qu’est le big data et les algorithmes qui sont par la suite construits sur cette matière brute, exposent nos comportements réels. Outre l’exploration de ce que le Big Data nous révèle de notre quotidien, le bien-nommé chapitre « Big Data, big n’importe quoi ? Ce que les données ne peuvent faire » décortique les limites de ce big data en prenant soin d’exhorter ses lecteurs à ne pas s’abandonner à la fatalité qui consisterait à penser que la technologie prendrait systématiquement le pas sur les humains.

    Préserver notre libre arbitre
    La quantité massive de données collectées associée aux algorithmes transforment notre rapport au monde. Ce dernier, c’est un fait, devenant toujours plus objectif, quantifié et mesurable. Face à cette situation, l’une des questions qui se pose est bien celle de la préservation de notre libre arbitre face à cette omniprésence des algorithmes. Pour Aurélie Jean, scientifique reconnue et éminente spécialiste de ces sujets, il s’agit de rappeler « qu’un algorithme ne connaîtra jamais tout de nous pour la bonne et simple raison qu’il n’atteindra jamais complètement notre inconscient. Les algorithmes nous faciliteront la vie de plus en plus à l’avenir, ils nous connaîtront davantage, mais ils ne peuvent pas se substituer à notre libre arbitre, car sans libre arbitre nous ne sommes rien. » et d’ajouter ce message de bon sens destiné, d’une certaine manière, à clore les débats, du moins les plus anxiogènes d’entre eux : « Certes les algorithmes sont plus performants que nous dans de nombreux domaines. Mais il en existe aussi de mal conçus, ou truffés de biais... Dirigeants, journalistes, consommateurs ou citoyens : tous, à notre niveau, nous devons améliorer notre culture algorithmique, et urgemment. »

    Qu’en penserait Leibniz ? Je suggère de poser la question à Google...