Opinions des experts de La Tribune sur le marché économique français et étranger

/homo-numericus

  • Vous avez aimé ceci, vous aimerez cela
    https://www.latribune.fr/opinions/blogs/homo-numericus/vous-avez-aime-ceci-vous-aimerez-cela-834486.html

    HOMO NUMERICUS. Les algorithmes savent presque tout de nous. Ces outils omniprésents dans les nouvelles technologies iront-ils jusqu’à nous ravir notre libre arbitre ? Par Philippe Boyer, directeur de l’innovation à Covivio.

    « Inspiré de votre historique de navigation », «  Notre sélection pour vous » ou encore « Vous avez aimé ceci, vous aimerez cela » ... sont des injonctions que nous connaissons presque tous pourvu que nous achetions déjà sur Amazon, Netflix, Deliveroo et bien d’autres plates-formes numériques. Derrière ces phrases en apparence anodines se cachent une mécanique algorithmique bien huilée destinée à alimenter une stratégie de big data et d’intelligence artificielle qui vise à inciter les utilisateurs à passer toujours plus de temps, et accessoirement dépenser plus d’argent, sur ces sites.

    Grâce aux multiples traces numériques que nous laissons derrière nous, nous devenons de plus en plus prévisibles au point que les applicatifs technologiques en arriveraient presque à anticiper notre propre avenir sans que nous ayons besoin d’y penser nous-mêmes, sorte de renoncement à notre libre-arbitre à « l’insu de notre plein gré ».

    Leibniz
    Pour qui s’intéresse à la philosophie, ces questions de l’affirmation de l’individu face à une entité qui dirige et décide de tout ont animé de très nombreux débats, en particulier au 17ème siècle, quand Descartes et Leibniz, philosophes de la modernité naissante, se demandaient déjà comment affirmer sa liberté face à Dieu, par nature omniscient et grand ordonnateur de toute chose. Leibnitz, est sans conteste le philosophe dont nous pourrions le plus nous inspirer aujourd’hui pour décrire la puissance des algorithmes développés par les entreprises du numérique. Qu’expose-t-il ? Dans son écrit paru en 1714, Monadologie, il oppose deux principes censés fondés l’équilibre du monde. D’une part, la connaissance scientifique, nécessairement vraie. En écrivant que la somme des angles d’un triangle est forcément égale à 180°, il s’agit-là d’une vérité universelle, que le philosophe appelle « principe de contradiction ». Et d’autre part, le « principe de raison suffisante » via lequel des événements se produisent en raison d’un nombre infini de causes qui, assemblées les unes aux autres, finissent par produire un résultat au-dessus de ce qu’un simple humain aurait été capable de penser, de prédire et a fortiori de réaliser.

    Si dans l’esprit du philosophe du 17ème siècle, cette « force obscure » se nomme Dieu, appliqué à notre quotidien du 21ème siècle, imprégné d’algorithmes, une telle « force » pourrait prendre l’appellation de « #big_data » en tant que collecte d’un nombre colossal de données qu’aucun être humain ne pourra jamais ingurgiter. C’est logiquement grâce aux corrélations établies entre toutes ces informations que l’on en arrive ensuite à la mise au point d’algorithmes, pour certains d’entre eux qualifiés de « prédictifs », en ce sens qu’ils peuvent prévoir, voire prédire, certaines de nos futures actions en nous envoyant des recommandations hyper-personnalisées.

    Sommes-nous à ce point transparents ?
    Comment se prémunir face à cette prégnance algorithmique dans laquelle nos comportements numériques sont scrutés, analysés et stockés dans les moindres détails ? Dans une vision dystopique, des algorithmes pourraient-ils finir par nous connaître mieux que nous nous connaissons nous-mêmes ? Sans que nous le sachions, se pourrait-il qu’ils fixent ce que nous pourrions faire sans que nous en ayons pleinement conscience ? Pour ne pas succomber à ce fantasmagorique futur, des débuts de réponses existent. Qu’il s’agisse de la récente législation européenne qui encadre l’usage des données personnelles (RGPD), en passant par nos actions individuelles consistant, sur les principaux moteurs de recherche, à désactiver l’affichage d’annonces basées sur ses propres centres d’intérêt, de nouveaux comportements apparaissent à l’heure d’une prise de conscience grand public de l’usage de ces données et de ses éventuels détournements (on se souvient du scandale Cambridge Analytica ayant eu pour cause la fuite de données personnelles de 87 millions d’utilisateurs Facebook).

    D’autres revendiquent même un certain « droit au mensonge numérique » visant à déjouer les moteurs de recherche à qui nous confions nos questions et nos pensées les plus intimes. S’appuyant sur les recherches Google de millions d’Américains, Seth Stephens-Davidowitz, ancien data scientist de Google, détaille combien ce « sérum de vérité numérique » qu’est le big data et les algorithmes qui sont par la suite construits sur cette matière brute, exposent nos comportements réels. Outre l’exploration de ce que le Big Data nous révèle de notre quotidien, le bien-nommé chapitre « Big Data, big n’importe quoi ? Ce que les données ne peuvent faire » décortique les limites de ce big data en prenant soin d’exhorter ses lecteurs à ne pas s’abandonner à la fatalité qui consisterait à penser que la technologie prendrait systématiquement le pas sur les humains.

    Préserver notre libre arbitre
    La quantité massive de données collectées associée aux algorithmes transforment notre rapport au monde. Ce dernier, c’est un fait, devenant toujours plus objectif, quantifié et mesurable. Face à cette situation, l’une des questions qui se pose est bien celle de la préservation de notre libre arbitre face à cette omniprésence des algorithmes. Pour Aurélie Jean, scientifique reconnue et éminente spécialiste de ces sujets, il s’agit de rappeler « qu’un algorithme ne connaîtra jamais tout de nous pour la bonne et simple raison qu’il n’atteindra jamais complètement notre inconscient. Les algorithmes nous faciliteront la vie de plus en plus à l’avenir, ils nous connaîtront davantage, mais ils ne peuvent pas se substituer à notre libre arbitre, car sans libre arbitre nous ne sommes rien. » et d’ajouter ce message de bon sens destiné, d’une certaine manière, à clore les débats, du moins les plus anxiogènes d’entre eux : « Certes les algorithmes sont plus performants que nous dans de nombreux domaines. Mais il en existe aussi de mal conçus, ou truffés de biais... Dirigeants, journalistes, consommateurs ou citoyens : tous, à notre niveau, nous devons améliorer notre culture algorithmique, et urgemment. »

    Qu’en penserait Leibniz ? Je suggère de poser la question à Google...

  • #Fake_news : la faute à Protagoras
    https://www.latribune.fr/opinions/blogs/homo-numericus/fake-news-la-faute-a-protagoras-803101.html

    Les « #infox » minent les démocraties. Propagées par les réseaux sociaux, l’une des sources de ces fausses informations repose sur l’idée que les idées sont relatives. Une conception philosophique héritée de la Grèce antique. Par Philippe Boyer, directeur de l’innovation à Covivio ().

    « Mal nommer les choses, c’est ajouter au malheur du monde », jugeait Albert Camus. La commission d’enrichissement de la langue française se serait-elle inspirée de cette maxime pour traduire l’expression « fake news » par « infox » ? Forgé à partir des mots « information » et « intoxication », ce néologisme est désormais celui qui s’impose à toutes les autorités administratives. De manière quasi-concomitante, le Parlement a récemment adopté la loi relative à la lutte contre la manipulation de l’information, introduisant la possibilité d’engager une procédure judiciaire pour suspendre la diffusion d’une fausse information avant un scrutin national.

    Si les « fake news », notamment popularisées par Donald Trump en ciblant les médias, ont mobilisé les débats au cours des derniers mois, c’est que ce phénomène est suffisamment sérieux au point de constituer un danger pour les démocraties. A l’heure des réseaux sociaux, de l’immédiateté de l’information, l’enjeu n’est rien moins que de rebâtir un lien de confiance démocratique en luttant contre les tentatives de manipulations de l’opinion.

    Pourtant, ce phénomène des « infox » n’est pas propre à notre XXIe siècle baigné de nouvelles technologies. Dans les faits, il est possible de le faire remonter à chaque fois que de nouvelles technologies de diffusion de l’information ont été inventées. De façon quasi-systématique, les autorités décidant d’interdire ou de réglementer l’usage de ces nouveaux outils, car considérés comme de potentielles sources de déstabilisation. Les débuts mouvementés de l’invention de l’imprimerie par Gutenberg, tantôt favorisée puis interdits par l’Église et par certains rois, attestent que le pouvoir s’est toujours méfié de ces innovations pouvant devenir des armes de propagande. Du Moyen Âge (l’Église empêchant la publication d’ouvrages hérétiques et de traductions des Saintes Écritures en langue vernaculaire) en passant par la Renaissance (l’Église empêchant l’impression de « mauvais livres » dont le Nouveau Testament traduit par Luther en 1521), les mêmes questions surgissaient : comment s’assurer de la maîtrise des nouveaux outils de communication pour faire prévaloir la « vérité » ?

    La situation que nous vivons actuellement, marquée par cette lutte entre vérités et mensonges n’a rien de nouveau. De façon identique elle a déjà été vécue dans un passé lointain. C’est en Grèce, quatre siècles avant notre ère, qu’une crise est apparue lorsque les sophistes, ces experts du langage, Protagoras en tête, démontrèrent que la parole ne « décrit jamais les choses telles qu’elles sont, mais seulement telles qu’on les perçoit » précise le philosophe François-Xavier Bellamy. Outre que cette affirmation fit voler en éclats la pensée grecque fondée sur la vérité du logos et dans sa capacité à dire les choses vraies, il s’en suivit que la théorie des sophistes amena le relativisme absolu des idées et des opinions : du fait que chacun devient la seule mesure possible de la pertinence de son discours, la vérité absolue n’est donc pas atteignable puisque tout change sans cesse sous le coup de nos perceptions ; celles-ci alimentant nos opinions personnelles.

    Ce relativisme introduit par les sophistes, fondé sur l’idée que « l’Homme est la mesure de toutes choses de celles qui sont, du fait qu’elles sont ; de celles qui ne sont pas, du fait qu’elles ne sont pas  », est au cœur des « fake news ». Abreuvés d’un flot incessant de nouvelles sans hiérarchie les unes par rapport aux autres, les réseaux sociaux regorgent d’idées de toutes natures qui sont, pour ceux qui les expriment, leurs propres vérités par ailleurs instantanément partagées avec d’innombrables communautés. Il s’ensuit de cette situation d’hyper-communication et de relativisme absolu qu’il n’est presque plus possible de communiquer du fait que quand on peut tout dire, on ne dit plus rien. C’est quand toutes les idées se valent, qu’il devient presque impossible de mettre en commun ses idées, c’est quand toutes les paroles sont des « vérités », qu’il devient difficile de trier le vrai du faux.

    Bien sûr, Protagoras était à mille lieues de se douter que cette crise du logos qu’il avait engendré atteindrait un tel paroxysme avec l’usage immodéré de la parole servant en cela à propager des contre-vérités. En tout bon philosophe qu’il était, nul doute qu’il se serait rangé aux côtés de ceux qui tentent de rétablir les vérités, tout du moins luttent contre les mensonges, ces tiers de confiance investis dans la lutte contre les « infox » - citoyens, journalistes, législateurs … - et dont nous avons tant besoin pour rétablir l’éthique et la sincérité du débat public.

    –--------------------

    () Philippe Boyer est directeur de l’innovation à Covivio (le nouveau nom de Foncière des régions).