city:télécom paristech

  • Les machines ne font « pas encore » mieux que les humains pour interpréter les émotions
    https://linc.cnil.fr/fr/itw-chloe-clavel-les-machines-ne-font-pas-encore-mieux-que-les-humains-pou

    LINC s’est entretenu avec Chloé Clavel, professeure associée en affective computing à Télécom ParisTech. Spécialiste des systèmes d’interaction humain/agent, elle nous présente ce champ de recherche et nous en expose les différents enjeux. LINC : Comme nous le pointons, dans notre série d’articles dédiés à ce sujet (voir par exemple ici et là), la question de la détection des émotions est dans l’air du temps et nourrit de nombreux fantasmes. Pourtant, ce champ de recherche scientifique est déjà ancien et (...)

    #algorithme #biométrie #émotions

  • Le numérique, à l’origine d’une nouvelle fracture sociale
    https://abonnes.lemonde.fr/emploi/article/2018/07/01/numerique-la-nouvelle-fracture-sociale_5324053_1698637.html

    Les exemples de ce type sont légion. Partout dans le monde, les technologies numériques facilitent l’accès à l’emploi, aident les personnes les plus fragiles à monétiser leur travail ou à améliorer leurs revenus, en vendant, par exemple, des productions artisanales ou en tirant meilleur parti d’une récolte. Un téléphone portable et une connexion Internet vont-ils faire ce que les politiques sociales et celles de développement ne sont pas parvenues à accomplir en quelques décennies : réduire les inégalités ?

    La réalité, analysée par les économistes, est plus complexe. Pour un chauffeur de VTC en Europe sauvé par le numérique, combien de taxis craignent de voir dégringoler leur chiffre d’affaires ? Pour un artisan indien, qui vend ses créations textiles en direct grâce à un site Internet, combien de petits marchands ruinés par les géants du commerce en ligne ?

    S’il crée des emplois, le numérique en supprime aussi. Surtout, il a un autre effet pernicieux sur l’emploi : il le transforme, et pas forcément dans le bon sens. « Dans nombre d’entreprises du numérique, c’est 10 % d’emplois qualifiés et 90 % de gens qui font des cartons », rappelle abruptement Jean-Hervé Lorenzi, le président du Cercle des économistes.

    Emergence d’un « cybertariat »

    Face à ce phénomène, certains n’hésitent pas à parler de l’émergence d’un « cybertariat » – une sorte de prolétariat de l’économie numérique. L’essor des plates-formes, dominées par les acteurs globaux que sont les GAFA (Google, Apple, Facebook, Amazon) et autres Uber, fait pencher davantage encore la balance en faveur du capital.

    « Ces entreprises superstars sont très efficaces et, avec des rendements croissants, elles obtiennent des rentes de monopoles, analyse Patrick Artus. Les nouvelles technologies contribuent ainsi à la hausse des marges bénéficiaires des entreprises et à la baisse de la part des salaires dans le revenu national. »

    Dans un séminaire consacré aux mutations technologiques organisé par France Stratégie, Antonio Casilli, maître de conférences en humanités numériques à Télécom ParisTech et chercheur à l’Ecole des hautes études en sciences sociales (EHESS), et Ursula Huws, professeure à l’université du Hertfordshire (Royaume-Uni), spécialiste du travail et de la mondialisation, décrivent ainsi les emplois générés par les plates-formes : « Ce type de travail humain donne une image bien moins sophistiquée de l’intelligence artificielle, qui apparaît en fait comme un mélange d’automatisation et de “clickwork”, autrement dit, un travail en ligne répétitif et mécanique, à coups de clic de souris. Les travailleurs – pour la plupart asiatiques ou africains – touchent des salaires dérisoires pour “nourrir” les algorithmes qui gèrent les contenus en ligne (par exemple, pour marquer des photos), pour le compte de géants d’Internet comme Google ou Facebook. »

    Le rôle essentiel de la formation

    Et l’économiste de rappeler la théorie du porteur d’eau, chère à Alfred Sauvy : à Paris, au début du XXe siècle, on comptait encore 20 000 porteurs d’eau, que l’installation des canalisations et de l’eau courante a privés de leur gagne-pain. Cela leur a permis de cesser ce travail physiquement ardu pour un autre emploi moins pénible, par exemple dans le secteur des services. « Aujourd’hui, le porteur d’eau doit se transformer en personne capable de vendre des services aux entreprises », conclut Gilbert Cette. Et dans cette transformation, la formation et l’accompagnement ont un rôle essentiel à jouer. D’autant que selon l’OCDE, 65 % des écoliers d’aujourd’hui exerceront à l’âge adulte un métier qui n’existe pas encore !

    #Intelligence_artificielle #Travail #Neurocapitalisme

  • Pour une protection sociale des données personnelles – – S.I.Lex –
    https://scinfolex.com/2018/02/05/pour-une-protection-sociale-des-donnees-personnelles

    Attention, c’est du lourd. Beaucoup de choses à reprendre et peaufiner dans ce texte majeur.

    par Lionel Maurel et Laura Aufrère

    Cette invocation des « droits des travailleurs de la donnée » a selon nous l’immense mérite de replacer la question de la protection des données sur le terrain du droit social. Ce point de vue n’est pas absolument nouveau, car le droit social est déjà convoqué dans les discussions suscitées par « l’ubérisation » et la manière dont des plateformes comme Deliveroo, Uber ou Amazon Mecanical Turk font basculer les individus dans des situations « d’infra-emploi » (Bernard Friot) les privant des protections liées au salariat. Antonio Casilli et Paola Tubaro nous invitent cependant à aller plus loin et à considérer l’ensemble des relations entre les utilisateurs et les plateformes comme un « rapport social de production » que le droit doit saisir en tant que tel. S’il y a un rapport de production assimilable à du travail, alors il faut s’assurer de l’extension des régimes de protection du travail, y compris à ceux qui, de prime abord, seraient présentés comme de simples usagers ou consommateurs.

    Le système actuel reste en effet imprégné d’un individualisme méthodologique qui n’envisage la personne que de manière isolée et indépendamment des rapports sociaux dans laquelle la vie privée est toujours étroitement enchâssée.

    Car la protection sociale renvoie plus fondamentalement à la question des solidarités et celles-ci ne peuvent être uniquement une affaire d’État. Si négociation collective autour de la vie privée il y a, celle-ci doit être le fait d’une société civile collectivement organisée, sans quoi les individus ne pourront échapper aux rapports structurellement inégalitaires auxquels les soumettent les plateformes, et la négociation ne pourra conduire qu’à la soumission collective. L’histoire de la protection sociale nous fournit des exemples de formes de socialisation, au-delà de la sphère du travail, qui permettent de gérer collectivement des institutions mettant en œuvre des droits sociaux, ancrés dans les droits humains (santé, éducation, etc.). Ces formes de socialisation pourraient pareillement être mobilisées pour mettre en œuvre les droits et protéger les usagers des plateformes et les « travailleurs de la donnée ».

    C’est ce fil que nous souhaitons suivre dans cet article qui vise à explorer les différentes dimensions d’une protection des données repensée comme une protection sociale

    Un premier phénomène inédit surgit dans le fait que nous ne soyons pas toujours consciemment parties prenantes d’une certaine expression de notre identité numérique à travers l’exploitation des données, qui émanent pourtant de nos propres pratiques numériques. Le second phénomène inédit, intrinsèquement lié au premier, c’est le degré d’opacité des mécanismes techniques et humains de production des données qui forgent cette identité. Ce qui nous échappe, c’est donc autant la perception (y compris physique) de nos traces et signaux numériques, que les processus de production (partant de l’exploitation de ces signaux et traces) qui forgent une donnée, et enfin leur exploitation ou utilisation sous la forme d’une expression explicite de nos identités et de nos activités.

    Cette triple perte de contrôle justifie à notre sens que notre relation avec les plateformes soit considérée sous l’angle d’une présomption de subordination d’usage.

    Compte tenu de l’existence de fait d’un rapport de production, et des conditions de subordination du travail et des usages qui lui sont attachés, se pose de façon centrale la question des conditions de consentement des individus à participer à l’effort de production. Cette dimension mérite à notre sens, un commentaire et une discussion approfondie.

    En effet c’est l’encastrement des traces numériques de nos comportements individuels dans des comportements collectifs, qui permet leur exploitation en tant que valeurs économiques. Ce qui appelle un premier commentaire : le consentement du point de vue de la gestion des données ne peut pas être uniquement individuel, dans la mesure où celles-ci incluent des informations sur nos relations sociales qui engagent des tiers (pensons par exemple aux carnets d’adresses qui constituent toujours les premières informations que les plateformes essaient de récupérer). D’autre part, le rappel de la dimension collective des relations de production mérite un effort d’explicitation : la reconfiguration de la vie privée sous l’influence des pratiques numériques importe dans l’espace privé la question du travail et du consentement à la participation à un effort de production.

    Or il importe selon nous autant, sinon davantage, de « protéger les droits des travailleurs de la donnée » que de protéger le droit, plus fondamental encore, de ne pas devenir malgré nous de tels travailleurs de la donnée.

    Que reste-t-il des aspirations et du sens investi collectivement dans le travail lorsque l’on exerce des « métiers » de tâcherons développés par les industries numériques ? Au-delà des déséquilibres économiques, c’est la dignité des personnes qui est à protéger face au retour des modèles d’exploitation féodaux. De même, il apparaît combien notre conception du travail sous-tend nos conceptions de la société dans son ensemble, et les perspectives de progrès social et de progrès humain partagé qu’il nous revient de discuter collectivement.

    Si l’enjeu consiste à faire émerger des formes institutionnelles pour accueillir et organiser la négociation collective sur les données, force est de constater qu’il sera difficile d’y parvenir en restant dans le cadre juridique actuel, car celui-ci demeure largement surdéterminé par un paradigme individualiste qui fait de l’individu et de ses choix le centre de gravité de la régulation des données. Dépasser cette approche nécessite de se donner les moyens de refaire le lien entre l’individu isolé autour duquel s’organise le droit à la protection des données et la figure du citoyen en tant qu’agent capable de participer à des discussions collectives.

    Si l’on veut sortir de cette vision « atomiste » de la protection des données, il importe de reconstruire un lien entre la figure de l’individu souhaitant protéger sa vie privée et celle du citoyen capable de se mobiliser avec ses semblables pour défendre les droits humains fondamentaux. Pour ce faire, nous proposons un détour par la notion de « données d’intérêt général », qui avait été envisagée au moment du vote de la loi République numérique comme un moyen de reprendre du pouvoir sur les plateformes. S’appuyer sur cette notion peut s’avérer utile pour trouver un fondement à l’action collective sur les données, mais à condition d’en renverser complètement la signification.

    Nos données personnelles sont produites dans le cadre de comportements qui, par ailleurs, sont identifiés du point de vue du droit comme appartenant à des espaces de la vie civile, là où nous exprimons notre citoyenneté et où nous vivons ensemble. On pourrait donc considérer que les traces numériques relèvent de l’intérêt général en tant que données « citoyennes ». Il y a bien lieu de parler à leur sujet d’intérêt général, parce que les plateformes ne devraient pas avoir le droit d’utiliser ces données sans nous demander un consentement individuellement, mais aussi et surtout, collectivement.

    Comme l’affirment A. Casilli et P. Tubaro dans leur tribune, il est indéniable que la vie privée résulte davantage aujourd’hui d’une négociation collective que de l’application des droits individuels prévus par les textes de loi. Ce processus associe de manière complexe les grandes plateformes, les pouvoirs publics et les individus. Mais dans les circonstances actuelles, le rapport de forces est tellement asymétrique que la voix des individus, et les voies de leur négociation, ne peuvent avoir qu’un poids infinitésimal. Des mobilisations collectives surviennent parfois, mais elles prennent des formes fugitives et éruptives, lorsque les utilisateurs expriment par exemple leur colère lors du rachat d’une plateforme par une autre ou en cas de changement des conditions d’utilisation jugés abusifs. Ces mouvements attestent d’une conscience collective que des droits sont bafoués et méritent d’être défendus, mais sans que cette volonté d’agir trouve une forme institutionnelle dans laquelle se couler.

    Une des pistes pour donner consistance à l’action collective en matière de protection des données réside dans les recours collectifs (actions de groupe ou class actions), qui autorisent des individus à déléguer la défense de leurs droits individuels à des représentants comme des associations, de manière à les faire valoir en justice face aux plateformes.

    Admettre d’emblée que toutes nos activités numériques sont assimilables à du Digital Labor ne revient-il pas à entériner que ce basculement dans des rapports de production est inéluctable et que plus rien de nous permettra d’échapper à cette « financiarisation » forcée de nos vies, y compris dans ce qu’elles ont de plus intime ? Si tel était le cas, la « protection sociale des données » pourrait recevoir la même critique que celle qu’on adresse parfois à la protection sociale tout court : que ces mécanismes, installés dans leur forme actuelle pendant la période fordiste, visent simplement à « compenser » les rapports de domination imposés aux individus dans la sphère du travail et non à remettre en cause le principe même de la soumission qu’ils impliquent.

    Pour conjurer ce risque, il importe selon nous d’être au contraire capable d’opérer des distinctions claires au sein même du continuum de pratiques décrites comme du Digital Labor, en les repositionnant soigneusement par rapport à l’idée de protection sociale.

    En imposant aux individus d’inscrire leur intimité dans un rapport de production, les plateformes provoquent en réalité un effondrement de la distinction entre la sphère publique et la sphère privée, phénomène qu’Hannah Arendt a identifié comme un des mécanismes par lesquels le totalitarisme s’empare des sociétés. Le cadre analytique du Digital Labor traduit donc une certaine vérité, car à l’époque moderne c’est bien le fait de faire apparaître une activité dans l’espace public qui la transforme presque mécaniquement en « travail ». Mais dans le même temps, cette « publicisation forcée » détruit la possibilité de préserver l’intimité, car celle-ci a nécessairement besoin d’une sphère privée séparée pour exister. Si par protection sociale, on entend des dispositifs qu’une société se donne pour échapper aux « risques de désintégration qui se concrétisent chaque fois que les forces marchandes dominent toutes les sphères de la vie sociale », alors on comprend que le cœur même d’une protection sociale des données doit consister en la préservation d’un droit fondamental pour les individus « à ne pas travailler » en tant que condition de possibilité de la vie privée.

    #Données_personnelles #Digital_Labour #Protection_sociale #Négociation_collectives

    • La domination des géants du numérique est-elle un nouveau colonialisme ?
      http://www.telerama.fr/idees/la-domination-des-geants-du-numerique-est-elle-un-nouveau-colonialisme,n546

      Google, Apple, Facebook, Amazon, Microsoft… En offrant nos données personnelles à ces géants aussi puissants que des Etats, nous les laissons nous exploiter, selon le sociologue et chercheur italien #Antonio_Casilli, qui plaide pour un “tournant décolonial numérique”.

      On les dit plus puissants que certains Etats. Les géants de l’économie numérique – Google, Apple, Facebook, Amazon et Microsoft en tête – n’ont qu’à jeter un œil par les fenêtres que nous leur ouvrons sur nos vies pour savoir ce que nous faisons, ce que nous consommons ou ce à quoi nous rêvons. Sans nous en rendre compte, nous produisons chaque jour, gratuitement, et parfois même avec délectation, des données personnelles monétisées et revendues à des entreprises tierces ou à des Etats. L’autonomie des utilisateurs vantée par les plateformes cache en réalité l’exploitation de cette production bénévole : nous travaillons tous gratuitement pour Facebook ou Google. Nous serions même devenus de la « chair à algorithmes », comme le dénonce une tribune datée du 5 février, parue dans Le Monde, invitant chacun à monnayer ses données personnelles.
      Une position à laquelle s’oppose fermement le sociologue et chercheur italien Antonio Casilli, maître de conférences en humanités numériques à Télécom ParisTech et auteur, en 2010, des Liaisons numériques. Vers une nouvelle sociabilité ? (éd. Seuil). Dans un article paru en fin d’année dernière dans la revue académique américaine International Journal of Communication, il met toutefois en parallèle la « mise au travail » des internautes avec les modes de subordination appliqués à ses travailleurs par l’économie numérique. Dans le Nord – les chauffeurs Uber – mais aussi et surtout dans le Sud – les employés des « fermes à clics », ces « micro-travailleurs » engagés pour accomplir de toutes petites tâches censées enrichir ces mêmes plateformes.

      #data #mise_au_travail_généralisée #travail

  • #Conference : Quelles formes peut prendre, en pratique, un #revenu_universel ? Pour quels impacts sur les bénéficiaires et les #finances_publiques ? Le 6 avril prochain, les différents scénarios de mise en œuvre analysés dans le cadre d’un partenariat avec le #Cepremap et l’#IPP feront l’objet d’une première présentation publique, ainsi que les modalités de l’#expérimentation prévue en Gironde.

    PROGRAMME

    14h : Accueil

    Daniel Cohen, directeur du département d’économie de l’Ens et du Cepremap

    Gilles Finchelstein, directeur général de la Fondation Jean-Jaurès

    14h15 : Bas revenus et revenu de base, chiffrage et effets
    redistributifs

    Antoine Bozio, directeur de l’Institut des politiques publiques

    Brice Fabre et Sophie Cottet, économistes à l’Institut des politiques publiques

    Discutant : Thomas Piketty, économiste

    15h : L’expérimentation en Gironde

    Jean-Luc Gleyze, président du Conseil départemental de Gironde

    Denise Greslard-Nedelec, vice-présidente chargée de l’insertion

    Lucile Romanello, économiste à l’Institut des politiques publiques

    15h30 : Le revenu universel, utopies et pratiques

    Julia Cagé, professeure d’économie à Sciences-Po Paris

    Marc de Basquiat, président de l’Association pour l’instauration d’un revenu d’existence (AIRE)

    Jean-Éric Hyafil, Mouvement français pour un revenu de base (MFRB)

    Yannick Vanderborght, chargé de recherches au Fonds national belge de la recherche scientifique (FNRS), enseignant à l’Université catholique de Louvain, membre du Comité exécutif du Basic Income Earth Network (BIEN)

    16h45 : Repenser l’État-Providence

    Maya Bacache, professeure à Télécom Paristech et directrice de la chaire travail de l’École d’économie de Paris

    Bruno Palier, directeur de recherche CNRS, co-directeur du LIEPP (Laboratoire interdisciplinaire d’évaluation des politiques publiques)

    Diana Filippova, éditorialiste, écrivain, connector du think tank OuiShare

    Martin Hirsch, directeur général de l’Assistance publique-Hôpitaux de Paris, ancien président de l’Agence du service civique

    Guillaume Duval, rédacteur en chef d’/Alternatives économiques/

    17h30 : Conclusion

    Daniel Cohen

    En partenariat avec...
    Cepremap Institut des politiques publiques Gironde Alternatives économiques

    06
    AVRIL
    de 14h à 17h30

    ÉCONOMIE / SOCIAL
    Le revenu universel, entre utopie et pratiques
    S’inscrire <http://arc.novagouv.fr/public_doc/refactory_earc/?element=aZdlll%2BOX8mk1aCbX5CR05OPntCmwpfQpddex6KQltCizo%2FFlddflGOXaM>

    Fondation Jean-Jaurès | Accueil
    https://jean-jaures.org

    https://jean-jaures.org/nos-actions/revenu-universel-pourquoi-comment-debat-avec-julien-dourgnon

  • Sur les cartes interactives pour enfants malvoyants - Libération
    http://www.liberation.fr/sciences/2017/01/27/raconte-moi-ta-these-sur-les-cartes-interactives-pour-enfants-malvoyants_

    Pour le deuxième épisode de notre série « Raconte-moi ta thèse », on a rencontré Emeline Brulé dans son laboratoire à Télécom ParisTech. Dans un fablab au sous-sol de l’école, elle surveille un globe en plastique prendre forme sous la tête d’extrusion d’une imprimante 3D. Avec sa formation en design et typographie, comment s’est-elle retrouvée à bricoler des cartes et des plans en reliefs pour les élèves de l’Institut des jeunes aveugles de Toulouse ?

    #cartographie #couleur #son #odeur #mal_voyance #handicap #pédagogie #enfant #géographie #éducation

  • Donald Trump Won Because of Facebook (NY Mag)
    http://nymag.com/selectall/2016/11/donald-trump-won-because-of-facebook.html

    (un point de vue sans doute un peu exagéré)

    The most obvious way in which Facebook enabled a Trump victory has been its inability (or refusal) to address the problem of hoax or fake news. Fake news is not a problem unique to Facebook, but Facebook’s enormous audience, and the mechanisms of distribution on which the site relies — i.e., the emotionally charged activity of sharing, and the show-me-more-like-this feedback loop of the news feed algorithm — makes it the only site to support a genuinely lucrative market in which shady publishers arbitrage traffic by enticing people off of Facebook and onto ad-festooned websites, using stories that are alternately made up, incorrect, exaggerated beyond all relationship to truth, or all three. (To really hammer home the #cyberdystopia aspect of this: A significant number of the sites are run by Macedonian teenagers looking to make some scratch.)

    • La thèse de Fred Turner est que :

      La nouveauté introduite par la campagne de Donald Trump tient à sa capacité à utiliser des médias horizontaux et égalitaires pour leur faire célébrer un individualisme narcissique et mettre en circulation des théories fallacieuses et complotistes.

      Dans cette situation, l’audience de Trump ne se vit pas comme une « masse » et Trump lui-même n’apparaît pas comme un dictateur en devenir ; Trump est une personnalité médiatique de notre temps, et développe un totalitarisme pour notre époque.

      Cette thèse s’appuie sur une analyse historique de ces fameux médias sociaux comme héritiers d’une réflexion menée dès les années 1940 pour faire émerger des médias en mesure de contrer la mécanique de la propagande s’appuyant justement sur des médias de masse « traditionnels ». Cette réflexion s’appuyant sur des principes épistémiques biaisés (en gros théorie des systèmes, cybernétique, individualisme méthodologique...) et une réduction de la propagande à l’exploitation de phénomène psychologique (la personnalité autoritaire versus la personnalité démocratique), elle a accompagnée la montée de cet individualisme autoritaire dont Trump serait le couronnement

      Ainsi, la victoire de Trump n’est pas tant le résultat de sa capacité à instrumentaliser Facebook, mais bien plutôt le produit d’un monde qui permet à Facebook d’exister.

    • Zuckerberg denies Facebook News Feed bubble impacted the election | TechCrunch
      https://techcrunch.com/2016/11/10/zuck-denies-facebook-news-feed-bubble-impacted-the-election
      https://tctechcrunch2011.files.wordpress.com/2016/11/mg_1906.jpg?w=764&h=400&crop=1

      “Personally, I think the idea that fake news on Facebook, of which it’s a very small amount of the content, influenced the election in any way is a pretty crazy idea,” Zuckerberg said.
      (...) Rather than placing blame on the accessibility of facts, he pointed to content engagement as the problem. Zuckerberg noted that Trump’s posts got more engagement than Clinton’s on Facebook.

    • et dans cet article repéré par @kassem

      Digital Redlining After Trump : Real Names + Fake News on Facebook
      https://medium.com/@tressiemcphd/digital-redlining-after-trump-real-names-fake-news-on-facebook-af63bf00bf9e

      This week, Mark Zuckerberg denied that the rash of fake news on Facebook could have influenced public opinion during the election.
      It is notoriously difficult to prove a direct causal link between what people read or consume in media and how they act.
      But, that never stopped Facebook and other social media platforms for accepting credit for spreading democracy during the Arab Spring

    • La principale incitation à la « fake news » n’est pas la conquête du pouvoir, mais sa monétisation (qui elle-même n’est envisageable que dans le capitalisme renversé où la production de marchandise d’ordre 2 est devenu le moteur d’une accumulation de capital fictif dont les techniques numériques sont l’infrastructure adéquate, mais c’est une autre histoire...).

      https://www.theguardian.com/technology/2016/aug/24/facebook-clickbait-political-news-sites-us-election-trump

      Zuckerberg a raison de dire que Facebook n’est pas un média mais une plateforme (numérique).

      We’re a technology company. We’re not a media company. When you think about a media company, you know, people are producing content, people are editing content, and that’s not us. We’re a technology company. We build tools. We do not produce the content. We exist to give you the tools to curate and have the experience that you want, to connect with the people and businesses and institutions in the world that you want.

      Et c’est bien ça le problème !

    • Cette polémique est de plus en plus intéressante — Facebook avait les moyens d’agir et n’en a pas eu le courage :

      Facebook’s Fight Against Fake News Was Undercut by Fear of Conservative Backlash
      http://gizmodo.com/facebooks-fight-against-fake-news-was-undercut-by-fear-1788808204

      “They absolutely have the tools to shut down fake news,” said the source, who asked to remain anonymous citing fear of retribution from the company. The source added, “there was a lot of fear about upsetting conservatives after Trending Topics,” and that “a lot of product decisions got caught up in that.”

    • ce matin c’est grand ménage :

      Google and Facebook took on fake news. The search giant said it would prevent usage of its online advertising service by websites that peddle fake news. Facebook updated the language in its ad policy on misleading or illegal content to include fake news sites. The moves come amid criticism that fake news might have influenced the US election.
      http://qz.com/837312/google-goog-will-try-to-starve-fake-news-sites-of-ad-dollars
      http://qz.com/837474/facebook-fb-is-banning-fake-news-publishers-from-its-ad-network

    • #Renegade Facebook Employees Form Task Force To Battle Fake News
      https://www.buzzfeed.com/sheerafrenkel/renegade-facebook-employees-form-task-force-to-battle-fake-n

      “It’s not a crazy idea. What’s #crazy is for him [Mark Zuckerberg] to come out and dismiss it like that, when he knows, and those of us at the company know, that fake news ran wild on our platform during the entire campaign season,” said one Facebook employee, who works in the social network’s engineering division. He, like the four other Facebook employees who spoke to BuzzFeed News for this story, would only speak on condition of anonymity. All five employees said they had been warned by their superiors against speaking to press, and feared they would lose their jobs if named.

      The employees declined to provide many details on the task force. One employee said “more than dozens” of employees were involved, and that they had met twice in the last six days. At the moment, they are meeting in #secret, to allow members of the group to speak freely and without fear of condemnation from senior management.

      rien de tel chez seenthis pour l’instant !

    • La principale incitation à la « fake news » n’est pas la conquête du pouvoir, mais sa monétisation

      Qui a fait élire Trump ? Pas les algorithmes, mais des millions de “tâcherons du clic” sous-payés

      http://www.casilli.fr/2016/11/17/qui-a-fait-elire-trump-pas-les-algorithmes-mais-des-millions-de-tacherons-du

      1. Pour être plus clair : ce ne sont pas ‘les algorithmes’ ni les ‘fake news’, mais la structure actuelle de l’économie du clic et du digital labor global qui ont aidé la victoire de Trump.
      2. Pour être ENCORE plus clair : la montée des fascismes et l’exploitation du digital labor s’entendent comme larrons en foire.

      La thèse de Casilli mériterait d’être nuancée, notamment en prenant en compte celle de Turner pour montrer que le problème ne date pas de Facebook. Sans compter le fait que si Casilli donne une explication pertinente de la contribution des plateformes numériques à l’élection de Trump, cela n’en fait pas le seul facteur (ni même le principal)

      A ce titre, sa thèse mériterait des approfondissement sur la notion de "structure actuelle de l’économie", qu’elle soit du clic ou pas. La notion de digital labor (qu’il partage avec beaucoup de monde) comme producteur de valeur en prendrait un coup dans l’aile, mais serait mieux articulée avec les ressorts du capitalisme renversé qui sont déterminants depuis les années 1970 et s’appuient sur la montée en puissance du numérique.

    • Casilli donne une explication pertinente de la contribution des plateformes numériques à l’élection de Trump, cela n’en fait pas le seul facteur (ni même le principal)

      Par exemple, le facteur « conditions de santé » est fortement corrélé avec la progression du vote Trump

      Illness as indicator

      http://www.economist.com/news/united-states/21710265-local-health-outcomes-predict-trumpward-swings-illness-indicator

      [...] what the geographic numbers do show is that the specific subset of Mr Trump’s voters that won him the election—those in counties where he outperformed Mr Romney by large margins—live in communities that are literally dying. Even if Mr Trump’s policies are unlikely to alleviate their plight, it is not hard to understand why they voted for change.

    • tu peux développer @ktche, ce que tu entends par « les ressorts du capitalisme renversé » ?

      La capitalisme, c’est l’accumulation de travail sans contenu propre, uniquement appréhendé sur une base temporelle abstraite, et toujours en rapport avec un niveau de productivité que personne ne détermine en particulier mais sur lequel tout le monde doit implicitement s’aligner pour simplement participer : le capital se valorise en « consommant » ce travail productif, mais, paradoxalement, chaque capital individuel tend à le supprimer pour améliorer sa profitabilité face aux concurrents. Ceci pousse à l’augmentation permanente de productivité et donc induit une dynamique contradictoire. Le capitalisme est cette forme de synthèse sociale irrationnelle qui supprime tendanciellement ce qui en constitue la base incontournable.
      Chaque innovation technique de l’ère industrielle a participé à cette dynamique. Certaines en tant qu’innovation dans l’appareil de production, d’autres en tant qu’innovation ouvrant de nouveaux marchés de consommation. Ces dernières offraient une contre-tendance à la dynamique contradictoire et ont permis qu’elle se maintienne par le besoin renouvelé en masse de travail.
      Mais à partir des années 1970, les techniques numériques ont introduit des augmentations massives de productivité dans tous les secteurs productifs, à tel point que même les nouveaux marchés de biens et de services n’ont pu compenser la disparition tendancielle du travail. Pour poursuivre sa dynamique, le capital a enfourché un nouveau cheval : plutôt que de consommer du travail passé, il s’est mis à faire des paris sur un hypothétique travail futur. C’est ainsi que la finance est devenue l’industrie qui sert de locomotive au reste de l’économie, en produisant massivement de la dette et des titres financiers, c’est-à-dire des marchandises qui ne représentaient plus un travail accompli, mais la perspective d’un travail à venir. Cette simulation de valorisation permet au zombie de continuer à marcher. Le capitalisme est ainsi renversé, car il s’agit toujours de capitalisme, i.e. de production marchande, mais s’appuyant sur le futur au lieu du passé. Par ailleurs, cette production financière dont les espoirs de valorisation réussie sont toujours déçus (au niveau de productivité atteint, les besoins en masse de travail ne reviendront plus), doit sans cesse élargir sa production, ne serait que pour compenser la valeur des titres qui arrivent à échéance et qui ne sont pas couverts par une consommation réelle de travail productif. Cette production élargie n’est possible que sur la base d’un déploiement massif des techniques numériques pour en gérer le volume et la complexité.
      Ainsi les techniques numériques constituent un facteur indissociable de la phase « renversée » du capitalisme et ceci à double titre : comme cause du changement extrinsèque puis comme cause matérielle intrinsèque, donc.
      L’approche que je viens d’exposer nécessite de revoir assez profondément la notion de digital labor, tout au moins dans la façon dont le conçoit Casilli, mais aussi celles de Trebor Sholz ou Christian Fuchs contre lesquelles il l’a établie.

    • revoir assez profondément la notion de digital labor

      Contrairement à ce que supposent les approches qui identifient « activité captée par un tiers » et « travail productif (de valeur) », le temps de vie ne peut être transformé en force de travail dans n’importe quelle condition. Il faut d’abord que soit opérée la dissociation entre activité productive (au sens du capital, c’est-à-dire productive de valeur) et activité improductive. Cette dissociation opère à un niveau logique et global (une totalité), mais aussi à l’intérieur de toute activité particulière. La capital ne peut donc pas tout saisir pour en faire une force de travail, il doit d’abord faire le grand partage entre ce qui concourt à sa reproduction (la valorisation de la valeur) et ce qui est indispensable à cette reproduction sans être producteur de valeur en soi (le travail domestique notamment). Cette dissociation est aussi celle des genres, tels qu’ils sont exprimés (y compris dans ces aspects psychologique et subjectif) de façon bien spécifique dans la société capitaliste. Chacun des genres devient le masque de ces deux faces dissociées (mais insécables) : force de travail productif d’un coté pour le masculin, simple reproduction de la vie au sens large de l’autre pour le féminin.
      Ainsi la part d’ombre du travail productif (de valeur), ce sont toutes les activités qui sont improductives, mais qui sont transformées par le mouvement du capital pour servir indirectement à sa reproduction (et qui sont souvent des conditions nécessaires à cette même reproduction). Le capital constitue ainsi tendanciellement ces activités improductives à son image (d’où le coercitif), mais cela n’en fait pas pour autant la possibilité d’y appliquer l’exploitation d’une « force de travail » (et donc une opportunité de reproduire le capital lui-même)

      Contrairement à une vision superficielle du business model des plateformes numériques, telles que Google et Facebook, celles-ci ne vendent pas à leurs clients (les publicitaires et les annonceurs) des profils d’utilisateurs combinant informations démographiques et centres d’intérêts manifestés par leurs usages des contenus fournis par les plates-formes. Elles proposent plutôt un accès (payant) aux calculs effectués par leurs algorithmes (c’est là la véritable marchandise produite par les GAFA) pour lequel le client peut choisir une combinaison de données en entrée (effectivement de type localisation ou mot-clef) et qui fournit en sortie un élément d’interaction (généralement un lien navigable) intégré à la page servie à l’internaute et pointant vers le site du client, par exemple. Cette enchère sur les mots-clefs est juste un processus de formation des prix de marché (forme phénoménale superficielle qui manifeste la valeur dans la sphère de la circulation) et non pas la source d’une valeur reproduisant le capital. Ce processus de répartition de la valeur ne peut pas être décrit, même synthétiquement, comme de l’exploitation, au sens capitaliste, d’un travail abstrait de l’internaute producteur de données-marchandises, car la marchandise stricto sensu est constituée par le calcul, pour lequel le travail abstrait exploité est celui des employés – de Google et Facebook – en charge de la conception, de la réalisation et de la mise en œuvre des infrastructures numériques, aussi bien logicielles que matérielles. Par contre, il est indéniable que pour alimenter ces algorithmes, il faut « exploiter » le temps des internautes en les incitant, par leurs interactions au sein des plate-formes numériques, à remplir en permanence le réservoir de données requises. Mais cette part d’exploitation est celle d’une activité « à coté de l’économie », c’est-à-dire ne contribuant pas à la valorisation de la valeur, mais à la reproduction des conditions nécessaires pour que le processus puissent s’accomplir. En ce sens, le « travail » des internautes est comparable à celui accompli dans la sphère domestique. Et pour les mêmes raisons, ce travail n’est pas producteur de valeur. Car ce n’est pas l’achat ou la vente d’un bien – y compris immatériel – qui constitue la source de la (sur)valeur, mais les circonstances de sa production : a-t-il fait l’objet de l’exploitation d’un surtravail, i.e. de la vente par le travailleur pour un temps donné de sa force de travail, et non pas d’une activité concrète particulière ?

      L’activité d’une plateforme numérique est donc en soi (très) faiblement créatrice de valeur car elle contient (très) peu de travail productif (de survaleur) et que cela ne compense pas son éventuel (très) haut niveau de productivité. Comment expliquer alors la (très) forte valorisation des GAFAM ? Justement par le fait qu’ils opèrent dans la phase renversée du capitalisme où la création de valeur a été remplacée par sa simulation comme moteur de l’économie (y compris "réelle"). Leur valorisation n’est pas le reflet de leur capacité à produire de la valeur, mais à être des "porteurs d’espoirs" pour la production de titres financiers. Cette production doit toujours en effet avoir un point de référence dans "l’économie réelle" (Un indice quelconque corrélé à un espoir de production de valeur et projeté dans le futur). Dans le cas des plateformes numériques, ce point de référence, c’est l’accumulation permanente de données dont tous les acteurs de la sphère financière s’accorde à dire qu’elles sont les ressources pour de futures activités marchandes. Certes, ces activités seront marchandes, mais la quantité de valeur qu’elles produiront sera toujours décevante et il faudra donc se projeter encore dans de nouvelles simulations...

    • La cas exposé dans ce fil https://seenthis.net/messages/524134 mériterait une étude selon l’approche développée ci-dessus.

      Un article référencé (http://www.laviedesidees.fr/A-qui-profite-le-crime.html ) indique notamment :

      En proposant la forme « plateforme », Predpol se distingue des logiciels existants de cartographie du crime installés sur les ordinateurs de bureau (desktop) ou sur le réseau interne de la police (l’intranet). Predpol est une offre d’analyse du crime en temps réel qui prend la forme d’un tableau de bord, téléchargeable sur une simple application. Les données sont stockées sur le cloud. Les forces de police peuvent ainsi externaliser le coût de l’installation et de gestion de serveurs car la location du temps de calcul est intégrée dans l’offre.

      et plus loin :

      Quand bien même les forces de police comprendraient les limites de l’algorithme, elles ne renonceraient pas nécessairement à l’offre de Predpol, car l’efficacité prédictive de l’algorithme n’est pas la question cruciale aux yeux de la police. Pour celle-ci, l’enjeu principal est moins la prédiction des crimes qu’un management simplifié de l’action policière. [...] Ce qui compte, c’est de pouvoir optimiser et surtout contrôler ce temps de présence tactique dans l’espace à risques. Pour ce faire, Predpol intègre les données des systèmes de suivi GPS placés dans les voitures de police, ce qui permet ainsi d’optimiser le dosage de la présence des patrouilles de police selon les secteurs de la ville : le carré prédictif reste rouge sur la carte tant que la police n’y a pas patrouillé, il tourne ensuite au bleu lors des premiers passages, puis il apparaît en vert lorsque le policier a passé le temps suffisant et optimal calculé selon les ressources disponibles [...] Pour un responsable de secteur, Predpol apparaît comme un bon outil pour s’assurer que les policiers font bien leur travail préventif, souvent par la simple présence dissuasive, de manière aléatoire, mais sur une durée optimisée, dans les zones où le risque est estimé le plus haut. L’enjeu du predictive policing est de gérer, selon des critères gestionnaires, l’offre publique de vigilance quotidienne.

      Le « travail » des policiers (i.e. la patrouille) n’est plus qu’un carburant requis pour l’exécution d’un algorithme, qui n’est même pas celui mis principalement en avant comme argument publicitaire alors que c’est bien ce dernier qui fait la valeur (fictive) de la start-up...

      #digitalpolicelabor ?

    • Selon lui, la Toile a accompagné le basculement de l’idéal libéral classique de la liberté d’information vers un nouvel idéal plus radical, celui de la liberté de l’information elle-même. Toute information a le droit de circuler librement sur Internet, indifféremment à son contenu

      indifférence au contenu à la fois comme forme marchande et comme forme numérique.

  • Wikipédia, la connaissance en mutation

    http://www.lemonde.fr/sciences/article/2016/01/11/wikipedia-la-connaissance-en-mutation_4845347_1650684.html

    Quel succès  ! Quin­ze ans après son lancement, le 15 janvier 2001, par les Américains Jimmy Wales et Larry Sanger, l’encyclopédie en ligne Wikipédia reste le premier site non commercial du Web mondial, toujours dans le top 10 des sites les plus fréquentés avec près de 500 millions de visiteurs uniques par mois pour plus de 250 éditions linguistiques. 36,9 millions d’articles sont rédigés, corrigés, améliorés par quelque 2 millions de contributeurs. 800 nouvelles entrées en anglais sont ajoutées chaque jour, 300 en français. La version française tenant la troisième position, avec plus de 1,7 million d’articles, derrière l’anglophone (plus de 5 millions) et la germanique (1,8 million).

    Mais Wikipédia, c’est moins connu, est bien plus qu’une encyclopédie qu’on consulte pour se documenter ou faire ses devoirs scolaires. Elle est devenue aussi un objet de recherche en tant que tel, à l’instar d’une tribu d’Amazonie, d’un programme informatique ou d’un patient. La base de données Scopus, l’une des trois plus importantes du monde, recense ainsi plus de 5 400 articles ayant pour sujet ou pour objet Wikipédia publiés dans des revues, des actes de colloques ou des livres. Quatorze brevets mentionnent même le célèbre site, selon la même Scopus.

    Autre preuve de l’intérêt académique pour le sujet, en juin 2013, à Paris, se tenait un colloque, coorganisé par le CNRS et le CNAM et intitulé «  Wikipédia, objet scientifique non identifié  », avec sociologues, spécialistes de sciences de la communication, informaticiens…(...)

    Mais que font tous les autres chercheurs en tripatouillant Wikipédia ? De récentes publications témoignent du large spectre couvert. Depuis novembre, une équipe japonaise s’est servie des articles de l’encyclopédie pour analyser les suicides de personnalités dans son pays. Des Britanniques ont construit automatiquement un glossaire technique. Des Turcs ont utilisé le site pour repérer à grande échelle des entités dans des corpus de leur langue. Des Français ont proposé un classement des universités reposant sur les citations des établissements au sein de plusieurs versions linguistiques de Wikipédia. Citons encore un article paru en mai, qui prévoit les pics d’apparition de la grippe grâce aux statistiques de visites des pages de l’encyclopédie.

    Les raisons d’un tel engouement sont simples à comprendre. L’objet est vaste, une quinzaine de gigaoctets de textes (pour la version anglaise). D’utilisation gratuite, contrairement aux données de Facebook, Google ou Twitter, pourtant gigantesques et fournies gracieusement par leurs utilisateurs. Même les données de fréquentation sont disponibles pour chaque article ! Les archives sur quinze ans permettent d’avoir du recul historique, tout en ayant un objet toujours rafraîchi. Des versions en plus de 200 langues ouvrent des perspectives pour des comparaisons ou des analyses culturelles. L’ouverture et la transparence offrent aussi ce que les chercheurs adorent : la vérifiabilité et la reproductibilité. Pour parfaire leur bonheur, l’encyclopédie, tel un iceberg, recèle plus de trésors que sa seule vitrine d’articles. Si la version française contient 1,7 million de pages d’articles, elle contient 4,5 fois plus de pages pour les historiques, les discussions et autres coulisses qui font le dynamisme et la réputation du site. Du coup, presque tous les domaines sont couverts. La sociologie, bien sûr, fascinée par cette démocratie d’un nouveau genre, car auto-organisée et reposant sur quelques règles et le consensus. Les chercheurs, profitant de la transparence du site, y ont également étudié le rôle des « vandales » et autres « trolls » qui mettent leurs pattes malveillantes dans les articles. Les inégalités hommes-femmes particulièrement criantes, avec moins de 10 % de contributrices à l’encyclopédie, ont également donné lieu à beaucoup de littérature et de controverses.

    Wikipédia est devenu une sorte de bac à sable dans lequel s’ébrouent les spécialistes du traitement automatique du langage qui disposent là d’un corpus immense pour tester leurs logiciels de reconnaissance de texte, de traduction, d’extraction de sens... C’est aussi le jouet de physiciens, statisticiens, informaticiens... prompts à dégainer leurs outils d’analyse pour en extraire de nouvelles informations ou aider à les visualiser.

    « Après quinze ans, l’intérêt des chercheurs est toujours là. La première phase était très active car l’objet était nouveau. Cela a contribué à l’émergence de nouveaux domaines comme la sociologie quantitative ou l’informatique sociale, rappelle Dario Taraborelli. Puis, à partir de 2007, l’apparition de nouveaux médias sociaux a détourné un peu les recherches, avant un renouveau depuis 2010. Notamment parce que nous sommes le seul site important à publier nos données quotidiennes de trafic. »

    Ce renouveau est aussi tiré par une révolution à venir. Wikipédia est devenu l’un des maillons indispensables à un projet particulièrement ambitieux : rassembler toute la connaissance mondiale et la rendre intelligible par des machines. « Notre ambition est de rendre encore plus intelligents les ordinateurs afin qu’ils soient toujours plus utiles à l’humanité », s’enthousiasme Fabian Suchanek, enseignant-chercheur à Télécom ParisTech et artisan de cette évolution qui vise à transformer Wikipédia et d’autres riches corpus en une source accessible aux ordinateurs.

    De tels changements sont en fait déjà à l’œuvre, discrètement. Dans les moteurs de recherche par exemple, lorsque l’utilisateur tape un nom de célébrité, apparaissent toujours une liste de liens mais aussi un encadré résumant la biographie de la personne cherchée. Et cela automatiquement : le programme a compris où, dans la page Wikipédia, se trouve l’information souhaitée. Mieux. On peut désormais poser des questions explicites, en langage naturel, à ces moteurs : quand Elvis Presley est-il mort ? Où ? Quel est l’âge de François Hollande ?... et recevoir des réponses directes, sans avoir à lire la page contenant l’information.

    Derrière ces prouesses qui n’ont l’air de rien se cachent de nouveaux
    objets : les bases de connaissance. Les plus célèbres sont Yago, DBpedia, Freebase ou Wikidata. Toutes se sont construites en triturant Wikipédia. Et, preuve des enjeux économiques, les plus grands du Web actuel investissent dans ces constructions. En 2010, Google a ainsi racheté Freebase, qui lui sert pour son Knowledge Graph, l’encadré qui fournit des réponses directes aux requêtes. L’entreprise soutient également financièrement Wikidata, une initiative de la fondation Wikimédia. Amazon a racheté EVI en 2012, anciennement connue sous le nom de True Knowledge, une base de connaissances.

    En outre, derrière les assistants personnels vocaux des mobiles, Siri, Cortana ou Google Now, se cachent aussi ces fameuses bases de connaissances. Pour gagner au jeu Jeopardy en 2011, l’ordinateur Watson d’IBM a bien sûr assimilé bon nombre de données, en particulier de Wikipédia, mais dans une forme prédigérée fournie par la base de connaissances Yago.

    Le sujet de ces bases ou graphes de connaissances est très actif. Le chercheur le plus prolixe sur Wikipédia, toutes activités confondues selon Scopus, est par exemple l’Allemand Gerhard Weikum de l’Institut Max-Planck de Sarrebruck, à l’origine de la première base de connaissances, Yago, en 2007. Le second est un Hollandais, Maarten de Rijke, professeur d’informatique à l’université d’Amsterdam, dont les récents travaux utilisent ces graphes. Il est capable de savoir de quoi parle un tweet en repérant les noms et les faits à l’intérieur et en les confrontant à Yago ou DBpedia. Il enrichit aussi les émissions de télévision automatiquement en fournissant des liens sur les tablettes ou téléphones, choisis en fonction du thème de l’émission, déterminé grâce aux bases de connaissances. « Avec ces bases de connaissances, on peut faire des choses qui étaient impossibles auparavant », estime Fabian Suchanek, cofondateur de Yago. Par exemple ? « Extraire de l’information du quotidien Le Monde : combien de femmes en politique au cours du temps ? Quel est l’âge moyen des politiciens ou des chanteurs cités ? Quelles compagnies étrangères sont mentionnées ? », énumère ce chercheur en citant un travail publié en 2013 avec la collaboration du journal. Le New York Times construit sa propre base de connaissances tirées des informations de ses articles. Autre exemple, il devient possible de poser des questions aussi complexes que :

    qui sont les politiciens également scientifiques nés près de Paris depuis 1900 ? Ou, plus simplement, quelle est la part des femmes scientifiques dans Wikipédia ?

    Mais quelle différence entre ces objets et une base de données ou même une page Wikipédia ? Si un humain comprend que dans la phrase « Elvis Presley est un chanteur né le 8 janvier 1935 à Tupelo, Mississippi », il y a plusieurs informations sur son métier, sa date et son lieu de naissance, une machine ne le comprend pas, et ne peut donc répondre à la question simple, pour un humain, « Quand Elvis est-il né ? ». « C’est un peu paradoxal, mais pour un informaticien, notre langage n’est pas structuré et donc un ordinateur ne peut le comprendre ! », souligne ironiquement Fabian Suchanek. Il faut donc transformer les pages en les structurant différemment, en commençant par repérer les entités, les faits et les relations entre eux. Presley est une entité. Sa date de naissance ou son métier sont des faits. « Né le » et « a pour métier » sont les relations. Tout cela peut être codifié en langage informatique.

    Une autre particularité de ces objets est qu’ils ne répertorient pas ces faits et entités dans des tableaux, comme la plupart des bases de données, mais en les organisant en arborescences ou en graphes. Les branches correspondent aux liens entre les entités et les faits. Les informaticiens et mathématiciens ont bien sûr développé les techniques pour interroger ces graphes et y faire des calculs comme dans un vulgaire tableur. Aujourd’hui, Yago « sait » plus de 120 millions de choses sur 10 millions d’entités (personnalités, organisations, villes...). L’avantage-clé est que le rapprochement devient plus simple entre plusieurs bases de connaissances, celles construites sur Wikipédia mais aussi d’autres concernant les musiciens, les coordonnées GPS, les gènes, les auteurs... Le site Linkeddata.org recense ces nouvelles bases et leurs liens entre elles. Petit à petit se tisse un réseau reliant des faits et des entités, alors que, jusqu’à présent, la Toile connecte des pages ou des documents entre eux. Cela contribue au rêve de ce que Tim Berners-Lee, le physicien à l’origine du Web, a baptisé « Web sémantique » en 2001. « Les défis ne manquent pas. La troisième version de Yago est sortie en
    mars 2015. Nous avons déjà traité la question du temps. Nous traitons aussi plusieurs langues. Il faut maintenant s’attaquer aux “faits mous”, c’est-à-dire moins évidents que les dates et lieux de naissance, les métiers, le genre..., estime Fabian Suchanek. En outre, tout ne peut pas se mettre dans un graphe ! »

    Bien entendu, faire reposer la connaissance future de l’humanité sur Wikipédia n’a de sens que si ce premier maillon est solide. La crédibilité de l’encyclopédie a donc été parmi les premiers sujets d’études. Dès 2005, Nature publiait un comparatif entre l’encyclopédie en ligne et sa « concurrente » Britannica, qui ne montrait pas d’énormes défauts pour la première. D’autres études ont été conduites depuis pour estimer l’exactitude, en médecine par exemple, Wikipédia étant l’un des premiers sites consultés sur ces questions. Les résultats sont bien souvent satisfaisants.

    « C’est finalement un peu une question vaine scientifiquement, car les comparaisons sont souvent impossibles. On confronte les articles tantôt à des encyclopédies, tantôt à des articles de revues scientifiques... », estime Gilles Sahut, professeur à l’Ecole supérieure du professorat et de l’éducation, de l’université Toulouse - Jean-Jaurès. « La question a un peu changé de nature. Il faut passer d’une appréciation globale à une appréciation au cas par cas, et donc éduquer afin d’être capable de dire si un article semble biaisé ou complet », précise ce chercheur, qui a soutenu une thèse en novembre 2015 sur la crédibilité de Wikipédia. Il adosse ce constat à une étude menée sur plus de 800 jeunes entre 11 et 25 ans, pour tester la confiance accordée à l’encyclopédie. Celle-ci s’érode avec l’âge et le niveau de scolarité, mais elle remonte dès lors que les élèves participent. « Ils découvrent d’ail leurs, comme leur enseignant, qu’il n’est pas si facile d’écrire dans Wikipédia ! », sourit le chercheur en faisant allusion aux difficultés à entrer dans la communauté. « Certes les wikipédiens sont des maîtres ignorants sur les savoirs, comme le dit le sociologue Dominique Cardon, mais ils sont très savants sur les règles et les procédures ! »

  • Les dérapages incontrôlés des maths

    http://www.lemonde.fr/sciences/article/2015/09/14/les-derapages-incontroles-des-maths_4756789_1650684.html

    Stéphan Clémençon se souvient parfaitement de son arrivée à Télécom Paris Tech, en 2007. A sa grande surprise, ce spécialiste en statistiques découvrait un département en souffrance. «  Il fallait remplir les classes avec des cours de maths financières. Un comble pour une école d’ingénieurs en télécom  ! Alors j’ai bataillé un peu pour convaincre que les statistiques pouvaient servir à bien des choses, surtout avec le ­développement des gigantesques bases de données des géants d’Internet. Aujourd’hui, nous refusons du monde  !  »

    Une preuve de plus que les maths sont partout. Mais pas toujours pour le meilleur  ! Une sonde martienne se disloque à cause d’une erreur d’unité métrique de la NASA en 1999. Chômage et ­dettes des Etats explosent depuis 2008 après l’explosion de bulles financières entretenues par des équations douteuses. L’outil de prédiction de la grippe de ­Google, incarnation de la toute-puissance des algorithmes, surestime de près du double l’épidémie de fin 2012 aux Etats-Unis. En janvier 2013, le Fonds monétaire international concède que son modèle a sous-estimé de moitié l’effet des réductions budgétaires sur la croissance de pays en crise. Ce mois-ci, une équipe annonce n’avoir pu reproduire que 39 résultats de psychologie sur 100 étudiés  : les autres n’étaient pas statistiquement significatifs. Et que dire de la dizaine d’erreurs judiciaires imputées à des calculs probabilistes incorrects recensés par Leila Schneps et Coralie Colmez dans leur livre Les Maths au tribunal (Seuil, 288 p., 20 euros)  ?

    « il est normal que cela finisse par ​intéresser des gens », constate Jean-Pierre Kahane, mathématicien de l’Académie des sciences et membre du Comité consultatif national d’éthique. « C’est une illusion de penser que nos travaux ne serviront pas. Le savoir est là, il peut échapper. Mais il ne faut pas perdre de vue le champ d’applications et les hypothèses de ce savoir », estime Jean-Pierre Bourguignon, mathématicien, actuel président du ​Conseil européen de la recherche.

    Car c’est bien plus souvent du mésusage des mathématiques qu’il s’agit. « Avec les sondages, on continue à commettre des erreurs mathématiques de base, explique Jean Chiche, statisticien et chercheur au Centre de recherches politiques de Sciences Po (Cevipof). Par exemple, considérer comme indépendantes des variables qui ne le sont pas : niveau d’études, profession, lieu d’habitation... On écrit “toutes choses égales par ailleurs”, mais les choses ne sont bien souvent pas égales par ailleurs. »

    Devant l’autorité naturelle liée au ​chiffre et à sa prétendue objectivité et neutralité, il est néanmoins tentant de s’emparer de quelques formules magiques. Nous avons choisi trois domaines – connu pour l’un, largement ignorés pour les deux autres –, afin d’en mesurer les conséquences dramatiques.

    Prévoir les risques financiers

    « Des professeurs de maths enseignent à leurs étudiants comment faire des coups boursiers. Ce qu’ils font relève, sans qu’ils le sachent, du crime contre l’humanité. » Lorsque l’ancien premier ministre Michel Rocard lance cette accusation dans Le Monde, le 3 novembre 2008, beaucoup de mathématiciens sont choqués. Les vendeurs des produits financiers ayant conduit à la crise ne sont- ils pas plus responsables que les équations complexes utilisées pour en estimer le risque ? Pourtant, la crise financière a réveillé les consciences et remis sur le tapis les questions de la responsabilité des scientifiques dans l’usage de leurs découvertes.

    Ouvrons la boîte noire. A l’origine de la crise, il y a des produits financiers complexes comme les CDO (collateralized debt obligations), portefeuilles d’obligations d’entreprises et de prêts bancaires. Pour donner un prix à ce mélange hétérogène, les experts ont ressorti un vieux théorème disant que peu ou prou, on pouvait mêler simplement les différentes valeurs de risques de chacun des titres, faisant fi de certaines corrélations dévastatrices, en vertu desquelles le défaut sur un actif pouvait entraîner la chute de l’autre. Le tout adoubé par les agences de notation.

    La suite est connue : peu chers, abondants et bien notés, les CDO ont eu du succès. Mais l’explosion de défaut de remboursement de crédits immobiliers les a fait soudain chuter ; les prix calculés par les formules hasardeuses n’étant pas ​corrects, tout le monde a voulu s’en débarrasser, accentuant la chute.

    Autre erreur commise : une mauvaise perception de l’aléa. Les banques doivent évaluer leur pire perte en cas d’accident « rare » (une chance sur 100 ou sur 1 000 par exemple). Et constituer des réserves, qui immobilisent des fonds. Des modèles ont été proposés, tenant compte des fluctuations des titres, mais escamotant parfois l’amplitude de ces variations. Comme si le constructeur d’une digue évaluait la fréquence d’une crue sans s’intéresser à la hauteur des vagues. Evidemment, cela a marché tant que les variations étaient peu importantes. Mais celles de 2007-2008, ​- exceptionnelles, ont balayé toutes ces ​estimations.

    « Il fallait des réponses rapides et efficaces, on s’est donc borné à utiliser des modèles un peu frustes. Les responsables ont fait comme si les maths étaient solides alors qu’elles reposaient sur des hypothèses non vérifiées », note Stéphan Clémençon, directeur de la chaire « Apprentissage statistique » à Télécom ParisTech. Charles-Albert Lehalle, chercheur à Capital Fund Management, ancien responsable de la recherche dans la banque d’investissement du Crédit agricole, précise : « Les bases mathématiques de ces modèles de risque étaient bonnes, c’est leur application dans des contextes incorrects qui a posé problème. »

    Libérer les détenus

    Prévenir la récidive. Tous les pays occidentaux ont fait de cet objectif une priorité. Aux Etats-Unis, c’est même une obsession. Au point de mettre en doute la capacité de jugement des juges. Ainsi est né, dans les années 1960, le souci d’objectiver les risques de chaque condamné. Désormais, la plupart des Etats américains disposent de systèmes dits actuariels qui dressent un portrait du criminel. La nature des faits et leur nombre y côtoient l’âge, le sexe, les revenus, la situation de famille, le passé criminel des parents, le statut dans l’emploi... De vingt à quarante données sont ainsi enregistrées. L’ordinateur applique alors un modèle statistique dit de « régression logistique ». Et « score » le risque de récidive... « Les juges s’en inspirent pour fixer une peine ou pour accorder une libération conditionnelle, explique Sonja Starr, professeure de droit à l’université du Michigan, dans la revue Law and Economics Working ​Papers. Mais cette décision est prise en fonction de l’histoire du criminel, pas de son histoire criminelle. »

    « Ça donne un sentiment d’objectivité, mais en réalité, cela pose des problèmes innombrables, notamment éthiques », ​insiste Virginie Gautron, maître de conférences à l’université de Nantes. Ainsi, un condamné qui habite dans un quartier à fort niveau de criminalité est considéré comme plus susceptible de récidiver. Il en va de même si ses parents ont été condamnés. « Pire, se désole la chercheuse : comme on sait que les délinquants sexuels ont souvent été d’abord abusés, avoir été victime devient un handicap dans le profil. C’est la double peine. »

    Les problèmes sont également d’ordre pratique, ajoute Seena Fazel, professeur de psychiatrie légale à l’université d’Oxford. Le psychiatre a passé en revue les nombreux algorithmes utilisés. « Leurs résultats sont assez bons pour prédire la faible récidive. Mais très mauvais avec les prétendus individus dangereux : pas loin de 50 % d’erreurs. »
    Faut-il alors les écarter ? « Je l’ai cru mais, j’ai changé d’avis. Parce qu’au​jourd’hui, nous n’avons plus les moyens budgétaires de bien évaluer tous les délinquants par entretien. Il faut toutefois réserver ce profilage aux cas où une erreur n’aura pas de conséquence grave pour celui qui la subit. Donc l’interdire pour l’attribution d’une peine ou d’une remise en liberté, mais l’autoriser pour déterminer l’ampleur d’un suivi psychiatrique, d’un pointage au commissariat ou d’une cure de désintoxication. »

    C’est la position qu’a retenue le syndicat des personnels de l’administration pénitentiaire, le Snepap- FSU. La France teste dans six départements, et avec la plus grande discrétion, des logiciels de
    « scoring » élaborés au Canada. Pour le syndicat, l’outil doit rester « une béquille » à l’usage des éducateurs, donc interdite aux juges. Sera-t-il entendu ?

    Evaluer les profs

    La place des mathématiques agite ​depuis longtemps le monde de l’école. Les littéraires dénoncent leur rôle dans la sélection des meilleurs élèves. Les physiciens, chimistes et biologistes leur reprochent de transformer leur matière en simple objet de problèmes à résoudre.

    Aux Etats-Unis, un tout autre aspect de la science des nombres a créé le tumulte : l’évaluation des enseignants. Les parents réclamaient de « bons profs » ? Les mathématiciens ont proposé leurs modèles dits « à valeur ajoutée ». Le principe en est assez simple, explique la mathématicienne Cathy O’Neil : « Un élève est soumis chaque année à des tests normalisés. On analyse ses résultats précédents, le niveau de sa classe, sa situation familiale et sociale, etc. Et un logiciel très perfectionné, appuyé sur la méthode dite de régression quantile, lui prédit un score. Puis compare avec son résultat au test. Il ne reste plus qu’à rapprocher tous les élèves d’un même prof pour voir l’influence d’un enseignant. »

    Washington, New York, Los Angeles, Chicago... Une à une, les grandes villes américaines ont adopté le modèle dans les années 2000, pour attribuer des primes ou titulariser les meilleurs enseignants et sanctionner les moins bons. « Sauf que ces tests sont biaisés et même inopérants », poursuit Cathy O’Neil, qui, sur son blog, Mathbabe, chasse les abus de sa science préférée.

    Son confrère John Ewing, président de l’association Math for America, a, de son côté, dressé une liste de dysfonctionnements. Il a notamment constaté qu’il n’y avait aucune corrélation entre les résultats d’un professeur avec une classe et avec une autre ; pas davantage dans ses performances d’une année sur l’autre. Or, conséquence dommageable, devant l’importance de cette évaluation, bien des enseignants renoncent aux apprentissages non notés, ceux qui nourrissent la curiosité et le travail en groupe.

    Conscients que « les résultats aux tests ne traduisent pas l’accomplissement d’un élève », pour reprendre la formule de John Ewing, les enseignants de Chicago ont fait grève en 2012 pour dénoncer le poids des modèles mathématiques. Sans grand résultat. Dans les pays anglo-saxons, l’évaluation par valeur ajoutée gagne du terrain. En France, il n’en est, pour l’heure, pas question.

    Quels remèdes ?

    Promis, juré, les nouvelles règles de la finance vont corriger les errements passés. Il est vrai que les garanties demandées aux banques ont été relevées et que des audits plus sérieux des modèles de risque sont diligentés. « Mais la formation continue pèche toujours. Il serait bon aussi de favoriser la mixité entre les jeunes et les plus expérimentés. Trop souvent, les jeunes devenaient opérationnels sans vraiment connaître les produits sur ​lesquels ils travaillaient », suggère ​le chercheur Charles- Albert Lehalle.

    « A la suite de la multiplication des problèmes liés aux statistiques dans des articles scientifiques, les revues ont monté leur niveau d’exigence pour la publication : augmentation de la taille des échantillons, seuil de significativité plus élevé, dépôt des données brutes et des logiciels utilisés pour répliquer l’expérience... », note aussi Jean-François Royer, de la Société française de statistique.
    Leila Schneps voudrait aussi relever le niveau de l’expertise en justice et dans la police scientifique.

    « Il faudrait systématiquement et dès l’instruction faire appel à un statisticien. Et établir une liste de tests statistiques et de logiciels acceptables dans les enquêtes et les procès », affirme-t-elle. L’institut Newton, de Cambridge, consacrera aux mathématiques en sciences criminelles un cycle d’un semestre, en 2016. « Avec une centaine de mathématiciens du monde entier », souligne Leila Schneps. Mais pour l’heure, aucun Français.

    D’autres, enfin, font remarquer que les mathématiques peuvent être la solution aux problèmes qu’elles ont pu engendrer. En effet, analyser les pannes ou les crises demande aussi des outils complexes...
    C’est loin d’être terminé. Car une vague nouvelle se lève, gourmande en maths : le big data. Ce terme générique désigne le traitement et l’analyse d’une grande masse d’informations (traces numériques laissées sur Internet, ensembles de gènes et de protéines, capteurs divers dans l’industrie ou la santé...). Or il n’est plus possible de travailler sur ces nouveaux objets avec de « vieux » outils. Les étudiants l’ont compris, qui plébiscitent les formations de « scientifiques des données » et leur large panel d’applications pour la sécurité (prévision de la délinquance, lutte antiterroriste), la santé et le bien-être (médicaments personnalisés, recherche de nouvelles molécules...), ou l’économie en général (assurances, commerce...). De plus en plus, des automates prendront des décisions ou anticiperont des phénomènes, sans qu’on sache vraiment ce que contiennent ces boîtes noires.

    « Lors des dernières élections américaines, le marketing politique a été très loin, relève Cathy O’Neil. En disposant de l’adresse IP [numéro d’identification attribué à chaque appareil connecté à un réseau informatique] de chaque individu cible, vous pouvez adapter votre site à son profil... C’est l’asymétrie complète : le candidat sait tout de vous, vous ne savez rien de lui. ​Mathématiquement, c’est solide, mais pour la démocratie, c’est un danger. »

    Les dérapages arriveront forcément. Bien entendu, les mathématiciens n’en ​seront pas les seuls responsables. Mais il leur sera impossible de faire comme si ces outils leur avaient juste échappé.