• affordance.info : L’algorithme de la marque jaune.
    https://www.affordance.info/mon_weblog/2018/12/algorithme-marque-jaune.html
    https://www.affordance.info/.a/6a00d8341c622e53ef022ad37fa10e200c-600wi

    par Olivier Ertzscheid

    Ce qui sera visible sur votre mur sera donc (en plus des critères précédents) choisi en fonction de votre « intérêt » et de votre proximité avec la personne qui a posté un contenu ; en fonction de la « performance » du contenu en lui-même (sa viralité en gros) ; en fonction de la capacité de la personne qui a posté un contenu à poster des contenus en général très performants (ce qui explique la « prime » de visibilité et d’audience ainsi donnée à certains comptes dans le mouvement des Gilets Jaunes) ; en fonction du « type » de contenu (un post avec uniquement du texte sera moins partagé qu’un post avec des liens, qui lui-même sera moins viral qu’une bonne image qui elle-même l’est souvent moins qu’une très courte vidéo) ; et enfin en fonction de « l’actualité » du contenu, le fait qu’il soit récent et/ou qu’il renvoie à des événements récents (et donc toujours capables de mobiliser facilement notre attention).

    Si on regarde, par exemple, le fonctionnement de Google et de son algorithme Pagerank, le problème y semble assez évident et il peut être formulé comme suit :

    Dans une grande très quantité de pages indexées, comment trouver celles répondant le mieux à une requête donnée ? Réponse : les plus « pertinentes » seront les plus « populaires », et cette popularité sera déterminée par le nombre de liens hypertextes pointant vers elles.

    Simple. Basique.
    Et Facebook donc, quel problème cherche-t-il à résoudre ?

    Facebook cherche-t-il à trouver des contenus répondant le mieux à une requête ? Non puisque nous ne posons (presque) jamais de question à Facebook.

    Facebook cherche-t-il à déterminer la popularité et la pertinence d’un contenu ? Non plus. En tout cas pas fondamentalement.

    Fondamentalement, Facebook cherche à nous contraindre à interagir avec des contenus de la plateforme pour disposer de profils « qualifiés » (= décrits et caractérisés aussi finement que possible). Facebook appelle cela « l’engagement ». L’algorithme de Facebook cherche donc à résoudre le problème de l’engagement. Problème qui peut être décrit de la manière suivante :

    Comment inciter des gens à interagir avec des contenus qui ne les concernent pas et qu’ils ne recherchent pas ?

    Je répète : le problème de l’algorithme de Facebook est de savoir comment inciter des gens à interagir avec des contenus qui ne les concernent pas et qu’ils ne recherchent pas.

    Et comme il a mis en place plein d’outils pour y parvenir (souvenez-vous que ses ingénieurs ont suivi des cours de persuasion technologique), pour peu que des contenus nous concernent, même un peu, même de loin, ou que nous les recherchions, même secondairement, même anecdotiquement, le volume d’interaction monte en flèche. Et le chiffre d’affaire de Facebook avec.

    Je le répète donc une troisième (et dernière) fois, le problème de l’algorithme de Facebook est de savoir comment inciter des gens à interagir avec des contenus qui ne les concernent pas et qu’ils ne recherchent pas.

    C’est cela, le problème de Facebook. Juste cela. Et c’est parce que c’est cela le problème de Facebook que nous avons collectivement un problème avec Facebook et que Facebook a également tout un tas de nouveaux problèmes dont il faudra bien qu’il finisse par répondre devant la justice et peut-être pas uniquement devant la justice fiscale. Et si l’algorithme de Facebook cherche à résoudre ce problème particulier c’est à la fois pour entretenir son propre modèle économique et pour pallier son incapacité à produire une forme de désir de questionnement

    Et dans le cadre de ce problème, la question de la “vérité” ou même de la “véracité” est entièrement escamotée au seul profit de l’engagement :

    « Facebook est une machine à produire de l’engagement. Google est une machine à produire de la popularité. Ce qui veut dire que le régime de vérité de Google est celui de la popularité. Est “vrai” dans l’écosystème Google, au regard des critères de l’algorithme de Google, ce qui est populaire. (...) Est “vrai” dans l’écosystème Facebook ce qui permet de produire de l’engagement, d’être “atteint” (le fameux “reach”) et, par effet de bord, de “porter atteinte”. Peu importe que cela soit “vérifiable”, peu importe que cela soit “populaire” (effet de l’illusion de la majorité), il suffit, dans le régime de vérité de Facebook, que cela produise de l’engagement. »

    Cette vidéo et ces images sont bien sûr tout à fait authentiques. Et cette scène et ce qui a suivi c’est ... Bref. « Ces images terribles sont la preuve à charge d’un dérapage, qui tutoie les procédés de vengeance vidéo, ou revenge porn, plus proches de la loi du talion que du maintien de l’ordre », écrit André Gunthert. Mais là n’est pas mon sujet.

    Dès que cette vidéo est « sortie » (c’était en fin de matinée hier), je l’ai vue rediffusée (« partagée ») par un très grand nombre de mes « amis » ou « amis d’amis » Facebook sans qu’ils aient matériellement ou intellectuellement pu prendre le temps d’en vérifier l’authenticité. Sur le coup beaucoup de titres de presse ont bien sûr immédiatement fait des « papiers » pour générer de l’audience mais l’essentiel de ces « papiers » ne comportaient aucun élément factuel sur l’authenticité, de la vidéo, sur sa date de tournage, sur son auteur, etc. Rien. A ce moment là, et « à ce moment là » est le point important de cette phrase, à ce moment là rien ne permettait d’indiquer que cette vidéo et ces images n’étaient pas fausses ou décontextualisées ou montées ou filmées dans d’autres manifestations dans d’autres contextes.

    Et pourtant des gens qui n’ont sociologiquement rien de « Gilets Jaunes », des gens qui sont par ailleurs à peu près parfaitement éduqués à l’image et à son analyse, des gens qui ne se méfient pas « des médias » ou qui n’y voient pas un ennemi, des gens parmi mes amis et mes « amis d’amis » ont instantanément partagé cette vidéo sans jamais se poser la question de son authenticité au moment où ils lui servaient de caisse de résonance. Exactement de la même manière que chez « les Gilets Jaunes », plein de gens rediffusent et partagent exactement de la même manière des vidéos et des images sans jamais se poser la question de leur authenticité au moment où ils les partagent.

    Ma démonstration s’arrête là puisqu’elle n’avait pour objet que d’essayer de vous convaincre que la question des Fake News n’est pas simplement une question « d’éducation aux médias », qu’elle n’est pas non plus une question « de classe » (sociale), mais qu’elle n’est qu’une question de biais cognitif et d’architecture technique toxique. Comme je l’avais déjà analysé ici.

    L’AFP Factuel et d’autres comptes de médias ont ensuite plus tard dans l’après-midi attesté que la vidéo était authentique et ont produit tous les éléments de contexte nécessaires. Mais même si ce temps de Fact-Checking fut très rapide (bravo d’ailleurs aux différents médias), il fut une éternité à l’échelle de la temporalité « virale ».

    #Facebook #Viralité #Culture_numérique #Algorithmes



    • L’analyse de Cathy O’Neil sur la puissance de destruction de certains algorithmes mal intentionnés vaut aussi dans le secteur de l’éducation. Aux Etats-Unis, les étudiants les plus pauvres se retrouvent ainsi inondés de pubs pour des facs de seconde catégorie, qui misent tout là-dessus pour remplir leurs amphis, quand les bonnes facs jouent plus de la réputation de leurs profs : « Apollo Group, maison mère de l’Université de Phoenix, a dépensé en 2010 plus de 1 milliard de dollars pour son marketing, focalisé presque entièrement sur le recrutement. Ce qui donnait 2 225 dollars par étudiant pour le marketing, et seulement 892 pour l’enseignement, raconte Cathy O’Neil. Un chiffre à comparer au Portland Community College, dans l’Oregon, qui dépense 5 953 dollars par étudiant pour l’enseignement et 185 pour le marketing ».

      #parcoursup ?

    • Pour ceux et celles qui ont du mal à voir l’aspect politique de leurs pratiques internet …

      Je suis sur Google, je n’utilise pas Tor ou autres proxy. Je n’ai pas besoin de me cacher : les ravages des algorithmes ne frappent pas des gens comme moi. Au contraire, le système est fait pour favoriser les gens comme moi et fragilise encore les plus fragiles

      #contrôle_social #inégalités


  • #Données_fantômes : ce qui n’est pas compté et qui compte

    La #discrimination par la collecte de données et la #catégorisation_informatique.

    Certaines données sont collectées, d’autres sont manquantes. Qu’est-ce qui préside à ce choix ? L’artiste et chercheuse nigérienne-américaine #Mimi_Onuoha interroge les façons dont les individus sont catégorisés. Elle s’attache à mettre en évidence que la #collecte, l’#enregistrement et l’#archivage des données sont liés aux questions de #contrôle et de #pouvoir.

    Le travail de Mimi Onuoha autour des « #banques_de_données_manquantes » éclaire la discrimination et la #violence algorithmique qui est infligée aux #queers, aux #migrants et aux #minorités, souvent exclus et mal représentés par les systèmes de #décision_automatique. Alors que les algorithmes sont de plus en plus utilisés dans l’élaboration des politiques civiques, sociales et culturelles, il devient crucial de réfléchir de manière critique aux politiques qui façonnent nos infrastructures numériques.

    https://gaite-lyrique.net/article/donnees-fantomes-ce-qui-nest-pas-compte-et-qui-compte
    #données #bases_de_données #invisibilité #catégorisation #inclus #exclus #exclusion #algorithmes
    signalé par @fil

    • –-> même si il ne s’agit pas de systèmes de décisions automatiques, cela me fait penser la différence de traitement des #corps des personnes en exil quand ces corps sont en vie ou quand ils ne le sont plus.
      Alors qu’on compte, surveille, contrôle les corps en vie, personne ne se préoccupe de faire de même avec les #morts.

      Là-dessus, un numéro de Plein Droit :
      Homicides aux #frontières

      Depuis des dizaines d’années, des migrant·e·s meurent aux frontières de l’Europe. On peut s’étonner de la différence de traitement réservé aux vivants et aux morts. Pour les premiers, les technologies les plus avancées pour identifier et garantir la traçabilité des nouveaux arrivants.
      Pour les seconds, le silence et l’anonymat. Objet anthropologique par excellence pour appréhender une société donnée, la mort pose d’autres questions dès lors qu’elle touche des personnes qui n’en sont pas membres.


      https://www.cairn.info/revue-plein-droit-2016-2-p-6.htm



  • The smartphone app that can tell you’re depressed before you know it yourself - MIT Technology Review
    https://www.technologyreview.com/s/612266/the-smartphone-app-that-can-tell-youre-depressed-before-you-know-i

    A startup founded in Palo Alto, California, by a trio of doctors, including the former director of the US National Institute of Mental Health, is trying to prove that our obsession with the technology in our pockets can help treat some of today’s most intractable medical problems: depression, schizophrenia, bipolar disorder, post-traumatic stress disorder, and substance abuse.

    Mindstrong Health is using a smartphone app to collect measures of people’s cognition and emotional health as indicated by how they use their phones. Once a patient installs Mindstrong’s app, it monitors things like the way the person types, taps, and scrolls while using other apps. This data is encrypted and analyzed remotely using machine learning, and the results are shared with the patient and the patient’s medical provider.

    The seemingly mundane minutiae of how you interact with your phone offers surprisingly important clues to your mental health, according to Mindstrong’s research—revealing, for example, a relapse of depression.

    The seemingly mundane minutiae of how you interact with your phone offers surprisingly important clues to your mental health, according to Mindstrong’s research—revealing, for example, a relapse of depression.❞

    For now, Insel says, the company is working mainly with seriously ill people who are at risk of relapse for problems like depression, schizophrenia, and substance abuse. “This is meant for the most severely disabled people, who are really needing some innovation,” he says. “There are people who are high utilizers of health care and they’re not getting the benefits, so we’ve got to figure out some way to get them something that works better.” Actually predicting that a patient is headed toward a downward spiral is a harder task, but Dagum believes that having more people using the app over time will help cement patterns in the data.

    There are thorny issues to consider, of course. Privacy, for one: while Mindstrong says it protects users’ data, collecting such data at all could be a scary prospect for many of the people it aims to help. Companies may be interested in, say, including it as part of an employee wellness plan, but most of us wouldn’t want our employers anywhere near our mental health data, no matter how well protected it may be.

    #Données_médicales #Maladie_mentale #Surveillance #Algorithmes_prédictifs #Hubris_scientifique


  • Aucun algorithme, jamais, ne pourra défendre la démocratie - Libération
    https://www.liberation.fr/debats/2018/09/17/aucun-algorithme-jamais-ne-pourra-defendre-la-democratie_1679311

    Pendant les dix dernières années, le combat principal d’activistes, de journalistes, de défenseurs des libertés numériques fut celui visant à limiter l’impact de l’empreinte algorithmique sur nos vies privées et intimes. Ce combat-là est terminé, obsolète et, pour l’essentiel, perdu. C’est un autre combat qu’il nous faut aujourd’hui mener, sur un tout autre front, avec une tout autre urgence et à une tout autre échelle. C’est le combat pour limiter l’impact de l’empreinte algorithmique décisionnelle sur notre vie publique, sur nos infrastructures sociales communes et sur notre destin collectif.

    Corps social

    L’enjeu est de savoir si nous serons capables à très court terme de construire une alternative qui, après le temps numérique de la « désintermédiation » des vingt dernières années, sera celle de formes de remédiations algorithmiques respectueuses du corps social et partant de sa partie la plus fragile, la plus pauvre, et la plus exposée. Alors peut-être, et alors seulement, les questions de gouvernance algorithmique pourront commencer d’être envisagées sereinement.

    Hors l’ensemble de ces conditions, nous allons offrir aux générations futures un monde dans lequel le principal problème ne sera pas que Mark Zuckerberg et quelques autres patrons d’industrie se piquent d’être les gardiens protecteurs de nos démocraties mais qu’ils soient effectivement les seuls encore en position de l’être, tout en n’ayant eux-mêmes qu’une idée très vague et très approximative de la manière de s’y prendre et des chances d’y parvenir.

    Il ne s’agit pas simplement de fake news et de libre arbitre. Il ne s’agit pas simplement de la liberté de l’information ou de la liberté de la presse. Il ne s’agit pas simplement d’algorithmes, de plateformes, d’Etats et de nations. Il ne s’agit pas simplement d’intelligences humaines et d’autres « artificielles ». Il s’agit de la liberté des peuples. Il s’agit de la liberté tout court.

    (1) le projet Solid porté par Tim Berners Lee pourrait en être une première approche.

    Olivier Ertszcheid est l’auteur de l’Appétit des géants (2017, C&F éditions).

    #Olivier_Ertzscheid #Intelligence_artificielle #Algorithmes #Démocratie



  • Technologie : l’âge sombre
    http://www.internetactu.net/2018/09/10/technologie-lage-sombre

    L’artiste et essayiste James Bridle (@jamesbridle) s’intéresse depuis longtemps aux dysfonctionnements de notre monde moderne. Il observe ce qui ne fonctionne pas : les bugs, les glitchs, les ratés de notre développement technologique… Longtemps, il a regardé les espaces de friction entre technologie et société comme le lieu d’expression et de (...)

    #Articles #Débats #algorithmes #big_data #innovation #RD #réseaux_sociaux #surveillance

    • #pensée_computationnelle

      « L’histoire de l’automatisation n’est pas qu’une histoire de machines qui prennent le travail de travailleurs humains, c’est aussi et avant tout l’histoire d’une concentration du pouvoir en de moins en moins de mains, et une concentration de la compréhension du monde en de moins en moins de têtes. »


  • La guerre du son dans l’industrie musicale : le dessous des cartes par Benjamin Sire 26 Juillet 2018 - le figaro
    http://www.lefigaro.fr/vox/societe/2018/07/26/31003-20180726ARTFIG00239-la-guerre-du-son-dans-l-industrie-musicale-le-des

    Depuis plus de trente ans, une impitoyable guerre mondiale se déroule à l’ombre des studios d’enregistrement et de radiodiffusion, la « Loudness war » ou guerre du volume. Elle aura fait de très nombreuses victimes innocentes qui pour certaines n’ont même pas conscience du préjudice qu’elles ont subi. Les principales d’entre-elles sont nos oreilles, la qualité et la profondeur sonore des productions musicales, et enfin, comme en plusieurs domaines de ce monde, la nuance. Heureusement, par la grâce de nouvelles normes imposées par les plateformes de streaming et différentes autorités, une salutaire marche arrière est en train de s’opérer qui tend à davantage honorer les oreilles mélomanes.


    Du gros son à la bouillie sonore sous l’effet de la concurrence
    Ce conflit souterrain est né au terme des années 1970 dans le monde ultraconcurrentiel des #radios et s’est particulièrement intensifié partout avec le développement incontinent des stations #FM. En résumé, à l’aide de compressions barbares et autres ruses d’ingé-sioux, les radios musicales n’ont eu de cesse de pousser le volume global de leur diffusion pour sonner « plus fort » que le voisin et ainsi mieux hameçonner l’auditeur. Hélas, subissant le diktat des radios, les musiciens et les studios d’enregistrement et de mastering (qui préparent et étalonnent le mixage avant pressage ou diffusion) ont suivi la mode et le volume des productions a augmenté de manière exponentielle au fur et à mesure que les années passaient. Seul problème, à l’heure du numérique, dont le seuil des 0db full scale ne peut être dépassé, cette augmentation du #volume s’est effectuée à base de limitation et de #compression ramenant les passages plus doux des titres au niveau des passages les plus forts, supprimant ainsi l’essentiel de la #dynamique et de la profondeur et élimant certains des instruments ressortant les plus forts dans le mix, comme les batteries.

    Quand l’artiste saborde lui-même son travail
    Mais revenons à nos moutons qui paissent tranquillement à l’ombre des studios. Quand, comme votre serviteur, on œuvre depuis plus de vingt ans dans les méandres du son, à la fois dans la composition, le #mixage et le #mastering, il est une phrase qui revient sans cesse dans le processus de finalisation d’un morceau : « je veux du gros son » . Cette injonction déplaisante aux oreilles reprend l’idée relativement absurde selon laquelle, plus c’est fort, mieux c’est. La « loudness war », dont la plupart des musiciens ignorent l’origine, est tellement ancrée dans les mœurs que les artistes en viennent souvent à préférer massacrer leur propre travail plutôt que de le voir souffrir d’une déficience d’un pauvre petit db au regard du travail de la concurrence. La peur de n’être pas adoubés par les radios ou de voir leurs amis auditeurs monter le volume d’écoute par rapport à une production standard précédemment écoutée conduit à toutes les compromissions. (Ce qui est d’autant plus risible que les #playlists des radios mainstream sont désormais totalement hermétiques aux productions échappant aux majors et autres très gros « indépendants » - qui sont eux-mêmes souvent filiales des majors - pour des raisons qui tiennent aux structures actuelles du marché de la musique). Cet holocauste sonore a pris d’autant plus d’ampleur que le développement du home studio et la propension des éditeurs de #plug-ins de mastering à offrir des outils de gonflement du son aussi médiocres dans les #algorithmes qu’ils emploient qu’efficaces dans des conditions d’écoute approximatives, ont semblé donner à tout un chacun les moyens d’écrabouiller ses maquettes pour les porter au niveau de loudness des plus grosses productions internationales. La qualité, l’équilibre fréquentiel et le relief en moins. Malgré les invitations alléchantes qui pullulent sur le web et vous proposent de vous transformer en ingénieur du son sur la base du visionnage de quatre ou cinq vidéos, la manipulation de la matière sonore est un métier très complexe qui nécessite une lourde formation et une grosse expérience pour qui veut espérer répondre à toutes les problématiques qu’elle pose. De la même manière que les offres de mastering en ligne, « en un clic », comme l’annoncent fièrement leurs promoteurs, se situent en lisière d’arnaque, le travail fourni ne respectant ni les mixages initiaux, ni les normes acceptables de loudness, quand elles ne produisent pas carrément des saturations numériques 1 .

    Mais voilà, outre que nombre de mélomanes, ingénieurs du son et musiciens parmi les plus avertis des perversions sonores nées de la « loudness war » ont manifesté leur mécontentement plus ou moins publiquement, la poursuite de celle-ci a fini par aboutir à des aberrations sonores telles que certains morceaux n’ont plus qu’une plage dynamique de 4 ou 5 db entre leurs parties les plus violentes et celles censées être les plus paisibles, quand ce n’est pas ces derniers moments qui donnent une plus grande perception de volume.

    Et Bob Katz déclencha la contre-révolution
    Le premier frémissement positif a eu lieu en 2013, quand le célèbre ingénieur du son américain #Bob_Katz, farouche opposant à la « loudness war » (oui, la guerre, c’est mal !) a collaboré à la réalisation de la norme sonore de iTunes. Celle-ci s’est située d’entrée autour de -16 LUFS (Loudness Unit relative to full scale), soit très en dessous des mastering standards de l’époque tournant autour de -9 à -6 LUFS. Par la suite toutes les plateformes de streaming se sont mises à adopter des normes proches de cette première tentative, même si l’ensemble d’entre-elles a légèrement relevé leurs standards entre -14 et -12 LUFS. Concrètement cela signifie que si un mastering privé de dynamique dépasse la norme prévue, il est automatiquement baissé par l’algorithme de conversion de la plateforme, se retrouvant à l’arrivée sonnant moins fort qu’un morceau masterisé de manière moins drastique mais respectant la dynamique du titre original. Ainsi, ce dernier type de morceau donnera une plus grande impression de volume sur les parties prévues pour être fortes et une moins grande sur les autres, tandis que le premier morceau ultra compressé sonnera entièrement moins fort, ruinant ainsi les efforts de l’ingénieur de mastering pour répondre à l’injonction « je veux du gros son » de son client.

    Cet effort des plateformes de streaming s’est par ailleurs doublé d’une prise de conscience des autorités de la plupart des pays ainsi que de l’Europe. Pour dire les choses honnêtement, la principale préoccupation des institutions en question a d’abord été de mettre en place un système permettant de limiter la puissance sonore des interprogrammes et #publicités à la télévision et au cinéma davantage que de participer à l’amélioration de la qualité de la production musicale. Ainsi, outre la nébuleuse norme suggestive européenne EBU R128 concernant la plupart des médias, mise en place en 2010 et révisée en 2014, les télévisions ont institué des normes pour limiter la puissance de ces programmes à -23 LUFS, tandis que le cinéma a fait passer la puissance sonore de ses inter-programmes de 85 LeqM (une autre mesure du loudness dans la boîte à outil du secteur) à 82 LeqM.

    Au final si la roue tourne désormais dans le bon sens grâce à la mise en place de nouveaux standards par les plateformes de streaming ou de vidéos musicales comme #YouTube, ce cercle vertueux entraîne une nouvelle complexité pour les professionnels en fonction de la définition du master. Jusqu’à présent, le produit ciblé par les ingénieurs du son était le #CD, pensé de manière à pouvoir répondre aux normes édictées par les radios. Désormais, ce sont a minima deux voire trois masterings spécifiques qui peuvent être considérés selon les hypothèses d’avenir d’un titre 2. Un premier master, ne revenant que très partiellement sur la « loudness war » peut-être proposé à la gravure CD, de manière à flatter davantage les oreilles des auditeurs par un léger gain de dynamique, sans obliger ceux-ci à jongler avec leur télécommande de volume en fonction des disques écoutés. Un deuxième master, se mouvant autour des -12 db LUFS (voir -11 sachant que #Soundcloud n’applique aucune réduction pour le moment) peut-être prévu pour les plateformes de streaming de manière à ne pas être raboté par leur exigeante conversion tout en répondant aux standards moyens de la plupart des plateformes, comme de YouTube. Enfin, un troisième master peut-être prévu pour les radios en mode « loudness war », en pronostiquant que ces dernières finiront par se rendre à la raison en épousant les mœurs du sémillant Bob Katz ou des très madrés #Daft_Punk qui, en réalisant leur album succès planétaire Random Access Memories avait anticipé le mouvement, ne faisant pas dépasser à leur sons le très symbolique -10 Lufs.


  • What HBR Gets Wrong About Algorithms and Bias | Rachel Thomas
    http://www.fast.ai/2018/08/07/hbr-bias-algorithms

    Many people will put more trust in algorithmic decisions than they might in human decisions. While the researchers designing the algorithms may have a good grasp on probability and confidence intervals, often the general public using them will not. Even if people are given the power to override algorithmic decisions, it is crucial to understand if they will feel comfortable doing so in practice. Source: fast.ai


  • Derrière l’algorithme de Parcoursup, un choix idéologique
    https://www.nouvelobs.com/education/20180713.OBS9643/derriere-l-algorithme-de-parcoursup-un-choix-ideologique.html

    Des cartes récemment publiées montrent un résultat consternant depuis la mise en place de l’algorithme de Parcoursup : la diminution de la mobilité des étudiants issus des périphéries crève les yeux. Des responsables politiques et des citoyens, légitimement heurtés par ce constat, s’en saisissent aujourd’hui pour accuser l’algorithme de Parcoursup d’être un « algorithme discriminant ». En cela, ils rejoignent, sans toujours en avoir conscience, ceux qui souhaitent engager en Europe une réflexion pour attribuer une personnalité juridique aux algorithmes.

    Parcoursup est l’un des plus beaux exemples de la gouvernance algorithmique dans laquelle entre actuellement notre société. Nos existences vont être de plus en plus ceinturées par des algorithmes qui vont prendre des décisions pour nous. C’est pourquoi des voix s’élèvent pour défendre l’idée que des citoyens lambdas doivent désormais être associés à leur écriture. Dans le cas de Parcoursup, des enseignants, des parents, des étudiants. Naturellement, ils n’écriront pas les lignes de code C ou Java, mais ils doivent participer à déterminer les choix concrets dont sera porteur l’algorithme.

    Il s’agit en quelque sorte en appeler à une démocratie 3.0 dans laquelle les algorithmes qui nous gouvernent fassent l’objet de débats et soient issus de la réunion de trois types de développeurs : des informaticiens associés aux experts, des citoyens et des politiques. Cette perspective se trouve notamment chez Elinor Ostrom, prix Nobel d’économie en 2009 pour ses travaux sur la gestion des biens communs, ou dans les travaux récents de Bruno Latour sur les initiatives citoyennes dans la gouvernance collective, ainsi que dans des expériences de démocratie algorithmique participative telle que « Code for America », née à Boston, et dont l’une des applications est justement l’accès aux écoles publiques. C’est la voie pour que les algorithmes qui nous gouvernent soient perçus comme équitables et acceptés par la population.

    Euh...


  • Health Insurers Are Vacuuming Up Details About You —… — ProPublica
    https://www.propublica.org/article/health-insurers-are-vacuuming-up-details-about-you-and-it-could-raise-yo

    With little public scrutiny, the health insurance industry has joined forces with data brokers to vacuum up personal details about hundreds of millions of Americans, including, odds are, many readers of this story. The companies are tracking your race, education level, TV habits, marital status, net worth. They’re collecting what you post on social media, whether you’re behind on your bills, what you order online. Then they feed this information into complicated computer algorithms that spit out predictions about how much your health care could cost them.

    #santé #assurance_maladie #Espionnage #données_personnelles #algorithmes


  • YouTuber in row over copyright infringement of his own song
    https://www.bbc.com/news/technology-44726296

    Un auteur qui se fait attraper par le Content ID de YouTube… pour sa propre création !

    Paul Davids thought he had seen it all when it came to YouTube’s copyright protection system.

    The Dutch YouTuber’s most popular videos include him playing famous guitar riffs, comparing different instruments and teaching various guitar skills and techniques.

    “Just like probably all the music YouTubers out there,” he explained in a video to his 625,000 subscribers, “once in a while I get an email stating I’m infringing on someone’s copyrighted material.”

    Paul had been contacted by YouTube to advise him that one of his videos had been flagged for copyright infringement, but in his own words, “this was a little different”.

    The copyright he had apparently infringed upon was his own.

    “It said what song I was infringing on, and what I found was quite shocking,” said Paul.

    “Someone took my track, added vocals and guitar to make their own track, and uploaded it to YouTube, but I got the copyright infringement notice!”

    Paul had been accused of plagiarising his own music - and worse, all the money that video was earning would now be directed towards the person who copied his content.

    #copyright #copyright_madness #algorithmes #YouTube #Ubu_Roi



  • L’#histoire à l’heure du #Big_Data - Sciences | ARTE
    https://www.arte.tv/fr/videos/RC-015617/l-histoire-a-l-heure-du-big-data

    Au croisement de l’histoire et des nouvelles technologies, la #Venice_Time_Machine est un projet ambitieux de numérisation des 10 siècles d’archives accumulées par le puissant Etat Vénitien. Des scientifiques de l’#EPFL à Lausanne et de l’#université_Ca’Foscari de #Venise travaillent ensemble à l’élaboration d’un outil numérique inédit qui fera renaître sous nos yeux la Venise du passé.

    #archives #tomographie #systèmes_d'information_géographique #mégadonnées


  • Algorithmic Accountability : A Primer | Data & Society
    https://datasociety.net/output/algorithmic-accountability-a-primer

    Big decisions about people’s lives are increasingly made by software systems and algorithms. Sorting résumés for job applications, allocating social services, and deciding who sees advertisements for open positions, housing, and products are just a few of the ways in which these software systems shape our lives.

    While algorithmic decision-making can offer benefits in terms of speed, efficiency, and even fairness, bias is routinely introduced into software systems in many ways, including the use of biased training data.

    Often “black boxes” with little transparency or accountability, algorithms can unfairly limit opportunities, restrict services, and produce “technological redlining”–a form of digital data discrimination that uses digital identities and activities to bolster inequality and oppression.

    Algorithmic Accountability: A Primer explores issues of algorithmic accountability, or the process of assigning responsibility for harm when algorithmic decision-making results in discriminatory and inequitable outcomes.

    Currently, there are few consumer or civil rights protections that limit the types of data used to build data profiles or that require the auditing of algorithmic decision-making, even though algorithmic systems can make decisions on the basis of protected attributes like race, income,or gender–even when those attributes are not referenced explicitly–because there are many effective proxies for the same information.

    This brief explores the trade-offs between and debates about algorithms and accountability across several key ethical dimensions, including:

    Fairness and bias;
    Opacity and transparency;
    The repurposing of data and algorithms;
    Lack of standards for auditing;
    Power and control; and
    Trust and expertise.

    #Big_data #Algorithmes #Pouvoir


  • Peut-on modéliser la société ?
    http://www.internetactu.net/2018/04/19/peut-on-modeliser-la-societe

    Vous vous souvenez peut-être de notre article de 2014 sur la Physique sociale, le livre de Sandy Pentland, directeur notamment du Laboratoire de dynamique humaine du MIT. Dans ce livre, Pentland, l’un des pontes du MIT, avançait que l’extraction de la réalité via le #big_data allait rendre possible la (...)

    #Articles #Débats #algorithmes #complexité #science



  • La mauvaise utilisation des données est une caractéristique pas un bug !
    http://www.internetactu.net/2018/04/05/la-mauvaise-utilisation-des-donnees-est-une-caracteristique-pas-un-bug

    Alors que le scandale Cambridge Analytica bat son plein et plonge à nouveau #Facebook dans la tourmente, Ethan Zuckerman (@EthanZ), directeur du Centre pour les médias civiques du Massachusetts Institute of Technology, pour The Atlantic, prend un peu de hauteur. Voilà un peu plus de 17 mois que les Américains (...)

    #Articles #Débats #algorithmes #big_data #Confiance_et_sécurité


  • SNCF : les prix des billets risquent-ils de « mécaniquement exploser » avec la grève ?
    http://abonnes.lemonde.fr/economie/article/2018/03/20/sncf-pourquoi-les-prix-des-billets-risquent-de-mecaniquement-explose

    La direction ne confirme pas cette information. « Aucune décision en ce sens n’a été prise à ce stade », déclare un porte-parole, mais l’entreprise laisse filtrer le fait que le plan de transport sera certainement revu à la baisse . « Les lendemains de grève sont toujours des moments difficiles de reprise, puisque le mouvement se prolonge jusqu’à 8 heures, glisse un responsable. Ces jours précis, nous allégerons probablement l’offre afin de ne pas risquer de promettre ce que nous ne pourrons pas tenir. »

    Cette décision aura-t-elle pour conséquence de faire grimper les prix par le jeu du yield management ? Cette pratique inspirée de la gestion des chambres d’hôtel et consistant à optimiser le prix de chaque siège d’un même train en fonction de la vitesse de réservation et du niveau de la demande est d’usage courant à la SNCF. « La décision a été prise d’augmenter les prix entre les jours de grève », affirme un employé de Voyages SNCF au « Monde ». « Les prix pourraient mécaniquement exploser, ajoute un cadre interne. A moins que la direction décide de limiter la hausse. »

    De son côté, Voyages SNCF « dément formellement », dans un communiqué, toute inflation tarifaire liée à la mécanique du yield management sur les « billets de TGV et Intercités pendant la période de grève. Consciente de la difficulté des clients à s’organiser pour des voyages en avril, la direction de la SNCF porte une attention particulière aux prix des trains les jours de non-grève. Les prix habituellement pratiqués restent les mêmes sur ces journées. »

    Ben tiens, "dément formellement"... et c’est avant la concurrence ;-)

    #Algorithmes #Politique_algorithmes #Prix #Transports #Commerce_électronique



    • Nous le sentions. Nous le pressentions. Elle était là. Tapie dans l’ombre. La revoilà. La lutte des classes. LA LUTTE DES CLASSES. Mais entre temps les plateformes, les algorithmes et les données, sont passés par là.

      Voici donc venu le temps de la lutte des classes, mise en algorithme. Et c’est Facebook cette fois qui s’y colle. A tout seigneur, tout déshonneur.
      La lutte des classes. Mais la lutte algorithmique déclasse.

      Le 1er Février 2018 Facebook a obtenu la publication d’un brevet qu’il avait déposé en Juillet 2016, brevet intitulé « Socioeconomic group classification based on user features ». (disponible en pdf et en intégralité par ici)

      C’est un brevet permettant de prédire le « groupe socio-économique » d’un utilisateur. C’est à dire sa classe sociale. Pourquoi ? Pour le bien de l’humanité et des peuples opprimés. Nan je déconne. Pour permettre aux « tierces-parties » (c’est à dire aux annonceurs) d’améliorer leur ciblage publicitaire.

      #GAFAM, #Facebook, #Big_Data, #algorithmes, #Privacy, #vie_privée, #classisme, #lutte_des_classes, #Réseaux_sociaux


  • Quand les algorithmes se mettent au service de l’emploi - 13/02/2018 - ladepeche.fr
    https://www.ladepeche.fr/article/2018/02/13/2741456-quand-les-algorithmes-se-mettent-au-service-de-l-emploi.html

    Le conseil départemental développe actuellement une plate-forme numérique nommée « Job47 » qui permettra de mettre en relation les bénéficiaires du Revenu de solidarité active (#RSA) avec les #entreprises locales peinant à recruter. Ce « réseau de solidarité pour l’emploi » [sic] devrait être en place au printemps prochain et s’inspire d’une expérience menée par le conseil départemental du Loir-et-Cher. « Job41 » est une première en France, et « Job47 » veut en effet être sa déclinaison locale.

    « En matière de solidarités sociales, nous devons défricher de nouveaux terrains car je considère que la lutte contre le chômage reste une priorité nationale et locale, explique Pierre Camani, président (PS) du département. Ainsi nous mettrons prochainement en place une plate-forme numérique « Job47 » dédiée au retour à l’#emploi des bénéficiaires du RSA et, je l’espère, à l’avenir, d’autres personnes éloignées du marché du travail. Son objectif est de mettre en relations directes entreprises et chômeurs bénéficiaires du RSA. Je m’investirai personnellement notamment auprès des entreprises pour les sensibiliser à l’intérêt de cette démarche. Elle est déjà effective dans d’autres départements dont le Loir-et-Cher, territoire comparable au nôtre à bien des égards. Les premiers résultats s’y avèrent encourageants. »

    Ce service en ligne a été créé en janvier 2017 par cette collectivité, et développé en lien avec une #start-up de Blois, Neolink. La plate-forme fonctionne avec des #algorithmes de « matching » et un dispositif de #géolocalisation. Les allocataires du RSA s’inscrivent et constituent leur CV en ligne. Ils expliquent où ils sont, et quelles sont leurs compétences. De l’autre côté, les entreprises font de même, détaillent les postes ouverts et charge au système informatique de détecter le bon profil : un plombier disponible sur tel canton, un maçon dans un tel village, etc. La recherche est très ciblée et ça marche.

    #recrutement #chômeurs #précaires


  • L’austérité est un algorithme
    http://www.internetactu.net/a-lire-ailleurs/lausterite-est-un-algorithme

    L’excellent webzine Logic (@logic_magazine) revient sur le remplacement récent par le gouvernement australien de services sociaux par un logiciel. Non sans échos aux propos de Virginia Eubanks qui s’intéressait à ce phénomène aux États-Unis, l’écrivaine Gillian Terzis (@gillianterzis) nous montre à quoi ressemble l’austérité automatisée en Australie. En Australie, les (...)

    #A_lire_ailleurs #Enjeux #algorithmes #big_data #eAdministration #pauvreté #politiques_publiques #services_publics #surveillance

    • Austerity is an Algorithm, Gillian Terzis (c’est l’article initial)
      https://logicmag.io/03-austerity-is-an-algorithm

      un extrait du résumé par internet actu...

      Les gens étaient dépourvus de recours pour expliquer ou contester leur situation, comme le soulignent les milliers de témoignages récoltés sur le site NotMyDebt : 29 millions d’appels à Centerlink sont restés sans réponses en 2016 ! L’enquête a montré pourtant que la plupart de ces réclamations étaient mal calculées voire inexistantes. En fait, la méthode de calcul retenue ne parvenait notamment pas à prendre en compte les fluctuations de revenus des travailleurs occasionnels et contractuels, d’où des variations entre le calcul de revenus estimé et le niveau de droit de prestation ouvert. De simples fautes de frappe entre les noms des employeurs des deux systèmes pouvaient générer des demandes de remboursement. Le logiciel, capable de générer 20 000 réclamations automatisées par semaines semblait d’autant plus prolifique que les agences chargées de récupérer les dettes travaillaient à la commission.

      #austérité #droits_sociaux #dette