• Le retour de l’informatique analogique
    http://www.internetactu.net/a-lire-ailleurs/le-retour-de-linformatique-analogique

    Pour cette nouvelle année 2019, l’historien des sciences Georges Dyson a écrit un curieux essai pour le fameux site des « digerati », edge.org. Pour lui, nous assistons à un retour de l’ordinateur analogique, qui constituera la prochaine révolution technologique. Rappelons que la technologie analogique repose sur les ondes (comme dans les (...)

    #A_lire_ailleurs #Futurs #algorithmes #régulation #société


  • Terrorismo, l’Ue punta centinaia di milioni sulla biometria. Tra pressioni delle #lobby e dubbi degli esperti

    L’inchiesta integrale su #Fq_MillenniuM: una giornalista ha seguito passo dopo passo le attività dell’Associazione europea per il biometrico, scoprendo conflitti d’interesse e manovre per convincere il Parlamento ad approvare il progetto. Si prevedono fra l’altro algoritmi in grado di «leggere» i movimenti del volto, stile macchine della verità, per controllare gli extracomunitari in ingresso nell’Unione. Lo scetticismo degli addetti ai lavori. Giannini (Antiterrorismo): «Rischiamo di essere sommersi di dati inutili»


    https://www.ilfattoquotidiano.it/2018/12/22/terrorismo-lue-punta-centinaia-di-milioni-sulla-biometria-tra-pressioni-delle-lobby-e-dubbi-degli-esperti/4851028
    #terrorisme #surveillance #biométrie #technologie #UE #EU #Europe #algorithmes #surveillance_de_masse #anti-terrorisme
    ping @fil


  • Legal by #design : des icônes pour rendre le droit lisible par les humains et les machines ?
    http://www.internetactu.net/2019/02/07/legal-by-design-des-icones-pour-rendre-le-droit-lisible-par-les-humain

    Le constat est ancien. Personne ne lit les Conditions générales d’utilisation (CGU) des services en ligne, ces contrats unilatéraux que nous devons accepter pour les utiliser. Mais si personne ne les lit, pourquoi continuent-ils à être la colonne vertébrale légale d’internet ?, s’interroge un éditorial du New York Times. Il faut (...)

    #Articles #Recherches #algorithmes #complexité #Confiance_et_sécurité #économie_de_l'attention #Interfaces


  • #Parcoursup : la justice enjoint une université à publier son algorithme de tri
    https://www.lemonde.fr/campus/article/2019/02/06/parcoursup-la-justice-enjoint-une-universite-a-publier-son-algorithme-de-tri
    #free_algos #open_source #algorithmes

    Saisi par l’organisation à la suite du refus de l’université des #Antilles de rendre publics les algorithmes locaux utilisés pour classer les candidats, le #juge_administratif a tranché en sa faveur. Dans une décision que Le Monde a pu consulter, le tribunal enjoint l’#université à obtempérer dans un délai d’un mois, sous astreinte de 100 euros par jour de retard. Elle devra communiquer « les procédés #algorithmiques utilisés dans le cadre du traitement des candidatures d’entrée en licence via la plate-forme Parcoursup, ainsi que le ou les codes sources correspondants », peut-on lire dans ce jugement daté du 4 février.

    Cette première #jurisprudence intervient alors qu’un bras de fer est engagé depuis de longs mois entre plusieurs opposants à la réforme Parcoursup – la nouvelle plate-forme d’#admission_post-bac déployée en 2018 – et le ministère de l’enseignement supérieur, autour des critères mis en œuvre par chaque licence universitaire, utilisés pour classer les candidatures des lycéens après examen du dossier scolaire.


  • Off : Macron est complètement à la masse.
    https://www.lepoint.fr/politique/emmanuel-berretta/macron-gilets-jaunes-eric-drouet-est-un-produit-mediatique-01-02-2019-229061

    Selon lui, il est évident que les Gilets jaunes radicalisés ont été « conseillés » par l’étranger. « Les structures autoritaires nous regardent en se marrant, ajoute-t-il. Il ne faut pas se tromper. On est d’une naïveté extraordinaire. [...] Le boxeur, la vidéo qu’il fait avant de se rendre, il a été briefé par un avocat d’extrême gauche. Ça se voit ! Le type, il n’a pas les mots d’un Gitan. Il n’a pas les mots d’un boxeur gitan. Nous n’avons pas construit, comme beaucoup de nations autoritaires, les anticorps au système. Donc, nous, on est des pitres ! La communication officielle ou celle de tous les mouvements traditionnels, elle est très peu active, très peu relayée. Les gens qui sont surinvestis sur les réseaux sont les deux extrêmes. Et après, ce sont des gens qui achètent des comptes, qui trollent. C’est Russia Today, Spoutnik, etc. Regardez, à partir de décembre, les mouvements sur Internet, ce n’est plus BFM qui est en tête, c’est Russia Today. »

    • « Si on veut rebâtir les choses dans notre société, on doit accepter qu’il y ait une hiérarchie des paroles, reprend-il […] »
      […]
      « Il doit y avoir une capacité à rehiérarchiser les paroles. Ça, c’est fondamental. »

      On n’est pas sorti·e·s de l’auberge !

    • Parce que, sinon, le complotisme nourrit l’autoritarisme.

      Dit Jupiter en réclamant l’autorité d’être le seul à s’exprime et de choisir qui doit s’exprimé ou comment doivent parler les gitans.

      Mon passage préféré c’est quand il dit ; « Il y a un vrai travail sur ce qu’est la presse, sur ce qu’est la fonction politique, sur ce que sont les syndicats, les partis politiques. » 2 jours après Schiappa chez Hanouna.

      Il y a des trolls de la fachosphère, de la gauchosphère, de la russosphère mais je reconnais qu’illes n’arrivent pas à la cheville des trolls elyséens.

    • Sinon, encore un thème à la noix venu du shithole country : c’est un coup des russes. (La dernière lubie en date : vague de froid aux États-Unis, on est prié d’imaginer si les Russes ou les Chinois décident de pirater le réseau électrique et de couper le chauffage des Américains…).

    • Dans le droit de réponse de sputniknews.com

      En date du 1er février 2019, le magazine Le Point a publié un article contenant les propos du Président de la République française sur la place des médias dans la crise des Gilets jaunes. Comme le note le journaliste Emmanuel Berretta , le Président affleure la question de « la Russie de Poutine, à travers Russia Today ou Sputnik ».

      Concrètement, Emmanuel Macron déclare que « les gens qui sont surinvestis sur les réseaux sont les deux extrêmes. Et après, ce sont des gens qui achètent des comptes, qui trollent. C’est Russia Today, Spoutnik, etc ».

      un droit de réponse légitime et à force de jouer au con, y’en a bien un qui va sortir son Beretta.


      https://encyclopedie-des-armes.com/index.php/armes/pistolets-modernes/185-9-mm-beretta
      #Macron ! 12 balles dans la peau

    • Je rêve de lire l’article qui fera enfin la jonction (sourcée, pas conspi) entre les pays & multinationales qui utilisent les usines à clics / trolls en russie, aux states, en israël, ici aussi, et comment celles-ci sont en train de faire basculer le World Wild Vraie Vie. Parce que Macron a beau jeu de crier aux vilains boots russes, que ce soit lui, Poutine, Trump et cie, tous, et bien d’autres, utilisent allègrement les #algorithmes comme ça leur chante et sont en train de négocier des accords qui avec google, qui avec facebook, etc. Alors c’est mega saoulant de les voir utiliser cet argument en mode conspirationniste seulement quand ça les chante
      #groumph

    • J’ai regardé le docu d’Arte sur le soft power russe et ça mélangeait tout : les médias russes en langues étrangères (genre France 24 en anglais sauf que nous on dit la vérité, pas ce qui nous arrange) et les usines à trolls étaient mises dans le même sac. Ça décrédibilisait complètement l’enquête sur les usines à trolls et les jeux d’influence en dessous de la ceinture, de remettre en cause les procédés d’influence ultra classiques comme les médias d’État internationaux. D’autant qu’ils ne décryptaient pas les biais de RT ou Spoutnik, ne dénonçaient pas un travail d’info frauduleux mais se contentaient de dire que c’est pas du jeu. Résultat : manque de crédibilité et manque de matière sur les médias en question parce qu’il fallait regarder de près leur travail, pas comme ça de manière surplombante.

      Sur le sujet, une copine US me dit que chez elle, dans les médias plutôt de gauche, on pense que les Gilets jaunes ont été téléguidés par les Russes. Je comprends qu’avec l’affaire Trump cette perspective soit flippante mais ce qu’il me semble, c’est que ce mouvement est vite devenu autre chose, une colère légitime, souvent basée sur des analyses simplistes mais sur des valeurs que je partage : démocratie, égalité. Et que c’est le seul obstacle qui s’est dressé devant la fascisation du pays quand Mélenchon reprend les recettes du FN (BBR, République étriquée, propos agressif sous prétexte de parler vrai), quand Macron poursuit dans le mépris et la manip. Si fascisation des Gilets jaunes il y a, c’est le fait des BFM et compagnie qui servent la soupe à ceux d’entre eux qui sont politisés à l’extrême droite. Il y a quelques semaines les intervenant.es d’une émission se fritaient pour savoir si ces modo fascistes de groupes FB avait profité de leur reconnaissance médiatique pour grossir ou s’ils avaient été reconnus médiatiquement parce qu’ayant grossi par reconnaissance de leurs pairs sur FB. La poule ou l’œuf. En tout cas, cette reconnaissance médiatique fait partie du cercle vicieux.

      En nous montrant des GJ fascistes ou en les accusant de ces trucs nauséabonds, ces salauds pensent éteindre une colère correctement exprimée (et au fond très républicaine, qui interroge le pays sur ses valeurs profondes et sa volonté de vivre ensemble - ce qui perso me laisse un peu indifférente mais c’est un moindre mal) et ne laissent comme perspective que la fascisation. Et ça, c’est inquiétant, qu’on ne rende audible que des colères fascistes et qu’on refuse d’entendre les autres.


  • #Parcoursup : « 25% des filières ont eu recours à des #algorithmes locaux » affirme Pierre Ouzoulias | Public Senat
    https://www.publicsenat.fr/article/politique/parcoursup-25-des-filieres-ont-eu-recours-a-des-algorithmes-locaux-affir

    Alors que les étudiants peuvent s’inscrire dès ce mardi 22 janvier sur la plateforme d’admission post-bac, Parcoursup, la polémique autour des algorithmes locaux continue après que le Défenseur des #droits, Jacques Toubon a émis des critiques et recommandations sur la plateforme

    #enseignement_supérieur #sélection


  • En plein boum des arrestations preventives (#loitravail, #zad, #giletsjaunes...) la justice se prépare à l’arrivée des #algorithmes avec la #legaltech (technologie juridique) 😱
    Encore un article qui devrait être en libre accès, #Mediapart... Avec l’épée de Damocles de la #justice-predictive, c’était l’occasion de montrer du soutien à toutes les #legalteam <3

    https://www.mediapart.fr/journal/france/020119/la-justice-se-prepare-l-arrivee-des-algorithmes?onglet=full

    Cela fait plusieurs années que tout un écosystème de start-ups attend l’ouverture du marché de la justice numérique, aujourd’hui freiné par le manque de décisions en open data et de cadre juridique. Le projet de réforme de la justice en cours d’examen en pose les bases. Certains s’inquiètent de l’application d’algorithmes au monde judiciaire, promettant, à terme, de prédire l’issue des procédures.
    La numérisation de l’État était l’une des grandes promesses d’Emmanuel Macron. La « start-up nation » est censée s’accompagner d’une dématérialisation de tous les aspects des relations entre les institutions et les citoyens. Certains chantiers sont déjà bien avancés, par exemple dans le domaine fiscal avec le paiement des impôts à la source. Le projet de loi sur la justice en cours d’examen au Parlement en ouvre un nouveau : celui de la numérisation de la justice.

    Ce texte introduit quelques mesures qui marquent les premiers signes de l’adaptation de l’institution judiciaire au numérique, ainsi que de son ouverture au marché de la « legaltech » (en français, technologie juridique ou technologie au service du droit). Derrière ce terme se cache tout un écosystème d’acteurs dont le but est de promouvoir la numérisation de la justice : les procédures qui pourront se faire en ligne, les jugements qui pourront être rédigés, voire rendus, par un algorithme ou encore les décisions elles-mêmes, qui formeront ainsi une gigantesque base de données, autrement dit le « big data » dont ont besoin les algorithmes pour tourner.

    Comme pour sa cousine la « civic tech », dont le but est de numériser les institutions démocratiques, la communauté de la legaltech abrite des acteurs convaincus que l’informatique a le pouvoir de transformer la société, mais également de nombreuses entreprises impatientes de « disrupter » un nouveau marché potentiellement colossal. Benjamin Jean appartient à la première catégorie. L’association qu’il préside, Open Law, milite pour un « droit ouvert » et un rapprochement entre le monde du juridique et celui du numérique.

    « Il existe plusieurs définitions possibles de la legaltech, explique-t-il à Mediapart. Au sein d’Open Law, https://openlaw.fr , nous considérons comme acteurs de la legaltech tous ceux qui s’appuient sur des solutions et des outils numériques pour favoriser l’accès au droit et à la justice. La finalité, c’est vraiment l’accès au droit et à la justice. Et c’est l’utilisation du numérique dans cette optique qui caractérise la legaltech. »

    « C’est donc une définition très large, poursuit Benjamin Jean. Les premières formes de legaltech ont été les plateformes de marché, qui permettaient de contacter facilement un avocat. Au sein des cabinets d’avocats et des études de notaires, le numérique permet déjà de faire mieux ce qu’on faisait avant. Il existe pas mal de solutions qui permettent de mieux gérer les documents et toutes les saisies. Ensuite, il y a tout ce qui permet de favoriser la collaboration. Certains nouveaux outils permettent d’aller dans le sens de la pluridisciplinarité, de faire travailler facilement des avocats avec des notaires, avec des huissiers, de favoriser les relations entre les professions réglementées. »

    « Aujourd’hui, explique Benjamin Jean, il y a toute une diversité d’acteurs venant soit du numérique, des pure players, soit des secteurs traditionnels. Les éditeurs juridiques notamment sont tous depuis quelque temps sur le numérique. Il y a également des acteurs institutionnels comme la Dila (Direction de l’information légale et administrative) ou le Parlement. »

    https://vimeo.com/304829590


  • Uberland : l’avenir du travail à l’heure des #algorithmes
    http://www.internetactu.net/2018/12/18/uberland-lavenir-du-travail-a-lheure-des-algorithmes

    Dans Uberland : comment les algorithmes réécrivent les règles du travail (2018, Presse universitaire de Californie, non traduit), la chercheuse Alex Rosenblat (@mawnikr) a synthétisé quatre années de recherche ethnographique avec les conducteurs d’Uber. Un livre où transparaît une vision dystopique du travail où des millions de conducteurs sont gérés par (...)

    #Articles #Services #Economie_et_marchés #eDémocratie #ubérisation



  • affordance.info : L’algorithme de la marque jaune.
    https://www.affordance.info/mon_weblog/2018/12/algorithme-marque-jaune.html
    https://www.affordance.info/.a/6a00d8341c622e53ef022ad37fa10e200c-600wi

    par Olivier Ertzscheid

    Ce qui sera visible sur votre mur sera donc (en plus des critères précédents) choisi en fonction de votre « intérêt » et de votre proximité avec la personne qui a posté un contenu ; en fonction de la « performance » du contenu en lui-même (sa viralité en gros) ; en fonction de la capacité de la personne qui a posté un contenu à poster des contenus en général très performants (ce qui explique la « prime » de visibilité et d’audience ainsi donnée à certains comptes dans le mouvement des Gilets Jaunes) ; en fonction du « type » de contenu (un post avec uniquement du texte sera moins partagé qu’un post avec des liens, qui lui-même sera moins viral qu’une bonne image qui elle-même l’est souvent moins qu’une très courte vidéo) ; et enfin en fonction de « l’actualité » du contenu, le fait qu’il soit récent et/ou qu’il renvoie à des événements récents (et donc toujours capables de mobiliser facilement notre attention).

    Si on regarde, par exemple, le fonctionnement de Google et de son algorithme Pagerank, le problème y semble assez évident et il peut être formulé comme suit :

    Dans une grande très quantité de pages indexées, comment trouver celles répondant le mieux à une requête donnée ? Réponse : les plus « pertinentes » seront les plus « populaires », et cette popularité sera déterminée par le nombre de liens hypertextes pointant vers elles.

    Simple. Basique.
    Et Facebook donc, quel problème cherche-t-il à résoudre ?

    Facebook cherche-t-il à trouver des contenus répondant le mieux à une requête ? Non puisque nous ne posons (presque) jamais de question à Facebook.

    Facebook cherche-t-il à déterminer la popularité et la pertinence d’un contenu ? Non plus. En tout cas pas fondamentalement.

    Fondamentalement, Facebook cherche à nous contraindre à interagir avec des contenus de la plateforme pour disposer de profils « qualifiés » (= décrits et caractérisés aussi finement que possible). Facebook appelle cela « l’engagement ». L’algorithme de Facebook cherche donc à résoudre le problème de l’engagement. Problème qui peut être décrit de la manière suivante :

    Comment inciter des gens à interagir avec des contenus qui ne les concernent pas et qu’ils ne recherchent pas ?

    Je répète : le problème de l’algorithme de Facebook est de savoir comment inciter des gens à interagir avec des contenus qui ne les concernent pas et qu’ils ne recherchent pas.

    Et comme il a mis en place plein d’outils pour y parvenir (souvenez-vous que ses ingénieurs ont suivi des cours de persuasion technologique), pour peu que des contenus nous concernent, même un peu, même de loin, ou que nous les recherchions, même secondairement, même anecdotiquement, le volume d’interaction monte en flèche. Et le chiffre d’affaire de Facebook avec.

    Je le répète donc une troisième (et dernière) fois, le problème de l’algorithme de Facebook est de savoir comment inciter des gens à interagir avec des contenus qui ne les concernent pas et qu’ils ne recherchent pas.

    C’est cela, le problème de Facebook. Juste cela. Et c’est parce que c’est cela le problème de Facebook que nous avons collectivement un problème avec Facebook et que Facebook a également tout un tas de nouveaux problèmes dont il faudra bien qu’il finisse par répondre devant la justice et peut-être pas uniquement devant la justice fiscale. Et si l’algorithme de Facebook cherche à résoudre ce problème particulier c’est à la fois pour entretenir son propre modèle économique et pour pallier son incapacité à produire une forme de désir de questionnement

    Et dans le cadre de ce problème, la question de la “vérité” ou même de la “véracité” est entièrement escamotée au seul profit de l’engagement :

    « Facebook est une machine à produire de l’engagement. Google est une machine à produire de la popularité. Ce qui veut dire que le régime de vérité de Google est celui de la popularité. Est “vrai” dans l’écosystème Google, au regard des critères de l’algorithme de Google, ce qui est populaire. (...) Est “vrai” dans l’écosystème Facebook ce qui permet de produire de l’engagement, d’être “atteint” (le fameux “reach”) et, par effet de bord, de “porter atteinte”. Peu importe que cela soit “vérifiable”, peu importe que cela soit “populaire” (effet de l’illusion de la majorité), il suffit, dans le régime de vérité de Facebook, que cela produise de l’engagement. »

    Cette vidéo et ces images sont bien sûr tout à fait authentiques. Et cette scène et ce qui a suivi c’est ... Bref. « Ces images terribles sont la preuve à charge d’un dérapage, qui tutoie les procédés de vengeance vidéo, ou revenge porn, plus proches de la loi du talion que du maintien de l’ordre », écrit André Gunthert. Mais là n’est pas mon sujet.

    Dès que cette vidéo est « sortie » (c’était en fin de matinée hier), je l’ai vue rediffusée (« partagée ») par un très grand nombre de mes « amis » ou « amis d’amis » Facebook sans qu’ils aient matériellement ou intellectuellement pu prendre le temps d’en vérifier l’authenticité. Sur le coup beaucoup de titres de presse ont bien sûr immédiatement fait des « papiers » pour générer de l’audience mais l’essentiel de ces « papiers » ne comportaient aucun élément factuel sur l’authenticité, de la vidéo, sur sa date de tournage, sur son auteur, etc. Rien. A ce moment là, et « à ce moment là » est le point important de cette phrase, à ce moment là rien ne permettait d’indiquer que cette vidéo et ces images n’étaient pas fausses ou décontextualisées ou montées ou filmées dans d’autres manifestations dans d’autres contextes.

    Et pourtant des gens qui n’ont sociologiquement rien de « Gilets Jaunes », des gens qui sont par ailleurs à peu près parfaitement éduqués à l’image et à son analyse, des gens qui ne se méfient pas « des médias » ou qui n’y voient pas un ennemi, des gens parmi mes amis et mes « amis d’amis » ont instantanément partagé cette vidéo sans jamais se poser la question de son authenticité au moment où ils lui servaient de caisse de résonance. Exactement de la même manière que chez « les Gilets Jaunes », plein de gens rediffusent et partagent exactement de la même manière des vidéos et des images sans jamais se poser la question de leur authenticité au moment où ils les partagent.

    Ma démonstration s’arrête là puisqu’elle n’avait pour objet que d’essayer de vous convaincre que la question des Fake News n’est pas simplement une question « d’éducation aux médias », qu’elle n’est pas non plus une question « de classe » (sociale), mais qu’elle n’est qu’une question de biais cognitif et d’architecture technique toxique. Comme je l’avais déjà analysé ici.

    L’AFP Factuel et d’autres comptes de médias ont ensuite plus tard dans l’après-midi attesté que la vidéo était authentique et ont produit tous les éléments de contexte nécessaires. Mais même si ce temps de Fact-Checking fut très rapide (bravo d’ailleurs aux différents médias), il fut une éternité à l’échelle de la temporalité « virale ».

    #Facebook #Viralité #Culture_numérique #Algorithmes



    • L’analyse de Cathy O’Neil sur la puissance de destruction de certains algorithmes mal intentionnés vaut aussi dans le secteur de l’éducation. Aux Etats-Unis, les étudiants les plus pauvres se retrouvent ainsi inondés de pubs pour des facs de seconde catégorie, qui misent tout là-dessus pour remplir leurs amphis, quand les bonnes facs jouent plus de la réputation de leurs profs : « Apollo Group, maison mère de l’Université de Phoenix, a dépensé en 2010 plus de 1 milliard de dollars pour son marketing, focalisé presque entièrement sur le recrutement. Ce qui donnait 2 225 dollars par étudiant pour le marketing, et seulement 892 pour l’enseignement, raconte Cathy O’Neil. Un chiffre à comparer au Portland Community College, dans l’Oregon, qui dépense 5 953 dollars par étudiant pour l’enseignement et 185 pour le marketing ».

      #parcoursup ?

    • Pour ceux et celles qui ont du mal à voir l’aspect politique de leurs pratiques internet …

      Je suis sur Google, je n’utilise pas Tor ou autres proxy. Je n’ai pas besoin de me cacher : les ravages des algorithmes ne frappent pas des gens comme moi. Au contraire, le système est fait pour favoriser les gens comme moi et fragilise encore les plus fragiles

      #contrôle_social #inégalités


  • Cathy O’Neil : « Les algorithmes exacerbent les inégalités »
    https://www.lemonde.fr/pixels/article/2018/11/07/cathy-o-neil-les-algorithmes-exacerbent-les-inegalites_5380202_4408996.html

    Dans son livre « Algorithmes, la bombe à retardement », Cathy O’Neil, ex-analyste à Wall Street, étudie les dérives de ces algorithmes qui influencent tous les domaines de la société. Education, justice, emploi, politique… Les algorithmes s’invitent dans tous les pans de la société, avec des conséquences parfois dramatiques. C’est, en tout cas, le constat de Cathy O’Neil, ancienne analyste à Wall Street, frappée par le rôle joué par ces « armes de destruction mathématique », comme elle les surnomme, dans (...)

    #algorithme #Compas #domination #criminalité #solutionnisme #BigData #profiling #discrimination

    ##criminalité


  • #Données_fantômes : ce qui n’est pas compté et qui compte

    La #discrimination par la collecte de données et la #catégorisation_informatique.

    Certaines données sont collectées, d’autres sont manquantes. Qu’est-ce qui préside à ce choix ? L’artiste et chercheuse nigérienne-américaine #Mimi_Onuoha interroge les façons dont les individus sont catégorisés. Elle s’attache à mettre en évidence que la #collecte, l’#enregistrement et l’#archivage des données sont liés aux questions de #contrôle et de #pouvoir.

    Le travail de Mimi Onuoha autour des « #banques_de_données_manquantes » éclaire la discrimination et la #violence algorithmique qui est infligée aux #queers, aux #migrants et aux #minorités, souvent exclus et mal représentés par les systèmes de #décision_automatique. Alors que les algorithmes sont de plus en plus utilisés dans l’élaboration des politiques civiques, sociales et culturelles, il devient crucial de réfléchir de manière critique aux politiques qui façonnent nos infrastructures numériques.

    https://gaite-lyrique.net/article/donnees-fantomes-ce-qui-nest-pas-compte-et-qui-compte
    #données #bases_de_données #invisibilité #catégorisation #inclus #exclus #exclusion #algorithmes
    signalé par @fil

    • –-> même si il ne s’agit pas de systèmes de décisions automatiques, cela me fait penser la différence de traitement des #corps des personnes en exil quand ces corps sont en vie ou quand ils ne le sont plus.
      Alors qu’on compte, surveille, contrôle les corps en vie, personne ne se préoccupe de faire de même avec les #morts.

      Là-dessus, un numéro de Plein Droit :
      Homicides aux #frontières

      Depuis des dizaines d’années, des migrant·e·s meurent aux frontières de l’Europe. On peut s’étonner de la différence de traitement réservé aux vivants et aux morts. Pour les premiers, les technologies les plus avancées pour identifier et garantir la traçabilité des nouveaux arrivants.
      Pour les seconds, le silence et l’anonymat. Objet anthropologique par excellence pour appréhender une société donnée, la mort pose d’autres questions dès lors qu’elle touche des personnes qui n’en sont pas membres.


      https://www.cairn.info/revue-plein-droit-2016-2-p-6.htm



  • The smartphone app that can tell you’re depressed before you know it yourself - MIT Technology Review
    https://www.technologyreview.com/s/612266/the-smartphone-app-that-can-tell-youre-depressed-before-you-know-i

    A startup founded in Palo Alto, California, by a trio of doctors, including the former director of the US National Institute of Mental Health, is trying to prove that our obsession with the technology in our pockets can help treat some of today’s most intractable medical problems: depression, schizophrenia, bipolar disorder, post-traumatic stress disorder, and substance abuse.

    Mindstrong Health is using a smartphone app to collect measures of people’s cognition and emotional health as indicated by how they use their phones. Once a patient installs Mindstrong’s app, it monitors things like the way the person types, taps, and scrolls while using other apps. This data is encrypted and analyzed remotely using machine learning, and the results are shared with the patient and the patient’s medical provider.

    The seemingly mundane minutiae of how you interact with your phone offers surprisingly important clues to your mental health, according to Mindstrong’s research—revealing, for example, a relapse of depression.

    The seemingly mundane minutiae of how you interact with your phone offers surprisingly important clues to your mental health, according to Mindstrong’s research—revealing, for example, a relapse of depression.❞

    For now, Insel says, the company is working mainly with seriously ill people who are at risk of relapse for problems like depression, schizophrenia, and substance abuse. “This is meant for the most severely disabled people, who are really needing some innovation,” he says. “There are people who are high utilizers of health care and they’re not getting the benefits, so we’ve got to figure out some way to get them something that works better.” Actually predicting that a patient is headed toward a downward spiral is a harder task, but Dagum believes that having more people using the app over time will help cement patterns in the data.

    There are thorny issues to consider, of course. Privacy, for one: while Mindstrong says it protects users’ data, collecting such data at all could be a scary prospect for many of the people it aims to help. Companies may be interested in, say, including it as part of an employee wellness plan, but most of us wouldn’t want our employers anywhere near our mental health data, no matter how well protected it may be.

    #Données_médicales #Maladie_mentale #Surveillance #Algorithmes_prédictifs #Hubris_scientifique


  • Aucun algorithme, jamais, ne pourra défendre la démocratie - Libération
    https://www.liberation.fr/debats/2018/09/17/aucun-algorithme-jamais-ne-pourra-defendre-la-democratie_1679311

    Pendant les dix dernières années, le combat principal d’activistes, de journalistes, de défenseurs des libertés numériques fut celui visant à limiter l’impact de l’empreinte algorithmique sur nos vies privées et intimes. Ce combat-là est terminé, obsolète et, pour l’essentiel, perdu. C’est un autre combat qu’il nous faut aujourd’hui mener, sur un tout autre front, avec une tout autre urgence et à une tout autre échelle. C’est le combat pour limiter l’impact de l’empreinte algorithmique décisionnelle sur notre vie publique, sur nos infrastructures sociales communes et sur notre destin collectif.

    Corps social

    L’enjeu est de savoir si nous serons capables à très court terme de construire une alternative qui, après le temps numérique de la « désintermédiation » des vingt dernières années, sera celle de formes de remédiations algorithmiques respectueuses du corps social et partant de sa partie la plus fragile, la plus pauvre, et la plus exposée. Alors peut-être, et alors seulement, les questions de gouvernance algorithmique pourront commencer d’être envisagées sereinement.

    Hors l’ensemble de ces conditions, nous allons offrir aux générations futures un monde dans lequel le principal problème ne sera pas que Mark Zuckerberg et quelques autres patrons d’industrie se piquent d’être les gardiens protecteurs de nos démocraties mais qu’ils soient effectivement les seuls encore en position de l’être, tout en n’ayant eux-mêmes qu’une idée très vague et très approximative de la manière de s’y prendre et des chances d’y parvenir.

    Il ne s’agit pas simplement de fake news et de libre arbitre. Il ne s’agit pas simplement de la liberté de l’information ou de la liberté de la presse. Il ne s’agit pas simplement d’algorithmes, de plateformes, d’Etats et de nations. Il ne s’agit pas simplement d’intelligences humaines et d’autres « artificielles ». Il s’agit de la liberté des peuples. Il s’agit de la liberté tout court.

    (1) le projet Solid porté par Tim Berners Lee pourrait en être une première approche.

    Olivier Ertszcheid est l’auteur de l’Appétit des géants (2017, C&F éditions).

    #Olivier_Ertzscheid #Intelligence_artificielle #Algorithmes #Démocratie



  • Technologie : l’âge sombre
    http://www.internetactu.net/2018/09/10/technologie-lage-sombre

    L’artiste et essayiste James Bridle (@jamesbridle) s’intéresse depuis longtemps aux dysfonctionnements de notre monde moderne. Il observe ce qui ne fonctionne pas : les bugs, les glitchs, les ratés de notre développement technologique… Longtemps, il a regardé les espaces de friction entre technologie et société comme le lieu d’expression et de (...)

    #Articles #Débats #algorithmes #big_data #innovation #RD #réseaux_sociaux #surveillance

    • #pensée_computationnelle

      « L’histoire de l’automatisation n’est pas qu’une histoire de machines qui prennent le travail de travailleurs humains, c’est aussi et avant tout l’histoire d’une concentration du pouvoir en de moins en moins de mains, et une concentration de la compréhension du monde en de moins en moins de têtes. »


  • La guerre du son dans l’industrie musicale : le dessous des cartes par Benjamin Sire 26 Juillet 2018 - le figaro
    http://www.lefigaro.fr/vox/societe/2018/07/26/31003-20180726ARTFIG00239-la-guerre-du-son-dans-l-industrie-musicale-le-des

    Depuis plus de trente ans, une impitoyable guerre mondiale se déroule à l’ombre des studios d’enregistrement et de radiodiffusion, la « Loudness war » ou guerre du volume. Elle aura fait de très nombreuses victimes innocentes qui pour certaines n’ont même pas conscience du préjudice qu’elles ont subi. Les principales d’entre-elles sont nos oreilles, la qualité et la profondeur sonore des productions musicales, et enfin, comme en plusieurs domaines de ce monde, la nuance. Heureusement, par la grâce de nouvelles normes imposées par les plateformes de streaming et différentes autorités, une salutaire marche arrière est en train de s’opérer qui tend à davantage honorer les oreilles mélomanes.


    Du gros son à la bouillie sonore sous l’effet de la concurrence
    Ce conflit souterrain est né au terme des années 1970 dans le monde ultraconcurrentiel des #radios et s’est particulièrement intensifié partout avec le développement incontinent des stations #FM. En résumé, à l’aide de compressions barbares et autres ruses d’ingé-sioux, les radios musicales n’ont eu de cesse de pousser le volume global de leur diffusion pour sonner « plus fort » que le voisin et ainsi mieux hameçonner l’auditeur. Hélas, subissant le diktat des radios, les musiciens et les studios d’enregistrement et de mastering (qui préparent et étalonnent le mixage avant pressage ou diffusion) ont suivi la mode et le volume des productions a augmenté de manière exponentielle au fur et à mesure que les années passaient. Seul problème, à l’heure du numérique, dont le seuil des 0db full scale ne peut être dépassé, cette augmentation du #volume s’est effectuée à base de limitation et de #compression ramenant les passages plus doux des titres au niveau des passages les plus forts, supprimant ainsi l’essentiel de la #dynamique et de la profondeur et élimant certains des instruments ressortant les plus forts dans le mix, comme les batteries.

    Quand l’artiste saborde lui-même son travail
    Mais revenons à nos moutons qui paissent tranquillement à l’ombre des studios. Quand, comme votre serviteur, on œuvre depuis plus de vingt ans dans les méandres du son, à la fois dans la composition, le #mixage et le #mastering, il est une phrase qui revient sans cesse dans le processus de finalisation d’un morceau : « je veux du gros son » . Cette injonction déplaisante aux oreilles reprend l’idée relativement absurde selon laquelle, plus c’est fort, mieux c’est. La « loudness war », dont la plupart des musiciens ignorent l’origine, est tellement ancrée dans les mœurs que les artistes en viennent souvent à préférer massacrer leur propre travail plutôt que de le voir souffrir d’une déficience d’un pauvre petit db au regard du travail de la concurrence. La peur de n’être pas adoubés par les radios ou de voir leurs amis auditeurs monter le volume d’écoute par rapport à une production standard précédemment écoutée conduit à toutes les compromissions. (Ce qui est d’autant plus risible que les #playlists des radios mainstream sont désormais totalement hermétiques aux productions échappant aux majors et autres très gros « indépendants » - qui sont eux-mêmes souvent filiales des majors - pour des raisons qui tiennent aux structures actuelles du marché de la musique). Cet holocauste sonore a pris d’autant plus d’ampleur que le développement du home studio et la propension des éditeurs de #plug-ins de mastering à offrir des outils de gonflement du son aussi médiocres dans les #algorithmes qu’ils emploient qu’efficaces dans des conditions d’écoute approximatives, ont semblé donner à tout un chacun les moyens d’écrabouiller ses maquettes pour les porter au niveau de loudness des plus grosses productions internationales. La qualité, l’équilibre fréquentiel et le relief en moins. Malgré les invitations alléchantes qui pullulent sur le web et vous proposent de vous transformer en ingénieur du son sur la base du visionnage de quatre ou cinq vidéos, la manipulation de la matière sonore est un métier très complexe qui nécessite une lourde formation et une grosse expérience pour qui veut espérer répondre à toutes les problématiques qu’elle pose. De la même manière que les offres de mastering en ligne, « en un clic », comme l’annoncent fièrement leurs promoteurs, se situent en lisière d’arnaque, le travail fourni ne respectant ni les mixages initiaux, ni les normes acceptables de loudness, quand elles ne produisent pas carrément des saturations numériques 1 .

    Mais voilà, outre que nombre de mélomanes, ingénieurs du son et musiciens parmi les plus avertis des perversions sonores nées de la « loudness war » ont manifesté leur mécontentement plus ou moins publiquement, la poursuite de celle-ci a fini par aboutir à des aberrations sonores telles que certains morceaux n’ont plus qu’une plage dynamique de 4 ou 5 db entre leurs parties les plus violentes et celles censées être les plus paisibles, quand ce n’est pas ces derniers moments qui donnent une plus grande perception de volume.

    Et Bob Katz déclencha la contre-révolution
    Le premier frémissement positif a eu lieu en 2013, quand le célèbre ingénieur du son américain #Bob_Katz, farouche opposant à la « loudness war » (oui, la guerre, c’est mal !) a collaboré à la réalisation de la norme sonore de iTunes. Celle-ci s’est située d’entrée autour de -16 LUFS (Loudness Unit relative to full scale), soit très en dessous des mastering standards de l’époque tournant autour de -9 à -6 LUFS. Par la suite toutes les plateformes de streaming se sont mises à adopter des normes proches de cette première tentative, même si l’ensemble d’entre-elles a légèrement relevé leurs standards entre -14 et -12 LUFS. Concrètement cela signifie que si un mastering privé de dynamique dépasse la norme prévue, il est automatiquement baissé par l’algorithme de conversion de la plateforme, se retrouvant à l’arrivée sonnant moins fort qu’un morceau masterisé de manière moins drastique mais respectant la dynamique du titre original. Ainsi, ce dernier type de morceau donnera une plus grande impression de volume sur les parties prévues pour être fortes et une moins grande sur les autres, tandis que le premier morceau ultra compressé sonnera entièrement moins fort, ruinant ainsi les efforts de l’ingénieur de mastering pour répondre à l’injonction « je veux du gros son » de son client.

    Cet effort des plateformes de streaming s’est par ailleurs doublé d’une prise de conscience des autorités de la plupart des pays ainsi que de l’Europe. Pour dire les choses honnêtement, la principale préoccupation des institutions en question a d’abord été de mettre en place un système permettant de limiter la puissance sonore des interprogrammes et #publicités à la télévision et au cinéma davantage que de participer à l’amélioration de la qualité de la production musicale. Ainsi, outre la nébuleuse norme suggestive européenne EBU R128 concernant la plupart des médias, mise en place en 2010 et révisée en 2014, les télévisions ont institué des normes pour limiter la puissance de ces programmes à -23 LUFS, tandis que le cinéma a fait passer la puissance sonore de ses inter-programmes de 85 LeqM (une autre mesure du loudness dans la boîte à outil du secteur) à 82 LeqM.

    Au final si la roue tourne désormais dans le bon sens grâce à la mise en place de nouveaux standards par les plateformes de streaming ou de vidéos musicales comme #YouTube, ce cercle vertueux entraîne une nouvelle complexité pour les professionnels en fonction de la définition du master. Jusqu’à présent, le produit ciblé par les ingénieurs du son était le #CD, pensé de manière à pouvoir répondre aux normes édictées par les radios. Désormais, ce sont a minima deux voire trois masterings spécifiques qui peuvent être considérés selon les hypothèses d’avenir d’un titre 2. Un premier master, ne revenant que très partiellement sur la « loudness war » peut-être proposé à la gravure CD, de manière à flatter davantage les oreilles des auditeurs par un léger gain de dynamique, sans obliger ceux-ci à jongler avec leur télécommande de volume en fonction des disques écoutés. Un deuxième master, se mouvant autour des -12 db LUFS (voir -11 sachant que #Soundcloud n’applique aucune réduction pour le moment) peut-être prévu pour les plateformes de streaming de manière à ne pas être raboté par leur exigeante conversion tout en répondant aux standards moyens de la plupart des plateformes, comme de YouTube. Enfin, un troisième master peut-être prévu pour les radios en mode « loudness war », en pronostiquant que ces dernières finiront par se rendre à la raison en épousant les mœurs du sémillant Bob Katz ou des très madrés #Daft_Punk qui, en réalisant leur album succès planétaire Random Access Memories avait anticipé le mouvement, ne faisant pas dépasser à leur sons le très symbolique -10 Lufs.


  • What HBR Gets Wrong About Algorithms and Bias | Rachel Thomas
    http://www.fast.ai/2018/08/07/hbr-bias-algorithms

    Many people will put more trust in algorithmic decisions than they might in human decisions. While the researchers designing the algorithms may have a good grasp on probability and confidence intervals, often the general public using them will not. Even if people are given the power to override algorithmic decisions, it is crucial to understand if they will feel comfortable doing so in practice. Source: fast.ai


  • Derrière l’algorithme de Parcoursup, un choix idéologique
    https://www.nouvelobs.com/education/20180713.OBS9643/derriere-l-algorithme-de-parcoursup-un-choix-ideologique.html

    Des cartes récemment publiées montrent un résultat consternant depuis la mise en place de l’algorithme de Parcoursup : la diminution de la mobilité des étudiants issus des périphéries crève les yeux. Des responsables politiques et des citoyens, légitimement heurtés par ce constat, s’en saisissent aujourd’hui pour accuser l’algorithme de Parcoursup d’être un « algorithme discriminant ». En cela, ils rejoignent, sans toujours en avoir conscience, ceux qui souhaitent engager en Europe une réflexion pour attribuer une personnalité juridique aux algorithmes.

    Parcoursup est l’un des plus beaux exemples de la gouvernance algorithmique dans laquelle entre actuellement notre société. Nos existences vont être de plus en plus ceinturées par des algorithmes qui vont prendre des décisions pour nous. C’est pourquoi des voix s’élèvent pour défendre l’idée que des citoyens lambdas doivent désormais être associés à leur écriture. Dans le cas de Parcoursup, des enseignants, des parents, des étudiants. Naturellement, ils n’écriront pas les lignes de code C ou Java, mais ils doivent participer à déterminer les choix concrets dont sera porteur l’algorithme.

    Il s’agit en quelque sorte en appeler à une démocratie 3.0 dans laquelle les algorithmes qui nous gouvernent fassent l’objet de débats et soient issus de la réunion de trois types de développeurs : des informaticiens associés aux experts, des citoyens et des politiques. Cette perspective se trouve notamment chez Elinor Ostrom, prix Nobel d’économie en 2009 pour ses travaux sur la gestion des biens communs, ou dans les travaux récents de Bruno Latour sur les initiatives citoyennes dans la gouvernance collective, ainsi que dans des expériences de démocratie algorithmique participative telle que « Code for America », née à Boston, et dont l’une des applications est justement l’accès aux écoles publiques. C’est la voie pour que les algorithmes qui nous gouvernent soient perçus comme équitables et acceptés par la population.

    Euh...


  • Health Insurers Are Vacuuming Up Details About You —… — ProPublica
    https://www.propublica.org/article/health-insurers-are-vacuuming-up-details-about-you-and-it-could-raise-yo

    With little public scrutiny, the health insurance industry has joined forces with data brokers to vacuum up personal details about hundreds of millions of Americans, including, odds are, many readers of this story. The companies are tracking your race, education level, TV habits, marital status, net worth. They’re collecting what you post on social media, whether you’re behind on your bills, what you order online. Then they feed this information into complicated computer algorithms that spit out predictions about how much your health care could cost them.

    #santé #assurance_maladie #Espionnage #données_personnelles #algorithmes


  • YouTuber in row over copyright infringement of his own song
    https://www.bbc.com/news/technology-44726296

    Un auteur qui se fait attraper par le Content ID de YouTube… pour sa propre création !

    Paul Davids thought he had seen it all when it came to YouTube’s copyright protection system.

    The Dutch YouTuber’s most popular videos include him playing famous guitar riffs, comparing different instruments and teaching various guitar skills and techniques.

    “Just like probably all the music YouTubers out there,” he explained in a video to his 625,000 subscribers, “once in a while I get an email stating I’m infringing on someone’s copyrighted material.”

    Paul had been contacted by YouTube to advise him that one of his videos had been flagged for copyright infringement, but in his own words, “this was a little different”.

    The copyright he had apparently infringed upon was his own.

    “It said what song I was infringing on, and what I found was quite shocking,” said Paul.

    “Someone took my track, added vocals and guitar to make their own track, and uploaded it to YouTube, but I got the copyright infringement notice!”

    Paul had been accused of plagiarising his own music - and worse, all the money that video was earning would now be directed towards the person who copied his content.

    #copyright #copyright_madness #algorithmes #YouTube #Ubu_Roi