• Les inquiétudes du #Défenseur_des_droits sur l’#automatisation des #discriminations
    https://www.banquedesterritoires.fr/les-inquietudes-du-defenseur-des-droits-sur-lautomatisation-des

    En 2018, une étude américaine a démontré que certains systèmes de reconnaissance faciale commettaient de nombreuses erreurs dès lors qu’il s’agissait d’identifier des femmes de couleur. Pourquoi ? La base de données sur laquelle « s’entraînait » l’intelligence artificielle montrait une très forte prédominance des profils masculins blancs. Cet exemple fait partie de ceux évoqués par le Défenseur des droits dans une note de 10 pages, publiée à l’issue d’un colloque coorganisé avec la #Cnil fin mai, consacré aux risques d’automatisation des discriminations générés par les #algorithmes.

    https://www.defenseurdesdroits.fr/sites/default/files/atoms/files/synth-algos-num2-29.05.20.pdf

    #biais #intelligence_artificielle #parcoursup #ségrégation #rgpd

  • affordance.info : Je suis un algorithme local.
    https://www.affordance.info/mon_weblog/2020/05/parcoursup-algorithme-local.html

    Je suis un algorithme local.

    Les « algorithmes locaux ». Voilà le terme étrange sous lequel, depuis 2018, on désigne commodément - et pour mieux en dissoudre le sens - les processus de sélection des différents établissements d’enseignements supérieurs dans le cadre de cette machine à fabriquer de la résignation qui s’appelait initialement « APB » (Admission Post-Bac) et aujourd’hui « ParcourSup ».

    Parcoursup est une saloperie et une « procédure » que je combats depuis son lancement. Je la combats en tant qu’enseignant concerné (je suis enseignant-chercheur à l’université de Nantes) et je la combats en tant que parent (un enfant concerné l’année dernière, un qui le sera l’année prochaine, le troisième devrait être sélectionné par un drone nourri à l’IA sur la base d’un prélèvement ADN non consenti au train où vont les choses). Comme parent et comme enseignant je combats et je combattrai toujours la logique de Parcoursup pour deux raisons essentielles.

    La première de ces raisons est qu’elle est, en France, la première mise sous coupe algorithmique totale des possibilités offertes (ou refusées) à toute une génération. Et qu’à ce titre elle est une habituation au forceps à se laisser gouverner, non pas par « des algorithmes », mais par des gens avec des projets politiques dissimulés derrière des algorithmes. Et cette nuance est d’importance. C’est ce qu’explique régulièrement et brillamment Antoinette Rouvroy quant elle parle de « gouvernementalité algorithmique », par exemple lors de cette rencontre avec Le Mouton Numérique :

    « c’est finalement ce désintérêt à la fois pour la singularité des vies et pour leur inscription dans des contextes collectifs [(groupe, communautés, etc.)] qui confère à ce mode de gouvernement à la fois une aura d’impartialité très grande mais aussi une très grande difficulté à contester des décisions qui sont prises sur base de détection d’opportunité »."

    Et la seconde raison, plus essentielle, pour laquelle je combats et combattrai toujours cette Orwellienne orientation, est ce vers quoi tend la logique profonde de Parcoursup : c’est une machine à fabriquer de l’intranquillité qui elle même fabriquera de la résignation qui à son tour fera le lit de tous les asservissements consentis.

    #parcoursup #algorithmes #enseignement_supérieur

  • #Parcoursup : archéologie des « #algorithmes_locaux » et de leur #dissimulation

    #Pierre_Ouzoulias, sénateur des Hauts-de-seine, un des meilleurs connaisseurs du dossier Parcoursup, complexe, technique et éminemment politique, nous a confié sa chronique de la discussion des « algorithmes locaux » qui ont précédé leur reconnaissance officielle par le Conseil constitutionnel ce jour. Academia l’en remercie vivement.


    8 mars 2018. La loi ORE

    La loi n° 2018-166 du 8 mars 2018 relative à l’orientation et à la réussite des étudiants a introduit dans l’article L. 612-3 du code de l’éducation cette disposition :

    « Afin de garantir la nécessaire protection du secret des délibérations des équipes pédagogiques chargées de l’examen des candidatures présentées dans le cadre de la procédure nationale de préinscription prévue au même deuxième alinéa, les obligations résultant des articles L. 311-3-1 et L. 312-1-3 du code des relations entre le public et l’administration sont réputées satisfaites dès lors que les candidats sont informés de la possibilité d’obtenir, s’ils en font la demande, la communication des informations relatives aux critères et modalités d’examen de leurs candidatures ainsi que des motifs pédagogiques qui justifient la décision prise ».

    Cette disposition, dérogatoire au principe de la communication des documents administratifs, a été introduite par le biais d’un amendement (n° 204), déposé en séance par le Gouvernement, au Sénat, le 7 février 2018. La ministre le justifiait ainsi :

    « Cet amendement a pour objet de garantir la protection du secret des délibérations des équipes pédagogiques, conformément au principe posé par le Conseil d’État, tout en permettant la communication aux étudiants qui le demanderont des raisons pour lesquelles on leur propose de suivre une formation ne correspondant pas à leur souhait initial, ce qui pourra se produire s’ils n’ont demandé que des filières sélectives ou sous tension ».

    Lors de la discussion, la ministre a précisé ses intentions :

    « La publication des algorithmes est inscrite dans la loi : ce n’est pas le sujet ici. Cet amendement vise simplement à permettre à un candidat d’obtenir communication, dans le cadre d’une démarche individuelle, des raisons de la décision le concernant, tout en préservant le secret des délibérations des équipes pédagogiques, que le Conseil d’État a consacré il y a deux ans ».

    « Parmi ces algorithmes, on trouve aussi ce qu’on appelle des outils d’aide à la décision, qui vont permettre aux établissements d’appliquer des critères plus ou moins spécifiques. Ces outils d’aide à la décision existaient déjà dans APB ; ils étaient notamment utilisés pour les admissions en classes préparatoires, en STS ou en IUT. Je signale au passage que les équipes pédagogiques de ces établissements reçoivent environ 30 000 dossiers en moyenne et savent parfaitement les gérer, en particulier grâce à ces outils d’aide à la décision. Par ailleurs, il pourra effectivement exister d’autres outils d’aide à la décision spécifiques à un établissement ou à une formation, définis à l’échelon local. Les critères utilisés devront être connus, y compris pour les outils de type fichier Excel ».

    22 mars 2018. Décision de la CNIL sur le projet d’arrêté autorisant Parcoursup

    Dans sa délibération n° 2018-119 du 22 mars 2018, la CNIL observe que le dispositif mis en place par la loi ORE est dérogatoire par rapport au principe général de la communication des documents administratifs. Elle explique pourquoi les algorithmes locaux vont être mis en œuvre par les établissements secondaires :

    « La commission constate que le dispositif global, prévu par la loi, conduit les établissements d’enseignement supérieur dont les capacités d’accueil sont inférieures aux demandes à examiner les candidatures au regard de la cohérence entre, d’une part, le projet de formation du candidat, les acquis de sa formation antérieure et ses compétences et, d’autre part, les caractéristiques de la formation. Or, il est vraisemblable que, pour examiner les candidatures qui leur sont soumises, en particulier lorsqu’elles sont très nombreuses, des établissements d’enseignement supérieur recourent à des traitements algorithmiques. À cet égard, la commission relève d’ailleurs qu’un outil d’aide à la décision est mis à la disposition des établissements d’enseignement supérieur.

    Dans la mesure où les commissions d’examen des vœux des établissements d’enseignement supérieur définissent librement les modalités et les critères d’examen des candidatures qu’ils reçoivent ainsi que, le cas échéant, le paramétrage dudit outil en fonction de leurs besoins et des choix pédagogiques qu’elles ont faits, la commission estime que le ministère n’est pas responsable des traitements mis en œuvre dans les établissements d’enseignement supérieur, à des fins de classement des candidatures quand bien même ils choisiraient d’utiliser cet outil d’aide à la décision. Elle rappelle dès lors que les établissements d’enseignement supérieur, en tant que responsables de traitement, devront respecter les principes régissant la protection des données personnelles, ce sur quoi elle sera vigilante ».

    Sur le fond juridique, elle souligne que la disposition de la loi ORE « introduit une limitation au droit de communication précité », c’est-à-dire celui qui résulte des dispositions de l’article L. 311-3-1 du code des relations entre le public et l’administration ». Néanmoins, elle rappelle que « les établissements d’enseignement supérieur qui recourraient à un traitement algorithmique pour examiner les candidatures qui leur sont soumises devront également fournir l’ensemble des éléments permettant de comprendre la logique qui sous-tend cet algorithme ».
    19 avril 2018. Examen par le Sénat, en nouvelle lecture, du projet de loi, adopté par l’Assemblée nationale relatif à la protection des données personnelles

    Lors de la première lecture de ce texte, le Sénat avait supprimé la disposition dérogatoire de la loi ORE (dernier alinéa du I de l’article L. 612-3 du code de l’éducation). Après son rétablissement par l’Assemblée nationale, en nouvelle lecture au Sénat, Mme Sophie Joissains, rapporteure pour la commission des lois, présente un long argumentaire juridique sur la nécessité de préserver les libertés individuelles et de ne pas autoriser des procédures réduisant la portée du principe général de la communicabilité des documents administratifs.

    Voici quelques extraits des débats de la séance du 21 mars 2018 :

    Mounir Mahjoubi, secrétaire d’État. – […] À partir d’octobre 2018, l’administration sera obligée de publier en ligne les données concernant les algorithmes dont elle fait l’usage pour les décisions individuelles ; une information systématique est également prévue pour chaque personne concernée par une décision par une mention bien visible dans la décision.
    Pierre Ouzoulias. – J’aimerais être sûr d’avoir compris toute votre analyse. (Sourires) En partie, elle nous rassure.
    Revenons à Parcoursup, qui permet un pré-tri des demandes arrivant aux universités, avant leur examen par un jury : les algorithmes locaux mis au point par les universités à cette fin seront-ils soumis aux mêmes règles ? Me le confirmez-vous ?
    Mounir Mahjoubi, secrétaire d’État. – C’est oui ! Et je le défendrai au prochain amendement.
    Pierre Ouzoulias. – Cela vous engage, Monsieur le Ministre.

    [après une interruption de séance]

    Mounir Mahjoubi, secrétaire d’État. – Cet amendement très important rétablit une disposition, supprimée par la commission des lois, adoptée par le Sénat en février, de la loi relative à l’orientation et à la réussite des étudiants, tout juste entrée en vigueur il y a deux semaines.
    Notre débat suscite de très vives inquiétudes dans les établissements d’enseignement supérieur qui vont commencer à examiner les vœux de plusieurs millions de lycéens dans une dizaine de jours.
    Cette disposition protège le secret des délibérations des équipes pédagogiques. La commission des lois a considéré, au contraire, que cette disposition, à la lumière des autres dispositions du présent projet de loi, ouvre la voie à une prise de décision par des algorithmes locaux sans aucune intervention humaine.
    Le Gouvernement ne partage pas cette position.
    Pour mettre un terme au désastre d’APB, dès notre arrivée au pouvoir, le Gouvernement a construit une solution sur deux piliers : remettre de l’humain en écartant toute prise de décision automatique et garantir la transparence sur la procédure d’affectation, les critères de choix et de traitement. […]
    Les équipes pédagogiques suivront une procédure manuelle. L’outil d’aide à la décision n’est qu’un appui : la commission d’examen des demandes peut décider de ne pas l’utiliser – certaines le font. Il permet une pondération des critères. […]
    Seule la commission d’examen des vœux est souveraine. L’outil ne se substitue pas à la délibération. Chaque dossier doit être examiné par la commission. Tel est l’esprit de la loi. […]
    Mme Sophie Joissains, rapporteur. – Lors de l’examen du projet de loi relatif à l’orientation et à la réussite des étudiants, le 7 février dernier, le Gouvernement a fait adopter un amendement de dernière minute, déposé en séance publique sans que notre commission de la culture ait pu l’examiner, qui exonère ces algorithmes de classement des obligations de transparence prévues par le code des relations entre le public et l’administration, alors que notre commission de la culture avait déposé un amendement imposant la publication des règles de l’algorithme et de ses principales caractéristiques.
    La commission des lois a souhaité revenir sur cette première entorse aux règles de transparence définies par la loi pour une République numérique.
    Cet article 14, avec la suppression de la procédure dérogatoire, a été adopté à l’unanimité.

    28 juin 2018, Sénat. Commission de la culture, audition de Frédérique Vidal

    La Ministre Frédérique Vidal a été auditionnée par la Commission de la culture du Sénat le 28 juin 2018. En voici quelques extraits :

    Mme Frédérique Vidal, ministre. – Parcoursup est fondé sur le principe du dernier mot à l’étudiant, gravé dans la loi : l’objectif n’est pas seulement de faire une proposition à chaque candidat, c’est de lui faire une proposition qui lui convienne. Cette idée simple permet d’accomplir l’objectif cardinal de cette réforme : démocratiser l’accès à l’enseignement supérieur et accompagner la réussite des étudiants. Pour cela, il faut donner à chaque futur étudiant le plus grand choix possible, multiplier les réponses et lui permettre de choisir non pas de manière abstraite, en classant des vœux sur une liste, mais concrètement, en répondant aux différentes propositions.

    Les « algorithmes locaux » ont fait couler beaucoup d’encre. Le décret d’application confie l’examen des vœux à des commissions pédagogiques sous le contrôle du chef d’établissement. On peut toujours jouer sur les mots avec les fichiers Excel… Il n’y a pas d’algorithmes locaux mais un outil d’aide à la décision, mis à disposition des établissements, qui est totalement facultatif et qui doit être retravaillé. Il est commun à toutes les filières, qu’elles soient ou non sélectives. Certains points restent à améliorer, mais le dispositif n’est qu’un filtre à poser sur l’algorithme Parcoursup, et est transparent : certains établissements ont choisi de l’utiliser, d’autres non.

    […]

    Pierre Ouzoulias. – Nous sommes tous des sénatrices et des sénateurs de la République française, décidés à faire avancer les choses. Ne doutez pas de ma loyauté républicaine, madame la ministre.
    Mahjoubi a tenu à nous rassurer sur les algorithmes locaux, mais l’université de Pau et des pays de l’Adour m’a communiqué le sien, avec le nombre de points associés aux différents éléments contenus dans les dossiers des lycéens : le brevet d’aptitude aux fonctions d’animateur (BAFA), par exemple, contrairement aux assurances que vous me donniez en séance en janvier dernier, en rapporte quinze ! Si l’université de Pau publie son algorithme, pourquoi les autres ne le feraient-elles pas ? Il est en effet essentiel, pour les candidats et leurs familles, de savoir comment les universités cotent les différentes composantes de leur dossier : je demande donc de nouveau la publication de ces algorithmes locaux.
    Ces outils auront un rôle majeur dans la reconfiguration du paysage universitaire et le choix que feront les lycéens et leurs familles. Nous avons donc besoin de transparence. En l’état, les universités peuvent se passer de tout contrôle national et sélectionner les étudiants selon des critères qui leur sont propres. Or je tiens à un enseignement supérieur national, dans lequel l’État est garant de l’orientation et du respect de la loi. Dans un système de concurrence généralisée des universités entre elles, tout le monde sait qui seront les gagnants, et qui seront les perdants.

    Mme Frédérique Vidal, ministre. – S’agissant des algorithmes locaux, si une recette de cuisine est un algorithme, alors, en effet, nous ne parlons pas de la même chose, monsieur Ouzoulias, et c’est moi qui suis probablement ignorante.

    La pondération des données sera évidemment essentielle. La très grande majorité des universités a dû accomplir une tâche à laquelle elles n’avaient jamais été confrontées ; elles ont beaucoup tâtonné. Elles se sont appuyées sur l’expérience des IUT, qui font ce travail de classement des dossiers depuis très longtemps. Certaines conférences de doyens avaient anticipé, en STAPS notamment, de façon à ce que les choses se déroulent de manière uniforme dans toutes les universités.

    Monsieur Ouzoulias, j’imagine que vous demandez leurs algorithmes locaux à tous les établissements d’enseignement supérieur, et pas seulement aux universités ; ces dernières ne sont que 73, alors qu’il existe plus de 350 établissements d’enseignement supérieur non universitaires.

    Pierre Ouzoulias. – Mais 73, dans un premier temps, cela nous suffirait !

    Mme Frédérique Vidal, ministre. – Les formations sélectives classent depuis des années en utilisant des algorithmes, sans que personne ne s’intéresse à la façon dont ces algorithmes sont conçus.

    Mme Frédérique Vidal, ministre. – Comment la pondération des données paramétrable est-elle effectuée ? Cette question est évidemment très importante. Reste que les commissions sont totalement libres de décider si elles souhaitent rendre publiques ces données ou, au contraire, ne pas briser ce qu’elles appellent le secret des délibérations. Les positions, de ce point de vue, sont très variables d’un établissement à un autre. La grille que vous mentionnez concernant l’université de Pau m’est inconnue, parce qu’aucune université ne se sent dans l’obligation de me faire remonter ce genre d’informations. Les universités sont autonomes.

    Pierre Ouzoulias. – C’est le problème.
    23 octobre 2018, Sénat, Commission de la culture, audition de Frédérique Vidal

    Nouvelle audition à l’automne. Extraits

    « Je suis prête à étudier la question de l’anonymisation des dossiers analysés dans le cadre de la procédure nationale de préinscription, pour préserver le lien de confiance entre les jeunes et l’enseignement supérieur, même si les chiffres montrent que la discrimination dans l’accès à l’enseignement supérieur a diminué ».

    « En ce qui concerne les algorithmes locaux, les attendus sont précisés sur la plateforme et les formations peuvent ajouter des spécificités. Là aussi nous sommes parvenus à un équilibre qui concilie la délibération du jury et sa souveraineté, tout en permettant à chaque étudiant de demander à savoir comment son dossier a été traité. Cet équilibre a fait ses preuves car les demandes de justification ont été peu nombreuses ».
    10 janvier 2019. Avis n° 20184400 de la Commission d’accès aux documents administratifs (CADA)

    « La commission prend acte, tout en le déplorant, de ce que, par ces dispositions, le législateur a d’une part instauré un régime spécial d’accès, pour les candidats qui le demandent, aux procédés algorithmiques lorsque ceux-ci sont élaborés par les équipes pédagogiques chargées de l’examen des candidatures, et d’autre part a fait obstacle, pour ce type de documents administratifs, à l’obligation de publication en ligne prévue par l’article L312-1-3, ce qui exclut nécessairement le droit d’accès des tiers ».

    18 janvier 2019. Décision n° 2019-021, du Défenseur des droits

    « Le secret des délibérations du jury ne doit pas s’opposer à l’information des candidats sur le contenu exact et la manière précise d’évaluation de leurs candidatures. Le Défenseur des droits estime que la publication de ces informations ne porte pas atteinte aux principes de souveraineté du jury et du secret de ses délibérations, étant donné qu’il ne vise pas à dévoiler le contenu de l’appréciation portée sur chaque candidature mais uniquement les critères pris en compte dans cette appréciation ainsi que leur méthode d’application. Il est donc recommandé de rendre publiques ces informations ».

    « Le Défenseur des droits recommande à la ministre de l’enseignement supérieur, de la recherche et de l’innovation de prendre les mesures nécessaires, d’ordre législatif et d’ordre réglementaire, afin de rendre publiques toutes les informations relatives au traitement, y compris algorithmique, et à l’évaluation des dossiers des candidats par les commissions locales des établissements d’enseignement supérieur en amont du processus de leur affectation dans les formations de premier cycle de l’enseignement supérieur, afin d’assurer la transparence de la procédure et de permettre aux candidats d’effectuer leurs choix en toute connaissance de cause ».
    27 mars 2019, Sénat, Commission de la culture, audition de Frédérique Vidal

    « Je veux aussi redire que les algorithmes locaux n’existent pas : il n’existe pas de système de traitement entièrement automatisé pour affecter les étudiants dans les formations. Il y a des commissions pédagogiques d’examen des vœux, des outils d’aide à la décision utilisés par environ 25 % des formations. Les critères généraux d’examen des vœux sont affichés sur la plateforme et varient selon des pondérations qui sont à la discrétion des commissions pédagogiques d’examen des vœux ».
    17 juillet 2019. Commission de la Culture, communication de Jacques Grosperrin, rapporteur

    « Parcoursup, c’est d’abord un algorithme central qui transforme les listes ordonnées de candidats transmises par les formations en réponses auxdits candidats et qui ensuite les réponses des candidats. Le code source et le cahier des charges de cet algorithme ont bien été publiés, conformément à l’objet d’un amendement de notre collègue député Cédric Villani, adopté lors de l’examen de la loi ORE.

    Toutefois, contrairement à admission post-bac (APB), son prédécesseur, ce n’est pas au niveau central que tout se joue dans Parcoursup. C’est le rang du candidat sur la liste établie par la commission d’examen des vœux de la formation concernée qui va déterminer ses chances d’inscription.

    Les dossiers sont regardés un à un et classés manuellement dans les formations ne comportant qu’un petit nombre de candidats, conformément aux engagements de la ministre d’assurer un traitement humain des dossiers.

    Toutefois, dans la plupart des formations, chaque candidat pouvant faire jusqu’à dix vœux et vingt sous-vœux non hiérarchisés, les équipes pédagogiques ont eu recours soit à des tableurs Excel de leur facture, soit à l’outil d’aide à la décision du ministère. En 2018, un petit quart des 14 500 formations avait eu recours à cet outil, dont 56 % des licences et 47 % des instituts universitaires de technologie (IUT).

    À partir de tels tableurs, les commissions d’examen des vœux ont pu sélectionner les notes des matières et les éléments de la fiche Avenir qu’elles souhaitaient retenir, ainsi que les pondérations souhaitées. Le tableur leur a ainsi permis d’établir une liste classée de candidats, au sein de laquelle les commissions n’avaient plus qu’à départager les éventuels ex æquo et à réintégrer les dossiers atypiques. Comme le souligne depuis déjà longtemps notre collègue Pierre Ouzoulias, le travail de la commission d’examen des vœux s’opère clairement en deux phases. De même, l’existence des algorithmes locaux est indéniable, contrairement à ce que soutient la ministre qui s’obstine à nier cette évidence ».
    9 janvier 2020. Deuxième rapport du Comité éthique et scientifique de Parcoursup

    « Les débats sur la transparence de Parcoursup se sont focalisés en 2018 sur les procédures d’examen des vœux par les commissions pédagogiques des formations non sélectives, typiquement les licences, pour lesquelles la loi ORE introduit l’obligation d’examen de dossiers des candidats. Ces débats ont plus précisément porté sur les mal nommés « algorithmes locaux ». C’est un fait que les jurys et les commissions utilisent des tableurs pour classer les candidats lors de leurs délibérations, et ce depuis que les tableurs existent, mais rien de plus, et il est inapproprié de parler d’algorithmes locaux. Sur les feuilles, au format « Excel » ou « Open Office », figurent en lignes les candidats et en colonnes les critères de classement. Les données sont extraites des dossiers des candidats dans la plate-forme et les critères sont déterminés par les commissions locales d’examen des vœux. Si tout ou partie de ces critères sont quantifiés, un pré-classement est établi, qui définit l’ordre d’examen des dossiers et sert d’aide aux délibérations. Pour les commissions de Parcoursup, la loi oblige à l’examen individuel des dossiers des candidats, autrement dit elle interdit l’automaticité. […]

    Parcoursup met en évidence la nécessité de trouver un équilibre entre l’appréciation qualitative des commissions, relevant du secret des délibérations, et la quantification précise des dossiers de candidature, facteur de transparence. Où que soit placé le curseur à cet égard, la transparence vise à informer au mieux les candidats sur la façon, qualitative ou quantitative, dont seront examinés leurs dossiers. Cette question complexe, qui ne doit pas s’enliser dans la docimologie, dépasse certes les seules considérations sur la plate-forme ; cependant, celle-ci sera au centre de la mise en œuvre de toute orientation ou inflexion à ce sujet. Le CESP sera très attentif aux résultats de l’analyse lancée par le ministère. […]

    On peut ajouter à cette liste la question délicate de l’opportunité d’une rectification automatique des notes. On sait par exemple que les échelles de notation diffèrent sensiblement d’un lycée à l’autre, et que la prise en compte de ces pratiques est un argument pour ne pas anonymiser l’établissement d’origine dans les dossiers, quitte à nourrir des suspicions de discriminations territoriales ».
    26 février 2020. Rapport de la Cour des comptes

    « Les attendus publiés, dont les énoncés mériteraient une nouvelle revue, ne correspondent pas toujours aux paramétrages retenus in fine par les commissions d’examen des vœux. Ces dernières fonctionnent de manière de plus en plus automatisée, utilisant de façon croissante un outil d’aide à la décision informatique pour effectuer un pré-classement des candidats. Cette situation plaide pour la publication des algorithmes ayant servi à effectuer ces premiers tris. Au-delà, le ministère pourrait utilement publier une analyse des variables clés des classements afin de permettre aux lycéens de mieux préparer leur orientation et leur affectation. Il pourrait saisir cette occasion pour examiner la pertinence de certains critères de classement. En effet, la forte disparité de notations entre les lycées a conduit certaines formations à prendre en compte le lycée d’origine des candidats pour effectuer leur classement, sans que l’objectivité de la méthode retenue ne soit garantie. La réforme du baccalauréat et le renforcement de la part du contrôle continu doit mener le ministère de l’enseignement supérieur à réfléchir aux améliorations à apporter pour rendre la procédure de classement plus efficace et équitable ». […]

    « La diversité des pratiques des CEV ne permet pas de discerner une approche d’ensemble ou des règles de fonctionnement communes. Considérant que ces commissions procédaient toutes à un travail qui s’assimilait à celui d’un jury, le législateur a décidé que les éléments qui participaient à l’analyse de chaque dossier de candidature, fussent-ils algorithmiques, ne pouvaient pas être communiqués a priori. Le candidat peut seulement obtenir a posteriori, c’est-à-dire après la notification de la réponse à sa candidature, et à titre individuel, les éléments motivant la décision prise à son propos. La dérogation consentie par la loi à l’article L.311-3-1 du code des relations entre le public et l’administration dispense ainsi l’établissement de toute publication des éventuels algorithmes utilisés pour classer les candidatures. Il n’a pas à indiquer non plus au candidat qu’il a utilisé ce moyen de classement ». […]

    « La publication des « algorithmes locaux » répond ensuite à un impératif de transparence, dont le Conseil constitutionnel a pu rappeler qu’il constitue, en toutes circonstances, un objectif d’intérêt général. L’utilisation « d’algorithmes locaux » pour opérer des classements ne saurait être remise en cause, au regard du volume des candidatures, mais le fait de ne pas les publier et d’en refuser la communication crée un risque de défiance ». […]

    « Cette hypothèse, régulièrement évoquée auprès des différents représentants des CEV rencontrés dans le cadre de la présente enquête, n’a pas soulevé d’objections particulières. Les enseignants sont, dans la grande majorité des cas, favorables à la plus grande transparence, et conscients que cette publication serait le meilleur moyen d’éteindre toute suspicion liée au fonctionnement des commissions d’examen des vœux ».

    Recommandations de la Cour des comptes

    « Rendre publics les « algorithmes locaux » utilisés par les commissions d’examen des vœux pour l’ensemble des formations proposées ».

    https://academia.hypotheses.org/22032
    #algorithme #université #lycées #France #facs #universités #chronologie #parcours-sup

    • 9 janvier 2020. Deuxième rapport du Comité éthique et scientifique de Parcoursup :
      [...]On peut ajouter à cette liste la question délicate de l’opportunité d’une rectification automatique des notes. On sait par exemple que les échelles de notation diffèrent sensiblement d’un lycée à l’autre, et que la prise en compte de ces pratiques est un argument pour ne pas anonymiser l’établissement d’origine dans les dossiers, quitte à nourrir des suspicions de discriminations territoriales

      le ver est dans le fruit...

      #discrimination #lycée

  • Comment garantir l’#équité des #algorithmes ?
    https://www.banquedesterritoires.fr/comment-garantir-lequite-des-algorithmes

    « Code source opaque », « paramètres parfois contestables »… le récent rapport de la Cour des comptes étrillant l’algorithme Parcoursup (https://www.ccomptes.fr/system/files/2020-02/20200225-09-TomeII-infrastructures-numeriques-enseignement-superieur-et-rec) pour l’affectation universitaire des lycéens ne pouvait mieux tomber pour illustrer la table ronde « Intelligence artificielle, les algorithmes source d’équité ou de #discrimination » organisée dans le cadre des Assises de la cohésion numérique territoriale le 27 février 2020 à Paris. Si le problème a pris une acuité particulière avec l’omniprésence du numérique dans notre quotidien, il est cependant loin d’être nouveau.

    #biais_algorithmiques #racisme #logiciel_compas #États-Unis #contrôle #administration #deep_learning #programmation #apprentissage_profond #règles_culturelles

    Rapport de la #Cnil mentionné dans l’article : https://www.cnil.fr/fr/comment-permettre-lhomme-de-garder-la-main-rapport-sur-les-enjeux-ethiques-des-

  • #Parcoursup : le #rapport « #Fin_du_game » de la #Cour_des_comptes

    La Cour des comptes vient de publier « Un premier #bilan de l’accès à l’enseignement supérieur dans la cadre de la #loi_Orientation_et_réussite_des_étudiants » (Février 2020) à destination comité d’#évaluation et de contrôle des politiques publiques de l’Assemblée nationale. Parcoursup et la loi ORE ayant fait l’objet de lourds désaccords dans la communauté, ce rapport sonne comme un #arbitrage « Fin du game » de presque deux ans de débats.

    Attention : ce billet ne vise pas à rendre intégralement compte des informations du rapport de la Cour, mais seule à mettre en perspective les promesses et éléments de langage du ministère avec la réalité constatée par la Cour. Ainsi, la plupart des critiques rapportées ici s’accompagnent de modérations et de propositions d’améliorations dans le rapport. De plus, certaines critiques, parfois très dures, notamment sur le système d’information, ne sont pas rapportées ici.

    L’affaire n’est pas mince, il s’agit de la réforme du « -3/+3 », c’est-à-dire des études de 80% des françaises et français ayant entre 15 et 21 ans. La loi ORE/Parcoursup et la réforme du Lycée/Bac2021 (E3C) sont une seule et même réforme, comme l’indiquait Mme Vidal, Ministre de l’enseignement supérieur en audition au Sénat :

    Jean-Michel Blanquer et moi avons bien évidemment débattu de l’articulation de Parcoursup avec la réforme du baccalauréat. La décision a été prise de commencer par l’accès à l’enseignement supérieur, notamment parce qu’on ne pouvait pas continuer à tirer au sort pendant trois ans, mais, in fine, l’articulation devra être complète. Si l’on réussit le pari de la construction d’un lycée adossé à cette orientation vers le supérieur, on ne posera même plus la question de la hiérarchisation des vœux.

    La réussite de Parcousup est donc critique pour la réussite de toute la réforme du système d’éducation national. Le principe de la loi ORE est présenté ainsi par la Cour, rapportant la position du ministère :

    La #loi_ORE établit ainsi une perspective cohérente et unifiée dans le continuum « -3/+3 », c’est-à-dire de la classe de seconde à la 3ème année de licence, en posant le principe qu’une meilleure orientation suivie d’une affectation prenant davantage en compte le profil de l’élève permettra d’améliorer sa réussite dans l’enseignement supérieur.

    Dans la suite, toutes les citations sont extraites du rapport de la Cour des comptes, sauf une qui est explicitement indiquée.

    Aide à l’orientation
    « Il n’y a pas de décision éclairée sans une pleine information, c’est le sens des attendus »

    Seule une moitié des élèves et une minorité des professeurs principaux sont satisfaits des attendus dans leur forme actuelle.

    Il apparaît cependant que la bonne information des candidats sur les critères de classement des formations auxquels ils prétendent n’est pas complète. Les attendus publiés, dont les énoncés mériteraient une nouvelle revue, ne correspondent pas toujours aux paramétrages retenus in fine par les commissions d’examen des vœux.

    Voir aussi : Parcoursup : Petit manuel de formulation des vœux à l’usage des candidats à l’enseignement supérieur (http://blog.educpros.fr/julien-gossa/2020/01/28/parcoursup-petit-manuel-de-formulation-des-voeux-a-lusage-des-candidat)

    « Il y aura un dédoublement des professeurs principaux dans toutes les classes de terminale pour un meilleur accompagnement, une meilleure orientation des lycéens »


    https://twitter.com/VidalFrederique/status/940660860883791873?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E940


    https://twitter.com/VidalFrederique/status/928515520894308352?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E928

    En effet, la mise en place d’un second professeur principal s’est parfois heurtée dans certains lycées à la difficulté de recruter des volontaires, faute d’un vivier suffisant. Si, dans la moitié des classes, la nomination des professeurs a suivi une logique de complémentarité de disciplines afin d’apporter aux élèves une information plus large sur les débouchés, elle a été faite sans logique apparente dans l’autre moitié des cas.

    En la matière, les élèves ne sont pas en situation d’égalité.

    « Nous allons ancrer l’orientation dans le temps scolaire avec la mise en place de deux semaines d’orientation »


    https://twitter.com/VidalFrederique/status/928297144414605312?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E928

    Pour conclure, une partie significative des élèves n’a pas bénéficié des avantages attendus des semaines de l’orientation. Dans ce domaine également, la politique d’orientation est encore disparate et inégalitaire.

    #Discriminations
    « Les dossiers des candidats seront anonymisés, le lycée d’origine restera »
    https://www.20minutes.fr/societe/2454163-20190218-parcoursup-dossiers-candidats-anonymises-lycee-origine-re

    La prise en compte de l’identité des candidats par certaines CEV [Commission d’examen des vœux] correspond au lycée d’origine, y compris dans les licences non-sélectives en tension où ce critère joue à plus de 1 % pour environ 20 % de ces licences. Certains cas, rares, de discrimination positive portant sur le sexe ont été observés.

    [Recommendation] 10. Anonymiser le lycée d’origine et lui substituer une mesure de l’écart entre les résultats au
    baccalauréat et la notation au contrôle continu (MESRI).

    #Quotas de #boursiers : « c’est la fin du fatalisme face aux inégalités d’accès à l’enseignement supérieur »


    https://twitter.com/VidalFrederique/status/1087770921186799617?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E10

    Les études statistiques menées par la Cour montrent que ces quotas de boursiers, qui ont été davantage respectés en 2019 en comparaison de 2018, ont eu un impact faible sur l’accès aux filières en tension, qu’elles soient sélectives ou non.

    Ainsi, à la rentrée 2019, la part de boursiers admis est inférieure à la part de boursiers candidats dans 13 des 40 CPGE les plus demandées et qui se voyaient appliquer un quota.

    Les quotas n’ont pas, par ailleurs, entraîné une plus grande diversité sociale dans les formations de l’enseignement supérieur où les boursiers étaient peu représentés

    « Nous poursuivons nos efforts pour accompagner la mobilité géographique & sociale »

    https://twitter.com/VidalFrederique/status/1174964561964752896?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E11

    L’analyse statistique de la Cour montre que les quotas géographiques, à la différence des quotas de boursiers, ont eu des effets significatifs (cf. graphique et développement dans l’Annexe n° 12). Cela signifie qu’en l’absence de quotas, un certain nombre de candidats non-résidents auraient pris la place de candidats résidents.

    #Tri des #candidatures
    « Tout a été pensé dans Parcoursup pour remettre de l’humain dans la procédure »


    https://twitter.com/VidalFrederique/status/943087698574827520?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E943

    Sur la base d’un ensemble d’indicateurs, la Cour a pu mettre en évidence une automatisation croissante du système en 2019. Ainsi, le nombre de candidats bénéficiant de bonifications automatiques est passé de 148 477 en 2017 à 462 015 en 2019.

    Pour l’ensemble des filières, les critères relatifs aux résultats ont eu une importance déterminante sur les pré-classements opérés par les CEV [Commission d’examen des vœux]. À l’opposé, la motivation des élèves n’est presque jamais prise en compte. À titre d’exemple, parmi les 191 licences non-sélectives analysées, seule une formation de sociologie a tenu compte de ce critère de façon importante (poids de 20 % environ).

    « L’idée de la lettre de motivation sur Parcoursup est de penser des parcours de formation qui permettent aux étudiants de garder confiance en eux et de réussir. »

    https://twitter.com/VidalFrederique/status/994828834393481219?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E994

    Par ailleurs, le projet de formation motivé, communément appelé « lettre de motivation », semble n’être presque jamais pris en compte .

    « chaque établissement réunit […] une commission d’examen des vœux » (#CEV)


    https://twitter.com/QPanissod/status/972925806916919296?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E972
    Finalement, leur travail s’apparente plus à celui d’une commission administrative chargée de trier, de classer et le cas
    échéant de compléter des dossiers, afin d’établir des listes provisoires. Il y a certes délibération des membres de la commission lors de la prise en main de l’outil, au moment de la fixation des éléments de pondération, mais toute forme de discussion peut ensuite disparaître, ou n’intervenir que de manière anecdotique pour le réexamen de quelques dossiers spécifiques (notes manquantes ou dossier incomplet, par exemple).

    « #Secret des délibérations » des CEV


    Le cinquième alinéa de l’article L. 612-3 1 du code de l’éducation intègre les mêmes dispositions protectrices à propos des CEV [Commission d’examen des vœux], qui se trouvent de facto assimilées à des jurys de concours, même si elles ne sont pas qualifiées ainsi dans le texte. Cette assimilation pose toutefois question, car les travaux réalisés par ces deux instances ne sont pas réellement comparables.

    Dans ce contexte, dans la perspective d’une plus grande transparence, rien ne devrait s’opposer à ce que tous les éléments de paramétrages de l’outil que les CEV utilisent soient rendus publics.

    https://www.lemonde.fr/campus/article/2018/05/15/parcoursup-le-secret-des-deliberations-sera-maintenu_5299363_4401467.html

    « Quand Mme Vidal nous expliquait que les « algorithmes locaux » n’existaient pas »


    https://twitter.com/OuzouliasP/status/1087277342358155264?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E10

    La publication des éléments de paramétrages utilisés par les commissions d’examen des vœux répond d’abord à un objectif pédagogique évident. Les « algorithmes locaux » peuvent servir de base informative intéressante pour les usagers utilisant Parcoursup et leur permettre de comprendre la manière dont les différentes disciplines de leur année de terminale, voire de première, les fiches Avenir, le projet de formation motivé, la filière d’origine etc. sont, ou non,
    pris en compte dans le classement de leurs candidatures

    La publication des « algorithmes locaux » répond ensuite à un impératif de transparence, dont le Conseil constitutionnel a pu rappeler qu’il constitue, en toutes circonstances, un objectif d’intérêt général

    L’utilisation « d’#algorithmes locaux » pour opérer des classements ne saurait être remise en cause, au regard du volume des candidatures, mais le fait de ne pas les publier et d’en refuser la communication crée un risque de défiance.

    « Nous avons fait le choix de la #transparence »

    En dépit des actions de mise en transparence du ministère, le code source de Parcoursup reste à 99 % fermé. La partie publiée demeure d’un intérêt limité pour comprendre, expertiser, et évaluer le processus d’affectation des candidats dans les formations.

    Il apparaît toutefois que, bien que censées opérer de façon ouverte et transparente, les commissions d’examen des vœux obéissent en réalité à un mode de fonctionnement souvent hétérogène et peu transparent

    [Recommendation] 11. Rendre publics les « algorithmes locaux » utilisés par les commissions d’examen des vœux pour l’ensemble des formations proposées (MENJ et MESRI).

    Affectation des candidats
    « Réaffirmer le droit de tout bachelier d’accéder à l’enseignement supérieur, de choisir sa filière et son établissement »

    Au total, la réforme pâtit d’un manque d’ambition qui l’empêche d’atteindre son objectif principal : faire davantage dépendre les choix d’orientation du résultat d’un projet individuel librement mûri par chaque élève.

    « Il n’y a pas de sélection à l’entrée des filières universitaires » (le dernier mot au bachelier)

    Les formations non sélectives sont principalement les licences universitaires. Cette définition purement organique atteint toutefois ses limites car, en réalité, une formation devient sélective lorsque la demande des candidats est plus forte que la capacité d’accueil de la filière concernée. Cela a été le cas en 2019, pour près de 20 % des formations non sélectives en tension, représentant près de 30 % des candidats admis.

    « La dynamique fonctionne et Parcoursup fait toutes ses preuves »

    https://twitter.com/VidalFrederique/status/999640624495284224?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E999

    La performance est mesurée par la capacité du système d’accès au supérieur à proposer une formation qui convienne au candidat dans le sens où il choisit de la rejoindre, y réussisse et y reste après une année de formation. La Cour a choisi d’aborder la performance de manière complète : elle intègre l’ensemble des candidats et couvre la totalité du processus couvert par la loi ORE.
    Le MESRI quant à lui mesure la performance d’affectation d’APB et de Parcoursup uniquement sur la part de propositions acceptées par les néo-bacheliers en classe de terminale.

    En outre, la performance d’affectation des candidats a été surestimée de 16 % dans Parcoursup par rapport à APB en raison de défaillances du système de suivi des évolutions du SI commun à APB et Parcoursup.

    Les résultats de performance de Parcoursup sont pour l’heure identiques à ceux d’APB, hormis à l’université où de premiers signaux positifs, mais encore modestes, sont observés.

    La phase complémentaire : « mobilisés aux côtés des candidats pour replacer l’humain au cœur de la procédure »


    https://twitter.com/VidalFrederique/status/1172436531371315202?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E11
    La réponse peut être expéditive, de nombreuses formations interrogées reconnaissent avoir recours à un traitement automatique des dossiers faute de responsables qualifiés pour les traiter durent cette période. La plupart des candidats obtiennent donc de façon mécanique, dans l’ordre d’arrivée, les places restantes afin de « remplir » les formations, quel
    soit le dossier et le niveau scolaire, en application du principe « premier arrivé, premier servi ».

    « Avec les équipes de la Commission d’accès à l’enseignement supérieur la mobilisation est totale pour accompagner les candidats sans proposition »


    https://twitter.com/VidalFrederique/status/1151053846791294976?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E11

    Les commissions travaillant dans l’urgence, leurs réunions ne font généralement pas l’objet de compte-rendu, les propositions d’admission se faisant directement en séance sur la plateforme Parcoursup. Il n’est donc pas possible de disposer d’éléments pouvant expliquer le choix des propositions faites, et de mener une analyse fine pour comprendre le sens des propositions adressées aux candidats. Les académies tirent toutefois, dans l’ensemble, un bilan plutôt positif

    Réussite après l’affectation
    « Nous sommes persuadés qu’il faut aller vers plus d’orientation et arrêter la sélection par l’échec, c’est tout l’objet des « oui si » »

    Pour que l’efficacité des dispositifs « oui si » déployés puisse être mesurée, les universités doivent identifier leurs étudiants « oui si » en fonction du type de dispositif suivi et de leur profil. Mais cet objectif apparaît difficile à atteindre en raison d’outils de mesure de la réussite, telle que définie actuellement, inefficaces dans la plupart des universités car inadaptés ou non utilisés.

    Les universités ont transmis aux rectorats l’estimation de leurs besoins financiers pour mettre en place des dispositifs d’aide à la réussite. Or, certaines d’entre elles ont uniquement reconduit des dispositifs de remédiation qui existaient déjà car créés dans le cadre de plans ministériels précédents, et qui étaient donc préalablement financés.

    La Cour s’interroge sur l’absence de réduction voire de suppression de ces crédits, l’objectif de la loi n’étant pas de
    financer les universités mais d’aider les étudiants à mieux réussir.

    « Il existe donc un initiative qui ne coûte rien, qui est facile à mettre en œuvre et est indispensable pour progresser… Pourtant il est possible qu’elle ne soit pas concrétisée. Deux risques se font face : D’un côté, il existe le risque de se diriger vers une réforme bancale, impossible à faire aboutir, faute de disposer des outils permettant de l’améliorer et d’en tirer le meilleur. D’un autre côté, il existe un risque de découvrir que les bénéfices de la réformes sont faibles en regard de ses défauts, qu’elle est un échec, et non pas en raison d’un défaut de mise en oeuvre, mais d’un défaut structurel. »

    « A tous ceux qui refuseront de répondre « oui si », ils regarderont leurs étudiants en face… »


    https://twitter.com/VidalFrederique/status/981523999246180352?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E981

    En 2019-2020, 807 formations, soit 33 % des formations en licence sur Parcoursup, ont proposé à 172 260 candidats une proposition d’admission à condition de suivre un dispositif « oui si »241. Seuls 22 205 ont accepté cette proposition dans 771 formations. Ce taux de 13 % d’acceptation pourrait indiquer que l’étudiant préfère toujours rejoindre une formation pour laquelle il reçoit une proposition d’admission sans « oui si ».

    Parmi les étudiants ayant accepté en 2018 un parcours « oui si », seuls 85 % se sont présentés à l’université à la rentrée.

    En outre, la plupart des étudiants s’étant inscrits dans ces parcours se sont montrés peu assidus

    Finalement, l’université d’Évry a décidé en cours d’année universitaire d’ouvrir le dispositif à l’ensemble des étudiants de L1 sur volontariat, quel que soit leur niveau. Si cette orientation a permis d’améliorer les taux de présence, elle ne répond pas aux objectifs de la loi ORE

    « Un dispositif qui a fait ses preuves et qui satisfait les étudiants qui en ont bénéficié cette année. »


    https://twitter.com/VidalFrederique/status/1110927499297476609?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E11

    Ces chiffres semblent confirmer que les parcours aménagés favorisent la réussite pour les étudiants présents aux examens du premier semestre, sans toutefois permettre d’atteindre les taux de réussite des étudiants hors remédiation. Par ailleurs, ces chiffres masquent des écarts importants de réussite entre les universités.

    En droit, trois universités (Dijon, Montpellier et Strasbourg) ont enregistré un taux de réussite de 0 % pour leurs étudiants en parcours aménagé,ce qui peut révéler également un déploiement trop restreint du dispositif.

    Si on ne peut tirer de conclusion sur l’amélioration à long terme du taux de réussite des étudiants en licence, il apparaît toutefois que le taux de présence aux examens du premier semestre est inférieur d’au moins 20 % pour les étudiants inscrits en parcours aménagé.

    « Avec la loi Orientation et réussite des étudiants ORE, la démocratisation de notre enseignement supérieur est revenue au centre du débat »


    https://twitter.com/VidalFrederique/status/1085590288154931200?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E10
    L’analyse globale de la performance menée par la Cour suggère que, pour l’instant, les augmentations de réussite dans certaines formations en tension sont compensées par des diminutions équivalentes dans d’autres formations.

    L’ouvertures de nouvelles places
    « Nous travaillons avec les établissements à l’ouverture de 22 000 places supplémentaires dans les filières en tension »


    https://twitter.com/VidalFrederique/status/969105685043646464?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E969

    Outre un coût de la place très variable, le nombre de places nouvelles à financer a été déterminé par les rectorats à partir des engagements pris par les universités. Or, il s’avère que les augmentations de capacités déclarées a priori n’ont globalement pas été respectées par celles-ci. Ainsi, en 2018, sur 21 239 places financées, 8 107 sont restées vacantes dans Parcoursup.

    Ainsi, malgré un nombre significatif de nouvelles places créées, le taux de pression des filières sélectives et non sélectives a augmenté entre 2018 et 2019, comme l’indique le graphique qui figure en Annexe n° 15. Cela signifie que les places supplémentaires n’ont pas été créées dans les filières qui avaient le plus de demandes de la part des candidats.

    « C’est pour accompagner les bacheliers technologiques et professionnels que nous ouvrons des places en BTS et IUT »


    https://twitter.com/VidalFrederique/status/941002876129828869?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E941

    Toutefois, ces mesures apparaissent insuffisantes au regard des 5 000 bacheliers professionnels qui, à la rentrée 2018, étaient encore orientés par défaut à l’université

    Les quotas n’ont pas pour l’instant l’effet escompté. La part des bacheliers professionnels en STS est resté stable entre 2017 et 2018222 alors que l’objectif des quotas est d’élever leur proportion parmi les élèves de ces formations. La situation s’est détériorée en 2019.

    Au final, l’accueil des bacheliers technologiques et professionnels dans l’enseignement supérieur est en voie d’amélioration grâce à une gestion des capacités d’accueil des différentes filières qui prend davantage en compte leurs spécificités.

    « Pour les bacheliers pro pas prêts à s’engager dans des études nous avons imaginé avec JM Blanquer les classes passerelles »


    https://twitter.com/VidalFrederique/status/1174962545058144262?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E11

    Par ailleurs, le dispositif de classes passerelles créé en 2018 pour accueillir les bacheliers professionnels apparaît peu attractif aux yeux de ces lycéens compte tenu du faible taux de remplissage de ces classes. Il est également particulièrement coûteux pour les finances publiques (3 000 € par étudiant)

    La transformation globale de notre système -3/+3
    « Il ne contient aucune disposition permettant que soit conduite une politique malthusienne de réduction des capacités d’accueil »


    https://twitter.com/VidalFrederique/status/964134720610226176?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E964

    Dans une logique d’attractivité, certaines formations pourraient utiliser la variable de la capacité d’accueil afin d’augmenter leur sélectivité et accroître ainsi leur taux de réussite, en attirant les meilleurs candidats.

    Il n’est donc pas exclu, à terme, que Parcoursup exacerbe des situations d’émulation entre établissements, déjà à l’œuvre en matière de recherche, et qui pourraient se généraliser désormais au niveau des formations de premier cycle.

    L’académie de Paris, qui concentre la majorité des filières en tension, illustre ce phénomène. La part d’admis ayant eu une mention très bien au baccalauréat dans les filières non sélectives y est passée de 29 % en 2017-2018, dernière année d’APB, à 40 % en 2018-2019, première année de Parcoursup.

    Cet accroissement de la concurrence entre les établissements, s’il venait à se confirmer, nécessiterait de réinterroger les équilibres, sauf à laisser s’ériger, dès les formations de premier cycle, un système universitaire à deux vitesses, au détriment des étudiants inscrits dans des universités moins prestigieuses, ou bénéficiant de moins de visibilité.❞

    http://blog.educpros.fr/julien-gossa/2020/02/27/parcoursup-fin-du-game-cour-des-comptes

    #ESR #enseignement_supérieur #université #facs #parcours_sup

  • Un système anti-censure qui évolue en autonomie : #Geneva

    La lutte technique de la #liberté_d_expression contre la #censure sur l’Internet n’est pas près de s’arrêter. Chaque fois que les censeurs conçoivent de nouvelles techniques, les défenseurs de la liberté mettent au point de meilleurs méthodes pour leur échapper, les censeurs améliorent alors leurs techniques, et ainsi de suite. La partie est donc difficile pour ceux et celles qui réalisent des dispositifs anti-censure, car il faut en permanence suivre et s’adapter. D’où l’idée d’un système qui évolue « tout seul ». Le génial Geneva utilise le concept des #algorithmes_génétiques, pour s’adapter à la censure et évoluer automatiquement en même temps qu’elle.

    https://www.bortzmeyer.org/geneva.html

    #algorithme_génétique #censure_Internet

  • Code is outlaw ! C’est la lutte digitale et la grève reconducstream ! par Olivier Ertzscheid — L’AUTRE QUOTIDIEN
    https://www.lautrequotidien.fr/new-blog/luttedigitale

    Par Olivier Ertzscheid

    Lorsque des sociologues se pencheront sur les grandes grèves et les mouvements sociaux du 21ème siècle (ils ont déjà commencé et je vous recommande plus que chaudement l’ouvrage de Zeynep Tufekci, Twitter et les gaz lacrymogènes), ils verront entre autres que les caisses de grève crowdfundées et autres cagnottes de soutien en ligne sont devenues une forme de standard. Et que la lutte est streamable avant que d’être finale comme en témoigne le délicieusement nommé Recondu.stream.

    Plusieurs phénomènes sont en train de converger entre technique et société. Entre mobilisations sociales et mobilités techniques. Entre sociabilités techniques et mobilisations tout court.

    C’est dans ce contexte là et à l’occasion du mouvement contre le projet de réforme du régime de retraites du gouvernement Macron, que pour la première fois à ma connaissance émerge un texte rassemblant explicitement des « travailleuses et travailleurs du numérique » autour de la contestation d’une réforme qui n’a pas de lien spécifique avec ledit numérique. La première fois qu’un texte parle au nom des « travailleurs et travailleuses du numérique » sur une revendication sociale. De la même manière que « les profs », « les cheminots » ou « les avocats », émerge ainsi une catégorie socio-professionnelle qui n’avait jusqu’ici pas d’autre existence que celle des fiches métier de pôle emploi et des soirées pitch de la start-up nation : « les tech ».

    Ce texte s’intitule donc « Appel des travailleuses et travailleurs du numérique pour une autre réforme des retraites » et est accessible sous le nom de domaine « Onestla.tech ». « On est là ». A la fois situationniste (si « on est là » - avec accent sur le « a » que ne permettent pas les URL - c’est que nous sommes ici, que nous sommes présents) et représentatif ("on est la" signifiant « nous représentons »).

    Vingt ans plus tard donc, les codeurs prennent (enfin) la parole. Et ils écrivent :

    « En tant que conceptrices et concepteurs de ces programmes, de ces algorithmes, notre responsabilité est de veiller à ce que nos créations servent à aider, à libérer. De refuser de produire des outils conçus pour exploiter, asservir, réprimer ou polluer. »

    Ce sont eux, ces « codeurs » et « codeuses », ces « agilistes », « CTO », « Tech lead », « Lead Dev. », et consorts, ce sont eux qui « implémentent ces valeurs », eux qui « garantissent ou empêchent certaines libertés ». Ce sont eux qui nous laissent aussi, et ainsi, entrevoir enfin la possibilité de choix collectifs « dans la manière dont ces valeurs sont garanties ».

    Tout doit être codé. Les actes médicaux, les modules d’enseignement, les noms des gens, les prix des choses. Tout. Absolument tout. Le code est une codéine. Un morphinique mineur. Si Bernard Stiegler rappelait que la disruption était « une stratégie de tétanisation de l’adversaire » permettant de le prendre de vitesse pour l’empêcher de penser, la « codification » serait alors son miroir, une stratégie morphinique, un antalgique social qui crée sa propre dépendance. Les deux fonctionnant de pair. A chaque nouvelle fausse accélération, a chaque nouvelle tétanisation disruptive, l’antalgique du code, morphinique social incapacitant à chaque fois qu’il n’est pensé que pour l’accélération.

    Tout doit être codé. Tout. Absolument tout. La « code-enclavure » a remplacé les nomenclatures. On « n’appelle » plus les choses par leur « nom » mais on « enclave » et on enferme les êtres et les choses par un « code ». Codenclavure contre nomenclature. Coder pour refuser de nommer. Encoder pour dé-nommer.

    Il est donc vital pour nos sociétés qu’émerge cette « classe » des travailleurs et travailleuses du numérique, car comme l’expliquait Marx, pour qu’une classe (sociale) puisse exister il faut qu’elle ait conscience d’être une classe. A n’en pas douter au regard de l’évolution de nos sociétés, celle des travailleurs et travailleuses du numérique en est une, et ce collectif tribunicien « On est la Tech » est peut-être cette première prise de conscience.

    #Mouvement_social #Informatique #Algorithmes #Olivier_Ertzscheid #Codage

  • Pourquoi les sociologues de la Silicon Valley veulent changer les GAFA
    https://www.ladn.eu/tech-a-suivre/sociologues-mobilisation-silicon-valley

    Colonialisme technologique

    Le ton est donné par la conférence d’ouverture. Intitulée « Tech Colonialism Today », Sareeta Amrute (Data & Society, University of Washington) montre en quoi la manière dont se sont déployées les technologies recrée un colonialisme. Qu’on s’entende, il ne s’agit pas là d’un slogan contestataire mais un point de vue fécond pour rendre intelligible l’économie contemporaine, son fonctionnement et ses implications. Extraction, exploitation, hiérarchisation : trois éléments caractéristiques du colonialisme d’hier, aux fondements du monde promu par la Tech aujourd’hui. Extraction systématique des ressources minières du Sud pour fabriquer smartphones, data centers ou trottinettes électriques. Exploitation de travailleurs précaires par des systèmes de micro-working : au clic, à la course ou à la livraison. Hiérarchisation des savoirs et des valeurs portés principalement par des hommes blancs diplômés de l’enseignement (très) supérieur avec la croyance (peut-être sincère) d’avoir les solutions aux problèmes du monde et donc le droit de gouverner les hommes. Du techno-chauvinisme en somme.

    Ainsi, la Tech se demande si l’empowerment qu’elle a promis à tous n’est finalement pas resté entre ses mains. « Who really has power ? » (Qui a vraiment le pouvoir ?) La question résonne dans les couloirs de la conférence et dans la tête de chacun. Les technologies ne sont pas aussi neutres qu’on voudrait le croire. Derrière les algorithmes il y a des gens, en chair et en os, avec leurs propriétés sociales, cultures, présupposés, biais… qui finissent par imprégner les technologies. Clapperton Chakanetsa Mavhunga (MIT) invite ainsi à déconstruire l’hégémonie du savoir occidental et sa prétention au monopole de l’innovation, notamment à partir d’exemples africains de réparation, de recyclage et de revente des déchets électroniques arrivés d’Amérique et d’Europe. Un autre point de vue sur la technologie et son utilisation qui tranche d’autant plus que le public de la conférence est majoritairement anglo-saxon et passé par de (très) grandes universités. Tout le monde se sent concerné… si ce n’est responsable !

    #Design #Algorithmes #Colonialisme_technologique

  • Vous avez aimé ceci, vous aimerez cela
    https://www.latribune.fr/opinions/blogs/homo-numericus/vous-avez-aime-ceci-vous-aimerez-cela-834486.html

    HOMO NUMERICUS. Les algorithmes savent presque tout de nous. Ces outils omniprésents dans les nouvelles technologies iront-ils jusqu’à nous ravir notre libre arbitre ? Par Philippe Boyer, directeur de l’innovation à Covivio.

    « Inspiré de votre historique de navigation », «  Notre sélection pour vous » ou encore « Vous avez aimé ceci, vous aimerez cela » ... sont des injonctions que nous connaissons presque tous pourvu que nous achetions déjà sur Amazon, Netflix, Deliveroo et bien d’autres plates-formes numériques. Derrière ces phrases en apparence anodines se cachent une mécanique algorithmique bien huilée destinée à alimenter une stratégie de big data et d’intelligence artificielle qui vise à inciter les utilisateurs à passer toujours plus de temps, et accessoirement dépenser plus d’argent, sur ces sites.

    Grâce aux multiples traces numériques que nous laissons derrière nous, nous devenons de plus en plus prévisibles au point que les applicatifs technologiques en arriveraient presque à anticiper notre propre avenir sans que nous ayons besoin d’y penser nous-mêmes, sorte de renoncement à notre libre-arbitre à « l’insu de notre plein gré ».

    Leibniz
    Pour qui s’intéresse à la philosophie, ces questions de l’affirmation de l’individu face à une entité qui dirige et décide de tout ont animé de très nombreux débats, en particulier au 17ème siècle, quand Descartes et Leibniz, philosophes de la modernité naissante, se demandaient déjà comment affirmer sa liberté face à Dieu, par nature omniscient et grand ordonnateur de toute chose. Leibnitz, est sans conteste le philosophe dont nous pourrions le plus nous inspirer aujourd’hui pour décrire la puissance des algorithmes développés par les entreprises du numérique. Qu’expose-t-il ? Dans son écrit paru en 1714, Monadologie, il oppose deux principes censés fondés l’équilibre du monde. D’une part, la connaissance scientifique, nécessairement vraie. En écrivant que la somme des angles d’un triangle est forcément égale à 180°, il s’agit-là d’une vérité universelle, que le philosophe appelle « principe de contradiction ». Et d’autre part, le « principe de raison suffisante » via lequel des événements se produisent en raison d’un nombre infini de causes qui, assemblées les unes aux autres, finissent par produire un résultat au-dessus de ce qu’un simple humain aurait été capable de penser, de prédire et a fortiori de réaliser.

    Si dans l’esprit du philosophe du 17ème siècle, cette « force obscure » se nomme Dieu, appliqué à notre quotidien du 21ème siècle, imprégné d’algorithmes, une telle « force » pourrait prendre l’appellation de « #big_data » en tant que collecte d’un nombre colossal de données qu’aucun être humain ne pourra jamais ingurgiter. C’est logiquement grâce aux corrélations établies entre toutes ces informations que l’on en arrive ensuite à la mise au point d’algorithmes, pour certains d’entre eux qualifiés de « prédictifs », en ce sens qu’ils peuvent prévoir, voire prédire, certaines de nos futures actions en nous envoyant des recommandations hyper-personnalisées.

    Sommes-nous à ce point transparents ?
    Comment se prémunir face à cette prégnance algorithmique dans laquelle nos comportements numériques sont scrutés, analysés et stockés dans les moindres détails ? Dans une vision dystopique, des algorithmes pourraient-ils finir par nous connaître mieux que nous nous connaissons nous-mêmes ? Sans que nous le sachions, se pourrait-il qu’ils fixent ce que nous pourrions faire sans que nous en ayons pleinement conscience ? Pour ne pas succomber à ce fantasmagorique futur, des débuts de réponses existent. Qu’il s’agisse de la récente législation européenne qui encadre l’usage des données personnelles (RGPD), en passant par nos actions individuelles consistant, sur les principaux moteurs de recherche, à désactiver l’affichage d’annonces basées sur ses propres centres d’intérêt, de nouveaux comportements apparaissent à l’heure d’une prise de conscience grand public de l’usage de ces données et de ses éventuels détournements (on se souvient du scandale Cambridge Analytica ayant eu pour cause la fuite de données personnelles de 87 millions d’utilisateurs Facebook).

    D’autres revendiquent même un certain « droit au mensonge numérique » visant à déjouer les moteurs de recherche à qui nous confions nos questions et nos pensées les plus intimes. S’appuyant sur les recherches Google de millions d’Américains, Seth Stephens-Davidowitz, ancien data scientist de Google, détaille combien ce « sérum de vérité numérique » qu’est le big data et les algorithmes qui sont par la suite construits sur cette matière brute, exposent nos comportements réels. Outre l’exploration de ce que le Big Data nous révèle de notre quotidien, le bien-nommé chapitre « Big Data, big n’importe quoi ? Ce que les données ne peuvent faire » décortique les limites de ce big data en prenant soin d’exhorter ses lecteurs à ne pas s’abandonner à la fatalité qui consisterait à penser que la technologie prendrait systématiquement le pas sur les humains.

    Préserver notre libre arbitre
    La quantité massive de données collectées associée aux algorithmes transforment notre rapport au monde. Ce dernier, c’est un fait, devenant toujours plus objectif, quantifié et mesurable. Face à cette situation, l’une des questions qui se pose est bien celle de la préservation de notre libre arbitre face à cette omniprésence des algorithmes. Pour Aurélie Jean, scientifique reconnue et éminente spécialiste de ces sujets, il s’agit de rappeler « qu’un algorithme ne connaîtra jamais tout de nous pour la bonne et simple raison qu’il n’atteindra jamais complètement notre inconscient. Les algorithmes nous faciliteront la vie de plus en plus à l’avenir, ils nous connaîtront davantage, mais ils ne peuvent pas se substituer à notre libre arbitre, car sans libre arbitre nous ne sommes rien. » et d’ajouter ce message de bon sens destiné, d’une certaine manière, à clore les débats, du moins les plus anxiogènes d’entre eux : « Certes les algorithmes sont plus performants que nous dans de nombreux domaines. Mais il en existe aussi de mal conçus, ou truffés de biais... Dirigeants, journalistes, consommateurs ou citoyens : tous, à notre niveau, nous devons améliorer notre culture algorithmique, et urgemment. »

    Qu’en penserait Leibniz ? Je suggère de poser la question à Google...

  • « Capitalisme carcéral » : la prison du futur sera partout
    https://usbeketrica.com/article/capitalisme-carceral-la-prison-du-futur-sera-partout

    "Capitalisme carcéral" paraît ce 22 novembre en France aux Éditions Divergences. Par ailleurs cinéaste, poète et militante, la chercheuse américaine Jackie Wang ambitionne de montrer comment « les techniques carcérales de l’Etat sont formées par - et travaillent de pair avec - les impératifs du capitalisme mondial ».

    Dans le sillage d’autrices et d’auteurs aux approches variées comme Roberto Esposito, Rosa Luxemburg ou le géographe britannique David Harvey, le livre (publié en 2016 aux Etats-Unis) propose d’établir un continuum entre les logiques financières de la dette et celles des nouvelles formes de contrôle. Bracelets connectés, algorithmes de prédiction des crimes… Déjà à l’oeuvre dans les municipalités américaines, ces dispositifs n’ont pas seulement pour objet de « mettre au pas les gens de couleur, mais aussi de les exploiter et d’en tirer profit en les enfermant dans le cercle vicieux de la dette », écrit Jackie Wang.

    #Capitalisme #controle #algorithmes #surveillance #police

  • YouTube is experimenting with ways to make its algorithm even more addictive - MIT Technology Review
    https://www.technologyreview.com/s/614432/youtube-algorithm-gets-more-addictive

    Recommendation algorithms are some of the most powerful machine-learning systems today because of their ability to shape the information we consume. YouTube’s algorithm, especially, has an outsize influence. The platform is estimated to be second only to Google in web traffic, and 70% of what users watch is fed to them through recommendations.

    In recent years, this influence has come under heavy scrutiny. Because the algorithm is optimized for getting people to engage with videos, it tends to offer choices that reinforce what someone already likes or believes, which can create an addictive experience that shuts out other views. This also often rewards the most extreme and controversial videos, which studies have shown can quickly push people into deep rabbit holes of content and lead to political radicalization.

    Among the proposed updates, the researchers specifically target a problem they identify as “implicit bias.” It refers to the way recommendations themselves can affect user behavior, making it hard to decipher whether you clicked on a video because you liked it or because it was highly recommended. The effect is that over time, the system can push users further and further away from the videos they actually want to watch.

    To reduce this bias, the researchers suggest a tweak to the algorithm: each time a user clicks on a video, it also factors in the video’s rank in the recommendation sidebar. Videos that are near the top of the sidebar are given less weight when fed into the machine-learning algorithm; videos deep down in the ranking, which require a user to scroll, are given more. When the researchers tested the changes live on YouTube, they found significantly more user engagement.

    Though the paper doesn’t say whether the new system will be deployed permanently, Guillaume Chaslot, an ex-YouTube engineer who now runs AlgoTransparency.org, said he was “pretty confident” that it would happen relatively quickly: “They said that it increases the watch time by 0.24%. If you compute the amount, I think that’s maybe tens of millions of dollars.”

    #Plateformes #Algorithmes_recommandation #YouTube

  • Getting Specific About Algorithmic Bias - Rachel Thomas - YouTube
    https://www.youtube.com/watch?v=S-6YGPrmtYc&list=PLtmWHNX-gukLQlMvtRJ19s7-8MrnRV6h6&index=5&t=0s

    Through a series of case studies, I will illustrate different types of algorithmic bias, debunk common misconceptions, and share steps towards addressing the problem.
    Original slides: https://t.ly/9gO5k

    About the speaker
    Rachel Thomas is a professor at the University of San Francisco Data Institute and co-founder of fast.ai, which created the “Practical Deep Learning for Coders” course that over 200,000 students have taken and which has been featured in The Economist, MIT Tech Review, and Forbes. She was selected by Forbes as one of 20 Incredible Women in AI, earned her math PhD at Duke, and was an early engineer at Uber. Rachel is a popular writer and keynote speaker. In her TEDx talk, she shares what scares her about AI and why we need people from all backgrounds involved with AI.

    #algorithmes #biais #AI

  • Netflix : chronique d’un carnage – ACTA
    https://acta.zone/netflix-chronique-dun-carnage

    Dans cette contribution, l’un de nos lecteurs réguliers revient sur le développement du téléchargement illégal jusqu’à sa pénalisation et sa diminution tendancielle, permettant l’avènement de la consommation de contenus cinématographiques et télévisuels incarnée par Netflix. N°1 des plateformes de streaming légal, ce “géant du numérique” a su imposer son hégémonie : production de contenus originaux, puissant algorithme de sélection et de répartition par mots-clés, profilage.
    Pour autant le tableau dressé est acerbe : un panel de contenus édulcorés participant à “l’uniformisation” et la “colonisation” culturelles qui agissent sur le “consommateur Netflix” au fil des films et des séries ; une stratégie #marketing dévorante, s’employant à masquer les rapports de #domination qui traversent la société ; une mobilisation énergivore du “temps de cerveau disponible” et un fonctionnement ultra-polluant, entre data-centers et exploitation minière.

    #streaming #séries #algorithmes #culture

  • Comment un algorithme a empêché des millions d’Afro-Américains de bénéficier de soins de santé optimaux - Société - Numerama
    https://www.numerama.com/politique/564260-comment-un-algorithme-a-empeche-des-millions-dafro-americains-de-be

    En 2018, le Centre national des statistiques de santé expliquait que 9 % de la population vivait sans couverture maladie. Les soins de santé sont particulièrement difficiles d’accès pour eux, ce qui pousse beaucoup de gens à y renoncer.

    Parmi ces 9 %, explique l’étude, les patientes et patients noirs sont surreprésentés : en raison de leur couleur de peau, ils subissent des discriminations et sont davantage exposés à la précarité. L’algorithme mis en cause par la revue Science aurait uniquement compris qu’ils dépensaient moins d’argent dans les soins de santé… mais il n’a pas pris en compte les raisons. Pour ce genre d’outils, « moins d’argent dépensé » équivaut en effet bêtement à « moins de problèmes de santé ».

    Selon l’étude, 17,7 % des patients américains noirs reçoivent actuellement ce que l’on appelle « une prise en charge complémentaire », réservée aux patients à risque. Science estime que si l’algorithme était correctement conçu, ce pourcentage devrait être de 46,5 %. À terme, cela peut créer des problèmes de santé majeurs.

    L’étude ne mentionne pas l’identité des créateurs de l’algorithme. Elle explique que plusieurs firmes utilisent des systèmes similaires, les assureurs notamment. Ils permettent à ces derniers d’éviter des frais jugés inutiles, en analysant au mieux les besoins des patients.

    #Santé #Intelligence_artificielle #Racisme #Algorithmes

    • Je ne comprends pas @nestor si tu interroges la pertinence de traiter les gens comme des items statistiques ou si c’est juste une manière de dire que tu t’en tapes, des conséquences du racisme et des préjugés, parce que les personnes noires ont le super privilège de voir une personne sur 100 000 financer ses études par le sport ou sur un million gagner un paquet.

  • Germany shooting livestreamed despite efforts by tech firms
    https://www.msn.com/en-us/news/world/germany-shooting-livestreamed-despite-efforts-by-tech-firms/ar-AAIxxj2

    The news come after the deadly New Zealand mosque shooting livestreamed on Facebook in March, which prompted governments to press social networks to prevent the airing of violent acts on their platforms.

    [...]

    “Filtering algorithms so far have not been very good at detecting violence on livestream,” noted Jillian Peterson, a professor of criminology at Hamline University, who suggested that social media firms may end up being “held accountable” for their role in spreading violent and hateful content.

    Research by Peterson and others suggest shooters may be affected by contagion when they see similar attacks.

    “In many ways, these shootings are performances, meant for all of us to watch,” Peterson said.

    “Social media — and now livestreaming services --- have given perpetrators a larger stage and wider audience. Perpetrators are looking to show their grievance to the world, and livestreaming gives them the means to do it.”

    Hans-Jakob Schindler of the Counter Extremism Project, a group seeking to curb online violence, said the latest livestream highlights a need for stronger actions against social platforms.

    “Online platforms need to step up and stop their services being used and in turn, parent companies need to hold them accountable,” Schindler said.

    “Amazon is just as much to blame as Twitch for allowing this stream online. This tragic incident demonstrates one more time that a self-regulatory approach is not effective enough and sadly highlights the need for stronger regulation of the tech sector.”

    #algorithmes #filtres #régulation versus #censure #surveillance #GAFA #silicon_valley #violence

  • Employers Used Facebook to Keep Women and Older Workers From Seeing Job Ads. The Federal Government Thinks That’s Illegal. — ProPublica
    https://www.propublica.org/article/employers-used-facebook-to-keep-women-and-older-workers-from-seeing-job-

    Two years ago, ProPublica and The New York Times revealed that companies were posting discriminatory job ads on Facebook, using the social network’s targeting tools to keep older workers from seeing employment opportunities. Then we reported companies were using Facebook to exclude women from seeing job ads.

    Experts told us that it was most likely illegal. And it turns out the federal government now agrees.

    #Médias_sociaux #Facebook #algorithmes #ciblage #discrimination #femmes #sexisme #jeunisme

  • Opinion | Jaron Lanier Fixes the Internet - The New York Times
    https://www.nytimes.com/interactive/2019/09/23/opinion/data-privacy-jaron-lanier.html

    By Jaron LanierSept. 23, 2019

    Episode 1 The Great Data Robbery
    Episode 2 You Should Get Paid For Your Data
    Episode 3 Hope For Our Internet Future
    Opinion | The Privacy Project
    Jaron Lanier
    Fixes The Internet
    By Jaron Lanier, Produced by Adam Westbrook
    The Silicon Valley maverick has a radical vision for how we can all earn money from our data.
    Episode 1 The Great Data Robbery You’ve been tricked into giving away your most valuable asset.
    Episode 2 You Should Get Paid for Your Data Your data makes the internet go round. Here’s a plan to get you compensated.
    Episode 3 Hope For Our Internet Future We can remake the internet into a force for good.

    #Données #Vie_privée #Algorithmes #Jaron_Lanier

  • Algorithms Should’ve Made Courts More Fair. What Went Wrong? | WIRED
    https://www.wired.com/story/algorithms-shouldve-made-courts-more-fair-what-went-wrong

    How these algorithms change the way justice is administered is largely unknown. Journalists and academics have shown that risk-scoring algorithms can be unfair or racially biased. The more crucial question of whether they help judges make better decisions and achieve the tools’ stated goals is largely unanswered.

    The Kentucky study is one of the first in-depth, independent assessments of what happens when algorithms are injected into a justice system. It found that the project missed its goals and even created new inequities. “The impacts are different than what policymakers may have hoped for,” says Megan Stevenson, a law professor at George Mason University who authored that study.

    #biais #algorithmes #justice #etats-unis #racisme

  • Facebook anéantit l’audience d’une partie de la gauche radicale | Mediapart
    https://www.mediapart.fr/journal/france/290819/facebook-aneantit-l-audience-d-une-partie-de-la-gauche-radicale?onglet=ful

    Confrontée à une soudaine chute du nombre de vues de leurs publications, plusieurs pages Facebook de collectifs de la gauche radicale cherchent à comprendre ce qui leur est arrivé. Censure politique, économique, algorithmes ? Leurs questions restent pour l’instant sans réponse.

    #Facebook #Censure #Algorithmes

  • « La capacité de penser de façon autonome, voire de penser tout court, est en péril »
    https://www.lemonde.fr/idees/article/2019/08/20/la-capacite-de-penser-de-facon-autonome-voire-de-penser-tout-court-est-en-pe

    Contre l’aliénation nouvelle que représente la manipulation des données par des algorithmes mis au service des grandes entreprises et des Etats, l’économiste Pierre Dockès en appelle, dans une tribune au « Monde », à une « insurrection civique ».

    Tribune. Les grandes vagues de changement technique ont toutes suscité des réactions de rejet pouvant aller jusqu’à la révolte. Le Moyen Age rejetait les innovations estimées maléfiques. La révolution industrielle provoqua les révoltes luddistes [luddisme : mouvement opposé au machinisme au début de la révolution industrielle]. L’avènement de la grande industrie faisait de l’usine un « bagne mitigé » et de la société une « mégamachine ».

    Pourtant la technologie n’est pas, en elle-même, responsable des maux dont on l’accable. Les luddistes s’en prenaient aux machines, mais leurs conséquences négatives s’expliquaient par leur mise en œuvre sous des rapports sociaux spécifiques. Les techniques ne sont cependant pas « innocentes » puisqu’elles ont été configurées dans un certain schéma social.

    Il en va de même aujourd’hui : l’être humain est menacé d’une #expropriation majeure de ses « capabilités » (pour reprendre les termes de l’économiste indien Amartya Sen, prix Nobel d’économie 1998), ses libertés substantielles. Pour la philosophe Simone Weil (1909-1943), « la société la moins mauvaise est celle où le commun des hommes a les plus grandes possibilités de contrôle sur l’ensemble de la vie collective et possède le plus d’indépendance » (Réflexions sur les causes de la liberté et de l’oppression sociale, 1934, Simone Weil, Gallimard, 1999). Elle valorise ainsi la vie rude du pêcheur ou celle de l’artisan médiéval car ce sont des vies « d’homme libre ». C’est sous cet angle de l’aliénation qu’il faut juger la révolution numérique, et pas seulement comme une énième révolution industrielle.

    Manipulation des #comportements
    Aux deux processus historiques majeurs reconnus par l’économiste Max Weber (1864-1920) – la formation du capital par l’expropriation des petits producteurs autonomes de leurs moyens de production (repris de Marx), et la formation de l’Etat comme détenteur du monopole de la violence légitime (dans Politik als Beruf, 1919) – s’ajoute aujourd’hui une troisième phase appuyée sur les vagues précédentes.

    Nos données privées captées, agrégées par le croisement des dossiers et revendues, permettent la manipulation des comportements, une publicité et une propagande ciblées. Les smartphones, les objets connectés (que la 5G va permettre de centupler) sont autant d’espions. Les safe cities capables de suivre précisément les déplacements de chacun et de repérer le moindre comportement « anormal » se multiplient. La monnaie privatisée va permettre une mainmise approfondie sur nos données vitales.

    Cela peut aller jusqu’à l’assujettissement par un Etat-parti totalitaire, comme dans la Chine de Xi Jinping. La reconnaissance faciale y est omniprésente, le système de notation généralisée par le « crédit social » y tient compte des « données de connexion » – soit les relations amicales (d’où les stratégies d’évitement d’« amis » mal notés) – et la sphère privée y a pratiquement disparu. Déjà une forme molle de ce système orwellien se développe dans les pays occidentaux.
    Article réservé à nos abonnés Lire aussi « Il semble illusoire de contrôler a priori les outils d’intelligence artificielle car leurs conséquences sont quasi imprévisibles »

    Cette aliénation rencontre et forge nos désirs, pour mieux les conformer aux intérêts dominants. Les humains influencés consommeront bientôt les produits qu’un algorithme désignera à partir de leurs données personnelles. L’algorithme choisira, commandera et payera pour eux, avec leur assentiment exprès, voire tacite. Beaucoup apprécient déjà que la captation de leurs données permette un formatage publicitaire personnalisé et la safe city satisfait leur désir de sécurité.

    Retrouver l’esprit libertaire
    L’imperceptible et progressif avènement d’une société de surveillance, la perte d’autonomie économique et politique et la disparition de la vie privée ne sont comparativement qu’une petite gêne, une légère démangeaison pour l’individu, tant les bénéfices techniques sont grands ! Mais la capacité même de penser de façon autonome, voire de penser tout court, est en péril.

    Sans même parler du transhumanisme, se façonne ainsi le « dernier homme », celui décrit par Nietzsche dans Ainsi parlait Zarathoustra, si méprisable qu’il ne se méprise même plus, celui que les foules d’antan et certains réseaux sociaux d’aujourd’hui réclament sous l’œil bienveillant des puissants. Comme nous l’expliquons dans La Nouvelle Résistance. Face à la violence technologique (Eyrolles, 2019), écrit avec Jean-Hervé Lorenzi et Mickaël Berrebi, il faut un sursaut démocratique. Ce combat pour l’être humain est à la hauteur de celui pour la planète – d’ailleurs les raisons profondes en sont les mêmes.

    La soi-disant autorégulation des #GAFA [Google Amazon, Facebook, Apple] est un faux-semblant, mais l’espoir de leur régulation par les Etats ne vaut guère mieux. Les Etats sont dépendants, complices ou même parfois responsables. Aux Etats-Unis, Donald Trump brandit des menaces de rétorsions en défense des GAFA pour empêcher une modeste tentative de leur faire payer des impôts. Et en Chine, l’Etat a la mainmise sur les entreprises comme Alibaba qui lui permettent d’exercer son contrôle social.

    On ne peut finalement compter que sur une insurrection civique, sur les résistances individuelles et collectives qui se développent déjà, non pas contre la révolution technologique en elle-même, mais en inventant de nouvelles techniques, de nouvelles configurations, de nouveaux usages plus sobres, en rejetant les pratiques aliénantes afin de retrouver l’esprit libertaire qui caractérisait les débuts d’Internet.

    Pierre Dockès est l’auteur de Le Capitalisme et ses rythmes, quatre siècles en perspective. Tome II : Splendeurs et misère de la croissance (Classiques Garnier, 2019) et, avec Jean-Hervé Lorenzi et Mickaël Berrebi, de La Nouvelle Résistance. Face à la violence technologique (Eyrolles, 2019).

    #algorithmes #données #data

    • non pas contre la révolution technologique en elle-même

      Tout est là : surtout ne pas s’opposer à quoi que ce soit, et moins encore à la divinité tutélaire des sociétés capitalistes et industrielles, la technologie. Il suffit de "subvertir les usages" comme on dit chez #Multitudes.

      Une forme caractéristique de #pseudo_critique (#critique_techno).

      Dans La Nouvelle Résistance , p.115 (fin du chapitre “Un monde de résistances”) on peut lire ceci :

      La vraie résistance consistera à rendre tous les hommes et toutes les femmes, quelque soit leur catégorie socio-professionnelle, quelque soit leur formation initiale, capables de s’adapter rapidement aux évolutions technologiques, et cela à plusieurs reprises dans leur vie professionnelle.

      Résister, c’est s’adapter. (apologie de la #soumission)
      La liberté, c’est l’esclavage.
      L’ignorance, c’est la force.
      La guerre, c’est la paix.

      Ce #Pierre_Dockès, c’est #Orwell !

      @colporteur @kamo

  • Algorithmes : où sont les dangers ?
    http://theconversation.com/algorithmes-ou-sont-les-dangers-120543

    Pourquoi avons-nous spontanément tendance à croire qu’à l’origine de nos maux se cache un agent animé par une volonté de nuire ? Plusieurs mécanismes psychologiques permettent d’en rendre compte, et notamment certains biais cognitifs – des erreurs systématiques de raisonnement. L’humain tend naturellement à raisonner de manière téléologique, c’est-à-dire à penser que si un évènement se produit, celui-ci se produit dans un but particulier. Par extension, nous pourrons avoir tendance à croire que l’évènement a été voulu par un agent conscient, ce dernier fut-il invisible. Ce type de raisonnement se retrouve dans nombre de croyances, allant du créationnisme à diverses théories du complot. Tout particulièrement pour expliquer les évènements ayant des conséquences négatives, il semble que nous privilégions les causes intentionnelles aux causes accidentelles.

    On parle de « biais d’intentionnalité » pour désigner cette tendance à spontanément chercher une intention consciente derrière les évènements. Si dans nombreux cas ce biais nous amènera à des conclusions hâtives et souvent fautives, il comporte un avantage important : il permet d’identifier clairement et rapidement un responsable, et donc d’agir contre celui-ci là où une réflexion plus fine, scientifique, prendra davantage de temps… temps durant lequel le coupable intuitivement identifié pourra continuer de nuire ! Dans la mesure où le biais d’intentionnalité (et le raisonnement téléologique de façon générale) s’observe dès la petite enfance, on peut supposer qu’il est issu de notre histoire évolutive.

    Ainsi, le biais d’intentionnalité comporte une utilité adaptative qui était d’autant plus grande à l’époque où les sociétés étaient à la fois moins complexes et plus violentes. La désignation d’un coupable (qui sera bien souvent un groupe social particulier, perçu comme une entité monolithique : les élites, les banquiers, Big Pharma, les multinationales, les immigrés, les Juifs…), est un puissant facteur de mobilisation collective. Outre cet intérêt adaptatif, il est de plus en plus clair que les expressions conspirationnistes du biais d’intentionnalité ont d’autant plus de chance d’apparaître à la suite d’un évènement générant de la peur et de l’incertitude. La désignation d’un coupable permet également de soulager l’inconfort mental provoqué par cet état d’incertitude et de peur.

    L’utilisation généralisée des algorithmes est adossée à une série de phénomènes qui préoccupent de plus en plus les chercheurs en sciences sociales : dérégulation généralisée du marché de l’information, isolement des individus dans des bulles idéologiques, viralité d’informations douteuses, perpétuation de stéréotypes (notamment par les moteurs de recherche)… Mais également, dans des registres plus dramatiques, krachs boursiers et décisions de justice iniques à l’égard des minorités. Tous ces phénomènes ont en commun qu’ils n’ont pas été délibérément provoqués par un agent conscient. Il s’agit d’effets émergents, c’est-à-dire des effets collectifs plus ou moins imprévisibles qui découlent de l’agrégation d’actions individuelles non concertées – cette dernière précision étant d’une importance capitale.

    Notre cerveau semble cablé pour rechercher des coupables derrière les maux qui frappent la société. Cette intuition, si elle peut dans nombre de cas s’avérer fautive ou à tout le moins non fondée, comporte certains avantages : elle encourage dans certains cas à se mobiliser, et à agir contre le coupable présumé – quand bien même celui-ci serait en réalité innocent. Néanmoins, le cas des algorithmes – des « weapons of math destruction » – rappelle que quand bien même nous peinons à imaginer qu’un problème social puisse advenir en l’absence d’une volonté malveillante, de telles situations sont bien réelles, et constituent des enjeux majeurs pour la société. Concernant les algorithmes, on peut par exemple s’interroger sur la nécessité de rendre leur fonctionnement moins opaque. En effet, cette opacité empêche leur analyse critique, et par la même la responsabilisation de leurs concepteurs – quand bien même ceux-ci seraient animés par les meilleures intentions qui soient.

    #Algorithmes #Fake_news #Complotisme