• C’est assez rigolo, mais en même temps, il y a cette phrase qui suggère que le filtrage par AI par particulièrement approximatif :

      With every sort of content filter, there is a tradeoff, [the executive] explained. When a platform aggressively enforces against ISIS content, for instance, it can also flag innocent accounts as well, such as Arabic language broadcasters.

      Si « Arabic language broadcasters » te classe dans la censure automatique anti-ISIS – mais « la société est prête à l’accepter » (quelle société, si ce n’est la société islamophobe et raciste du shithole country ?) –, le fait que des républicains soient confondus avec des néo-nazis ne m’apparaît plus si défendable (même si, bon quand même…).

    • Ce qui est vraiment consternant c’est que ce type de raisonnement est à la base des logiques de détection algorithmique que ça s’appelle IA, statistiques ou toute autre méthode qu’on voudra bien utiliser. Toute méthode produit des #erreurs (de 1ère espèce, faux positifs ou de 2nde espèce, faux négatifs) et, à l’usage, et on l’évalue en fonction de l’occurrence de la prévalence de l’élément que l’on cherche à détecter dans la population (resp. % de terroristes dans la population d’arabophones, % de néo-nazis chez les républicains).

      Pour une intro de base, voire #Sensibilité et #Spécificité chez WP
      https://fr.wikipedia.org/wiki/Sensibilité_et_spécificité
      ou encore #courbe_ROC, #AUC, …
      https://fr.wikipedia.org/wiki/Courbe_ROC

      Après ces bases statistiques – toujours remarquablement absentes dès qu’on parle d’étendre un dispositif de surveillance/détection – mais après seulement, on peut parler en terme de coût (financier ou social) des erreurs des deux types. Et donc, ce que dit @arno, ce qui est socialement acceptable :
      • vu la prévalence de l’islamo-terroriste et quels que soient les performances des détecteurs, on est pratiquement assuré que (presque) tous les positifs seront des faux positifs (et on s’en fout…)
      • pour les néo-nazis, on risque surtout de buter sur l’endroit où on met la limite (et il n’est même pas avéré que les faux positifs soient fâchés de l’erreur de classification…)

    • L’attrait de l’article, c’est l’idée que d’« après Twitter », s’ils censurent automatiquement les contenus néo-nazis, ils vont se retrouver à censurer des élus républicains (« faux positifs »), et ça nous fait à tous un peu plaisir de penser que ça confirme que les élus républicains ne sont pas bien loins des néo-nazis white-power. Si on résume cette logique : « la censure par l’AI de Twitter confirme que les républicains sont des fachos ».

      Le problème, c’est que le même article signale que quand ils filtrent avec la même AI les contenus pro-ISIS, ça met dans le tas des contenus totalement innocents au motif que le simple fait de parler en arabe est un marqueur fort pour l’AI (faux positifs donc aussi).

      Donc l’intérêt – a priori assez plaisant – de l’article, comme quoi les « erreurs » de l’AI de Twitter démontreraient ce qu’on pense déjà, c’est-à-dire que les républicains sont des fascistes, hé ben ça ne tient pas (sinon on accepte l’idée que les gens qui s’expriment en arabe sont pro-ISIS, puisque c’est ce que fait la même AI).

    • merci @arno, je vais te sous-traiter les réécritures de mes écrits « technique »…

      Les mots sont «  techniques  », mais le principe est assez simple. Un «  classificateur binaire  » auquel fait référence WP, ça veut juste dire qu’on trie une population en 2 tas ; pour faire simple des «  méchants  » et des «  gentils  ». Ça marche pour plein de trucs : un œuf pourri dans la production d’un poulailler, un monsieur avec du plastic dans ses semelles parmi les passagers embarquant à Roissy, un «  pas gentil  » parmi les trombines des passants dans une rue, etc.

      Toute méthode, automatisée ou pas, appliquée systématiquement produira des erreurs ; erreurs de DEUX types :
      • un «  gentil  » pris pour un «  méchant  » (faux positif)
      • un «  méchant  » pris pour un «  gentil  » (faux négatif)
      et donc sera associée à DEUX risques, le risque des erreurs de la première espèce ET le risque des erreurs de la seconde espèce (au passage, ce sont les termes techniques).
      Dans la plupart des méthodes, tu disposes (d’au moins) un paramètre qui te permet d’arbitrer entre ces deux risques. Ainsi, si tu ne veux pas avoir de faux positif, il suffit de décider que tout le monde est gentil ; le hic c’est que ta méthode n’interceptera plus aucun méchant. Et tu peux échanger entre les deux risques.

      Typiquement, dans les exemples statistiques qui vont bien (en contrôle qualité, p. ex.) on considère des risques d’erreur de l’ordre de 5% à 10%. Prenons, p. ex. 5% pour le premier et 10% pour le second) au passage, dans la plupart des méthodes de surveillance, on en est très loin. Ainsi dans cet exemple pointé récemment, https://seenthis.net/messages/799826, on trouve 19% des individus identifiés correctement ; on ne sait pas très bien à quoi ça correspond par rapport aux risques ci-dessus, mais on voit que 81% (le complément à 100%) des individus ne sont pas correctement reconnus.

      Gardons 5% et 10%. Le dernier paramètre important pour modéliser le fonctionnement du système de surveillance, c’est le pourcentage a priori de «  méchants  » dans la population totale. Avec ça, tu vas pouvoir calculer combien, en moyenne, ton système produit d’erreurs et de quels types. Je prends par exemple, les passagers transitant à Roissy tous les jours, ça nous en fait environ 200 000, on peut raisonner «  en moyenne  ».

      Si tu as en gros 30% de méchants dans la population, tu en vois passer 60 000 dont tu laisseras passer 10% (2ère espèce) de faux négatifs (6000) et dont tu arrêteras le reste, soit 54 000.
      Sur les 140 000 gentils (les pas méchants, si tu préfères) 5% (1ère espèce) seront arrêtés, soit 7 000 et 133 000 passeront sans encombre.
      Bilan : tous les jours tu interceptes 61 000 personnes dont 54 000 à juste titre et 7 000 par erreur. C’est encore admissible…

      Mais 30% de méchants, c’est ÉNORME. Mettons en 1% (et c’est encore gigantesque) et refaisons les calculs.
      2 000 méchants par jour, dont 200 passent au travers du filet et 1800 sont arrêtés
      198 000 gentils dont 9900 sont arrêtés à tort.
      Bilan : tu as arrêté 10 100 personnes dont 200 vrais méchants. De ce fait, outre le bazar que tu mets à l’embarquement, (pratiquement) toutes les personnes retenues le sont à tort, résultat, très vite, on ne s’occupera plus des alarmes.

      Conclusion, très générale : quand ce que tu cherches est très peu fréquent dans la population, les méthodes de contrôle systématiques en population générale (càd appliquées à tout le monde) ne peuvent pas marcher. Toute personne affirmant le contraire est au mieux un ignare au pire un escroc manipulant les ignares. Ce qui marche (éventuellement) ce sont des méthodes spécifiques (par exemple un indic – on a aussi un exemple tout frais) appliquées sur des populations ciblées (càd où, a priori, le taux de méchants est plus élevé qu’en population générale). La seule justification (?) d’un contrôle systématique de disposer d’une gigantesque base de données qui te permet, quand tu connais le méchant de pouvoir le retrouver dans ta base).

      OK, si tu souffres d’aritmophobie tu auras décroché très rapidement, mais la logique de ce type de calcul est assez simple et imparable, même si c’est un peu long à développer (ce qui fait que ça ne l’est rigoureusement jamais…)

      PS : je sais que j’ai déjà développé ce genre de choses (au moins…) une fois ici.

    • @arno , @simplicissimus Comme je suis super content d’avoir osé dire (après une longue hésitation) que j’avais rien capté, parce que maintenant j’ai compris et je trouve cela vraiment très intéressant, je regrette même de ne l’apprendre que maintenant tant ce raisonnement des faux positifs et des faux négatifs m’aurait été tellement utile quand je travaillais dans l’informatique et que je me battais contre les avalanches de fausses alertes en tentant de faire remonter qu’elles étaient factrices de vraies alertes manquées.

      Avouez que vous êtes l’un et l’autre nettement plus clairs dans vos deuxièmes contributions dont je vous remercie tous les deux.

      Mais ça continue de me faire sourire qu’on confonde les Républicains avec des Nazis. Parce que c’est la même chose non ?

    • Diala a un geste, apparemment libanais, pour qualifier ma façon d’expliquer les choses : ça consiste à se boucher l’oreille gauche avec la main droite en faisant tout le tour de la tête.

    • Une amie proche de la famille avait un jour statué sur le fait que pour mes enfants la vraie punition c’était la longueur de l’explication. Ça nous avait beaucoup fait rire et cela avait été l’occasion d’une sérieuse remise en question paternelle, depuis quand je dois expliquer quelque chose à mes enfants on négocie avant l’explication le temps qui m’est imparti et on se sert d’un compte-minute.

      http://desordre.net/photographie/numerique/divers/videos/20181014_pendule.mp4

  • La #banlieue, un projet social. Ambitions d’une #politique_urbaine, 1945-1975

    La France, au sortir de la Seconde Guerre mondiale, connaît une crise du #logement sans précédent, dont l’appel de l’#abbé_Pierre en 1954 marque le paroxysme. Une action forte s’avère indispensable. C’est dans ce contexte que l’État français a entrepris, dès 1945, l’une des plus formidables expériences sociales et architecturales du XXe siècle : transformer un pays essentiellement rural en une nation urbaine résolument moderne – cela en bâtissant massivement, en #périphérie des villes historiques. Si ces environnements suburbains d’après-guerre, hérissés de #tours, de #barres et de #mégastructures, sont souvent perçus comme le résultat anarchique d’un désintérêt politique, #Kenny_Cupers démontre que leur construction a, au contraire, été guidée par de ferventes #ambitions et #aspirations, notamment au sein de l’Administration. Synthèse très documentée d’une vaste révolution urbaine, des #bidonvilles de l’après-guerre jusqu’aux #villes_nouvelles, ce livre relate et analyse trois décennies d’#expérimentations au cœur desquelles était placé l’#habitat, nouvel enjeu du #modernisme, et établit une véritable généalogie de la banlieue française. Cette histoire détaillée des #projets_urbains de grande envergure menés par la France d’alors – et qui se sont révélés être une #spécificité_nationale – met au jour toute la complexité théorique, sociologique, administrative, etc., qui sous-tend la réalisation de ce « #projet_social ». Cet ouvrage, servi par une iconographie riche et évocatrice, s’appuie en outre sur de précieuses archives de première main.


    https://www.editionsparentheses.com/La-banlieue-un-projet-social
    #urban_matter #livre #histoire #France #géographie_urbaine

    • « l’État français a entrepris, dès 1945, l’une des plus formidables expériences sociales et architecturales du XXe siècle : transformer un pays essentiellement rural en une nation urbaine résolument moderne »



      La France avait comme principal problème un manque de main d’oeuvre pour une industrie en manque de modernisation.
      Un baisse de la natalité, depuis plus d’un siècle, avec aggravation lors de la guerre précédente.

      Par ailleurs, 20 % des logements avaient été détruits par les bombardements.
      A Paris, 10 % de la population vivait à l’hôtel, en meublés.

      Cette modernisation de l’habitat avait aussi été une demande du CNR, comme celui du plein emploi.
      Ce plein emploi a donné ce qui est communément appelé les 30 glorieuses.

  • Relation sexuelle à 11 ans : le parquet de Pontoise ne poursuit pas pour viol
    25 septembre 2017 Par Michaël Hajdenberg
    https://www.mediapart.fr/journal/france/250917/relation-sexuelle-11-ans-le-parquet-de-pontoise-ne-poursuit-pas-pour-viol?

    Dans le Val-d’Oise, une enfant de 11 ans a eu une relation sexuelle avec un inconnu de 28 ans. Elle l’a suivi, puis a subi l’acte sans protester, ce qui fait dire au parquet qu’elle était consentante. Mardi, l’homme sera jugé pour « atteinte sexuelle », et non pour viol. Une spécificité française.

  • Tant qu’il y aura des dominants et des dominés « la lutte des classes » aura un avenir infini...
    À bientôt j’espère (1967-1968) un film de Chris Marker et Mariot Marret
    https://www.youtube.com/watch?v=pswaIh0Qa-g

    http://www.dvdclassik.com/critique/a-bientot-j-espere-marker-marret

    Marker filme la grève dans la filature de #Rhodiaceta (groupe Rhônes-Poulenc) de #Besançon en 1967, à la demande de #Pol_Cèbe, #bibliothécaire de l’usine. Cèbe envisage un projet où les ouvriers pourraient prendre en main leur #émancipation par la #réappropriation d’une #culture détenue par la #bourgeoisie. Ses préoccupations rencontrent celles de Marker et Marret qui désirent reproduire l’#expérience du ciné-train du cinéaste #Medvedkine. En 1932, le #réalisateur russe parcourait l’U.R.S.S. à bord d’un train, filmait les ouvriers et leur montrait juste après montage dans la journée le résultat. Application des théories de #Walter_Benjamin (1), l’idée était alors de permettre aux ouvriers de se #voir au #travail, de leur #donner les #outils pour l’#améliorer, bref #construire la nouvelle Russie. La méthode est directement issue de la première période du #cinéma où des #cinéastes itinérants allaient de ville en ville filmer les sorties d’usines et montrer le soir même aux habitants le résultat. Les gens se déplaçaient en masse, heureux de se voir, de voir leurs voisins, leurs amis. Medvedkine dépasse le simple #spectacle #mercantile dans une optique #politique et #sociale, un outil de #propagande au service d’un nouvel #idéal. Marker et Marret décident donc de prolonger cette expérience. Leur idée consiste à filmer au plus près le travail des ouvriers, leur mode de vie, de manière à leur faire #appréhender leurs #spécificités, leur culture, leur mode de vie. Et leur donner les outils pour changer leur condition. Tout commence avec un appel lancé à Marker par René Berchoud, secrétaire du CCPPO (voir bonus). Il l’enjoint de venir à #Rhodia car quelque chose s’y passe d’important. Déjà en #1936, les grandes #grèves démarrèrent dans les filatures du Jura et Berchoud sent qu’il n’assiste pas seulement à une grève, mais à une prise de #conscience. Une projection de Loin du Vietnam vient d’y être organisée, et ce pamphlet collectif a profondément marqué les ouvriers de l’usine. Pas seulement parce que c’est la première fois qu’une avant première est dédiée aux travailleurs, mais également car à travers ce travail, une idée se profile…

    Marker et Marret tournent alors #A_bientôt _j’espère, dont le titre même évoque quelque chose qui prend #corps. Dans ce #reportage sur la grève de la Rhodiaceta (groupe Rhônes-Poulec), les ouvriers se livrent, peut-être pour la première fois, devant la #caméra. Leurs revendications portent non sur les #salaires, mais plus généralement sur leur #qualité de #vie, et surtout sur l’accès à une #culture qui jusqu’ici leur paraissait impossible. Des paroles qui annoncent #Mai #68. A l’origine, le mouvement naît des menaces de licenciement qui pèsent sur les 14000 ouvriers du #groupe. Les paroles des #dirigeants résonnent bizarrement dans notre #société actuelle. Ils se réfugient déjà derrière le marché commun, expliquant que les #suppressions d’#emploi ne sont pas de leur fait, mais leur sont imposées par des forces extérieures. A bientôt j’espère s’ouvre sur l’image d’ouvriers qui, Noël approchant, choisissent des sapins. C’est bien en quelque sorte la #fête qui va marquer la fin du mouvement, les ouvriers voulant, malgré tout, pouvoir offrir des cadeaux à leurs enfants. Si l’ouverture annonce la fin du film, elle enchaîne immédiatement sur un #meeting qui s’improvise sous la neige, annonçant d’emblée que malgré la fin abrupte du mouvement, il y a quelque chose qui en naît et qui se poursuivra.

    #luttes_Des_classes #Usine #Taylorisme #Ouvriers#prolétariat #Capitalisme #Communisme #Culture #Peuples #Exploitation #Domination #Groupes_Medvedkine #Chris_Marker #Mario_Marret #Alexandre_Medvedkine #Pol_Cèbe #Documentaire #Vidéo