• Zeynep Tufekci : Get a red team to ensure AI is ethical | Verdict
    https://www.verdict.co.uk/zeynep-tufekci-ai-red-team

    In cybersecurity, red team professionals are tasked with finding vulnerabilities before they become a problem. In artificial intelligence, flaws such as bias often become apparent only once they are deployed.

    One way to catch these AI flaws early is for organisations to apply the red team concept when developing new systems, according to techno-sociologist and academic Zeynep Tufekci.

    “Get a read team, get people in the room, wherever you’re working, who think about what could go wrong,” she said, speaking at Hitachi Vantara’s Next conference in Las Vegas, US, last week. “Because thinking about what could go wrong before it does is the best way to make sure it doesn’t go wrong.”

    Referencing Hitachi CEO and president Toshiaki Higashihara description of digitalisation as having “lights and shadows”, Tufekci warned of the risks associated with letting the shadowy side go unchecked.
    AI shadows

    One of these “shadows” is when complex AI systems become black boxes, making it difficult even for the AI’s creators to explain how it made its decision.

    Tufekci also cited the example of YouTube’s recommendation algorithm pushing people towards extremism. For example, a teenager could innocently search ‘is there a male feminism’ and then be nudged towards misogynistic videos because such controversial videos have received more engagement.

    And while data can be used for good, it can also be used by authoritarian governments to repress its citizens, or by election consultancies to manipulate our votes.

    Then there are the many instances of human bias finding their way into algorithms. These include AI in recruitment reflecting the sexism of human employers or facial recognition not working for people with darker skin.

    “If the data can be used to fire you, or to figure out protesters or to use for social control, or not hire people prone to depression, people are going to be like: ‘we do not want this’,” said Tufekci, who is an associate professor at the UNC School of Information and Library Science.

    “What would be much better is to say, what are the guidelines?”
    Using a red team to enforce AI ethics guidelines

    Some guidelines already exist. In April 2018, the European Union’s High-Level Expert Group on AI presented seven key requirements for trustworthy AI.

    These requirements include human oversight, accountability and technical robustness and safety. But what Tufekci suggests is having a team of people dedicated to ensuring AI ethics are adhered to.
    3 Things That Will Change the World Today
    Get the Verdict morning email

    “You need people in the room, who are going to say there’s light and there are shadows in this technology, and how do we figure out to bring more light into the shadowy side, so that we’re not blindsided, so that we’re not just sort of shocked by the ethical challenges when they hit us,” she explained.

    “So we think about it ahead of time.”

    However, technology companies often push back against regulation, usually warning that too much will stifle innovation.

    “Very often when a technology is this new, and this powerful, and this promising, the people who keep talking about what could go wrong – which is what I do a lot – are seen as these spoilsport people,” said Tufekci.

    “And I’m kind of like no – it’s because we want it to be better.”

    #Intelligence_artificielle #Zeynep_Tufekci #Cybersécurité #Biais #Big_data

  • Mes Datas et Moi. Reprenez en main votre identité numérique !
    https://www.mesdatasetmoi.fr

    Un portail thématique sur les données personnelles...
    ...pas super convaincant quand on s’aperçoit qu’il n’y a pas de paramétrage possible des cookies déposés par ce site ("j’accepte" et rien d’autre) et que les outils/sous-sites associés ("une journée de données", application mobile...) commencent par demander tout un tas d’infos persos (âge, code postal...)

    #vie_privée #big_data #données_personnelles

  • Le fichage. Note d’analyse ANAFE
    Un outil sans limites au service du contrôle des frontières ?

    La traversée des frontières par des personnes étrangères est un « outil » politique et médiatique, utilisé pour faire accepter à la population toutes les mesures toujours plus attentatoires aux libertés individuelles, au nom par exemple de la lutte contre le terrorisme. Le prétexte sécuritaire est érigé en étendard et il est systématiquement brandi dans les discours politiques, assimilant ainsi migration et criminalité, non seulement pour des effets d’annonce mais de plus en plus dans les législations.
    Les personnes étrangères font depuis longtemps l’objet de mesures de contrôle et de surveillance. Pourtant, un changement de perspective s’est opéré pour s’adapter aux grands changements des politiques européennes vers une criminalisation croissante de ces personnes, en lien avec le développement constant des nouvelles technologies. L’utilisation exponentielle des fichiers est destinée à identifier, catégoriser, contrôler, éloigner et exclure. Et si le fichage est utilisé pour bloquer les personnes sur leurs parcours migratoires, il est aussi de plus en plus utilisé pour entraver les déplacements à l’intérieur de l’Union et l’action de militants européens qui entendent apporter leur soutien aux personnes exilées.
    Quelles sont les limites à ce développement ? Les possibilités techniques et numériques semblent illimitées et favorisent alors un véritable « business » du fichage.

    Concrètement, il existe pléthore de fichiers. Leur complexité tient au fait qu’ils sont nombreux, mais également à leur superposition. De ce maillage opaque naît une certaine insécurité juridique pour les personnes visées.
    Parallèlement à la multiplication des fichiers de tout type et de toute nature, ce sont désormais des questions liées à leur interconnexion[1], à leurs failles qui sont soulevées et aux abus dans leur utilisation, notamment aux risques d’atteintes aux droits fondamentaux et aux libertés publiques.

    Le 5 février 2019, un accord provisoire a été signé entre la présidence du Conseil européen et le Parlement européen sur l’interopérabilité[2] des systèmes d’information au niveau du continent pour renforcer les contrôles aux frontières de l’Union.

    http://www.anafe.org/IMG/pdf/note_-_le_fichage_un_outil_sans_limites_au_service_du_controle_des_frontieres

    #frontières #contrôle #surveillance #migration #réfugiés #fichage #interconnexion #interopérabilité

  • Think only authoritarian regimes spy on their citizens?

    Use of AI surveillance technology is becoming the global norm, even in liberal democracies.

    Almost half the world’s countries now deploy AI surveillance systems. So says a new report, The Global Expansion of AI Surveillance, from the #Carnegie_Endowment_for_International_Peace (https://carnegieendowment.org/2019/09/17/global-expansion-of-ai-surveillance-pub-79847). Such technologies vary from “#smart_city” projects, which use real-time data on residents to aid delivery of public services and enhance policing, to facial recognition systems, to border security, to governments spying on political dissidents.

    The main driver is China. The tech company Huawei alone is responsible for providing AI surveillance technology to at least 50 countries. But it’s not just Beijing pushing such technology. Western companies, from IBM to Palantir, are deeply involved. In Saudi Arabia, for instance, Huawei is helping create smart cities, Google and Amazon are building cloud computing servers for government surveillance and the UK arms firm BAE is providing mass monitoring systems.

    While authoritarian countries are investing heavily in such technology, it is most widespread in democracies. “Liberal democratic governments,” the report observes, “are aggressively using AI tools to police borders, apprehend potential criminals, monitor citizens for bad behaviour and pull out suspected terrorists from crowds.” Projects range from Baltimore’s secret use of drones for daily surveillance of the city’s residents, to Marseille’s mass monitoring project, built largely by the Chinese firm ZTE and given the very Orwellian name of Big Data of Public Tranquility, to the array of advanced surveillance techniques being deployed on the US-Mexico border.

    The technologies raise major ethical issues and questions about civil liberties. Yet even before we’ve begun to ask such questions, the technology has become so ubiquitous as to render the debate almost redundant. That should be as worrying as the technology itself.

    https://www.theguardian.com/commentisfree/2019/sep/22/think-only-authoritarian-regimes-spy-on-their-citizens
    #surveillance #démocratie #intelligence_artificielle #big_data #index #Chine #Huawei #IBM #Palantir #Google #Amazon #BAE #drones #Baltimore #Marseille #ZTE #Big_data_of_public_tranquility

  • Zum 11. September in Chile : « Man weiß sehr wenig über Allendes Zeit » | amerika21
    https://amerika21.de/audio/231436/11-september-chile-allende

    https://amerika21.de/files/a21/audio/2019/20190910-manweisehrwe-w15886.mp3

    11.09.2019 - Der Weg in den demokratischen Sozialismus
    Von Nils Brock, Radio Dreyeckland

    1970 wurde die erste marxistische Regierung gewählt mit Salvador Allende an der Spitze. 1973 endete der Traum eines und einer jeden Linken mit einem Militärputsch und dem Suizid Allendes. Wir sprachen mit Nils vom Nachrichtenpool Lateinamerika in Berlin.

    Seit 2017 forscht das crossmediale Rechercheprojekt „Allendes Internationale“, eine Kooperation des Nachrichtenpools Lateinamerika e.V. und der Rosa-Luxemburg-Stiftung.

    Rappellons les informations disponibles sur #seenthis à propos du développement d’une société informatisée socialiste sous l’Unidad Popuplar.

    Eden Medina Le Projet Cybersyn, La cybernétique socialiste dans le Chili de Salvador Allende
    https://seenthis.net/messages/778647

    On Cybernetics / Stafford Beer
    https://seenthis.net/messages/715741

    Project Cybersyn
    https://seenthis.net/messages/562656

    « team syntegrity » développées entre autres par le cybernéticien Stafford Beer.
    https://seenthis.net/messages/368059#message368638

    The Planning Machine. Project #Cybersyn and the (socialist) origins of the #Big_Data nation. Evgeny Morozov
    https://seenthis.net/messages/300406

    Letanía para un computador y para un niño que va a nacer
    Texte : Stafford Beer, Musique : Angel Parra
    https://seenthis.net/messages/174261

    Allende, l’informatique et la révolution, par Philippe Rivière
    https://seenthis.net/messages/15929

    #Chili #histoire #socialisme #informatique

  • What Statistics Can and Can’t Tell Us About Ourselves | The New Yorker
    https://www.newyorker.com/magazine/2019/09/09/what-statistics-can-and-cant-tell-us-about-ourselves

    In some ways, this is what you would expect from any large, disordered system. Think about the predictable and quantifiable way that gases behave. It might be impossible to trace the movement of each individual gas molecule, but the uncertainty and disorder at the molecular level wash out when you look at the bigger picture. Similarly, larger regularities emerge from our individually unpredictable lives. It’s almost as though we woke up each morning with a chance, that day, of becoming a murderer, causing a car accident, deciding to propose to our partner, being fired from our job. “An assumption of ‘chance’ encapsulates all the inevitable unpredictability in the world,” Spiegelhalter writes.

    But it’s one thing when your aim is to speak in general terms about who we are together, as a collective entity. The trouble comes when you try to go the other way—to learn something about us as individuals from how we behave as a collective. And, of course, those answers are often the ones we most want.

    The dangers of making individual predictions from our collective characteristics were aptly demonstrated in a deal struck by the French lawyer André-François Raffray in 1965. He agreed to pay a ninety-year-old woman twenty-five hundred francs every month until her death, whereupon he would take possession of her apartment in Arles.

    At the time, the average life expectancy of French women was 74.5 years, and Raffray, then forty-seven, no doubt thought he’d negotiated himself an auspicious contract. Unluckily for him, as Bill Bryson recounts in his new book, “The Body,” the woman was Jeanne Calment, who went on to become the oldest person on record. She survived for thirty-two years after their deal was signed, outliving Raffray, who died at seventy-seven. By then, he had paid more than twice the market value for an apartment he would never live in.

    #Statistiques #Big_data #Méthode_scientifique

  • Comment le numérique bouleverse la gestion des villes | Mediapart
    https://www.mediapart.fr/journal/culture-idees/290819/comment-le-numerique-bouleverse-la-gestion-des-villes?onglet=full

    Les projets se multiplient de « smart cities », des villes intelligentes optimisées par des algorithmes, et de « safe cities », des réseaux urbains sécurisés par la reconnaissance faciale ou la police prédictive. Le livre Gouverner la ville numérique revient sur ces domaines qui bouleversent les relations entre acteurs publics et acteurs privés.

    Progressivement, associations et universitaires commencent pourtant à se pencher sur ces questions. Publié mercredi 28 août aux PUF, Gouverner la ville numérique est un ouvrage collectif permettant de faire le tour d’un sujet aux multiples facettes. Il étudie la recomposition des forces politiques induite par l’arrivée dans les villes de plateformes telles que Airbnb, détaille les enjeux des projets de smart city lancés à San Francisco et Singapour, dissèque le logiciel de police prédictive PredPol et met en perspective les questions de gestion des territoires par des algorithmes.

    Mediapart a rencontré le politiste Antoine Courmont qui, avec le directeur de recherche au CNRS Patrick Le Galès, a codirigé cet ouvrage.

    Quelles sont les différences entre les notions de ville numérique, de smart city et de safe city ?

    Antoine Courmont : La ville numérique désigne toutes les relations entre numérique et ville. On se concentre souvent sur la smart city, alors que la ville numérique, c’est également l’apparition de nouveaux usages et de nouveaux services pour les citoyens, indépendamment des pouvoirs publics. Agrégées, toutes ces pratiques individuelles peuvent avoir des effets sur le gouvernement de la ville, comme on le voit avec Airbnb, Uber ou les trottinettes en libre-service.

    La smart city, c’est l’idée que, par le biais de la technologie, on peut optimiser le fonctionnement urbain, grâce aux données et à leur circulation et leur centralisation. Il serait possible de mettre en place, à des fins d’efficience, une gestion transverse qui dépasse les divisions sectorielles et les silos métiers de la ville.

    Les safe cities, c’est l’application des principes de la smart city au secteur de la sécurité urbaine : croiser des données, développer des algorithmes, mettre en place des centres de commandement pour optimiser les politiques de sécurité. L’usage des technologies numériques pour améliorer la sécurité urbaine connaît un gros boom technologique et économique, et conduit à des évolutions législatives qui ont accompagné la mise en place de dispositifs dans différents pays.

    L’élément central entre la ville numérique, la smart city et la safe city est la donnée. Celle-ci est cruciale pour comprendre les recompositions du gouvernement de la ville numérique.

    Qu’est-ce qui n’a pas fonctionné ? Y a-t-il des différences entre les pays ?

    Ce n’est pas qu’une question de pays. Il n’y a pas un modèle unique de ville numérique. Cela varie entre et au sein des villes. Ce qui n’a pas marché, c’est le modèle unifié, homogène, consistant à utiliser un tableau de bord urbain pour toute la gestion urbaine. Celui-ci est très difficile à mettre en place, car les villes, historiquement, gèrent différemment la voirie, le traitement des déchets, le réseau d’eau… car, dans chacun de ces secteurs, il ne s’agit pas des mêmes institutions et règles, de la même expertise, des mêmes instruments et besoins. Tout cela constitue autant de facteurs d’inertie transformant ou limitant le déploiement de dispositifs techniques.

    En termes organisationnels, il n’y a personne qui gère véritablement la ville de manière transverse. C’est l’une des raisons pour lesquelles ces projets n’ont souvent pas marché. Quand Cisco ou IBM ont voulu vendre leurs technologies, la vraie question était de savoir à qui. Car, en interne, personne n’utilise un dashboard de gestion centralisée. Ça ne répond pas véritablement aux besoins opérationnels des collectivités.

    En revanche, là où ça fonctionne plutôt bien, c’est dès qu’il y a une expertise métier et que l’on repasse silo par silo. Pour l’optimisation des réseaux d’eau ou des réseaux énergétiques, ça marche. Mais dès que l’on veut croiser, par exemple, le réseau énergétique avec la voirie, ça devient beaucoup plus compliqué.

    Cette multiplication des bases de données pose également la question de leur sécurisation. Les smart cities sont-elles prêtes à assurer la sécurité de leurs administrés ?

    Plus on numérise nos villes, plus on collecte de données, plus il y a de risques de piratage de données ou de prise de contrôle des systèmes urbains. C’est un enjeu qui est pris en compte par les villes et par l’État. Et c’est là aussi l’occasion du développement d’un très gros marché économique autour de la cybersécurité.

    Mais aucun système n’est infaillible. Ce n’est pas médiatisé en France mais il y a régulièrement des attaques sur services urbains. Qui échouent mais qui sont régulières. À l’étranger, il y a déjà eu des réseaux de transport ou d’énergie paralysés pendant plusieurs jours.

    On peut penser qu’un jour il y aura, comme l’a prédit le sociologue Dominique Boullier, un « Fukushima des données personnelles ». À ce moment-là, on se rendra compte de toutes les informations dont disposent toutes ces entreprises et administrations. Peut-être qu’à ce moment-là il y aura un débat public un peu plus important sur la collecte de données.

    Car c’est malheureusement un sujet qui n’est pas beaucoup débattu au niveau des collectivités lorsque des services numériques sont développés. On se pose rarement la question de savoir pourquoi on collecte ces informations sur tous ces individus. Est-ce qu’on ne peut pas au contraire avoir de la privacy by design qui permettrait de collecter moins de données ?

    Un autre aspect est sous-débattu, ce sont les questions environnementales. Plus vous mettez des dispositifs numériques, plus vous installez des capteurs, plus vous collectez de données, plus ça nécessite de l’énergie. Les datas centers sont déjà une des principales sources de consommation énergétique. Jusqu’où ça va aller ?

    #Smart_city #Numérique #Villes #Politique

  • More than 1,000 Android apps harvest data even after you deny permissions

    The apps gather information such as location, even after owners explicitly say no. Google says a fix won’t come until Android Q.
    https://www.cnet.com/news/more-than-1000-android-apps-harvest-your-data-even-after-you-deny-permissions

    Fundamentally, consumers have very few tools and cues that they can use to reasonably control their privacy and make decisions about it.

    #privacy #android #security

  • Radicalisation et psychiatrie : les données de deux fichiers pourront être consultées par les préfets
    https://www.lemonde.fr/societe/article/2019/05/07/radicalisation-et-psychiatrie-les-donnees-de-deux-fichiers-pourront-etre-con

    Des psychiatres et des associations de patients y voient des « amalgames entre maladie psychique et terrorisme ».

    Les autorités de l’Etat – les préfets dans les départements et le préfet de police à Paris – pourront être prévenues lorsqu’une personne fichée pour « radicalisation terroriste » est hospitalisée sans consentement pour des raisons psychiatriques, selon un décret du ministère des solidarités et de la santé publié mardi 7 mai au Journal officiel.
    Ce texte a « pour objet la prévention de la radicalisation ». Il autorise le croisement de deux fichiers de données à caractère personnel (identité, date de naissance, etc.). L’un, nommé Hopsyweb, concerne les personnes subissant des « soins psychiatriques sans consentement », et l’autre est le Fichier des signalements pour la prévention et la radicalisation à caractère terroriste (FSPRT).

    #psychiatrie #surveillance #secret_médical #anti-terrorisme

  • Palantir : l’œil américain du renseignement français
    https://www.franceinter.fr/emissions/secrets-d-info/secrets-d-info-22-septembre-2018

    Du côté de la DGSI, on explique que le système est « efficace et parfaitement sécurisé. » Une source proche du renseignement explique que « si Palantir a bien formé des agents français à l’utilisation du logiciel, l’entreprise n’a jamais accès directement aux données. »
    « Au moment où nous avons passé ce contrat avec Palantir, des techniciens ont donné leur feu vert et nous ont garanti l’étanchéité du système », assure encore une source proche de la direction du renseignement, à l’époque.
    « Nos services ont des capacités de cyber-défense et de contre-espionnage qui sont très développées, ajoute l’ancien conseiller du garde des Sceaux Jean-Jacques Urvoas, Floran Vadillo. Une porte dérobée ou un cheval de Troie serait facilement repéré. Et puis, il n’est pas dans l’intérêt commercial de Palantir d’offrir des solutions minées à ses clients. Si on apprend qu’elle participe à un détournement de données, tout son système-business s’effondre. »

    Naïveté consternante, méthode Coué ou enfumage complice ?

    Voir aussi :
    - sur la société Palantir : https://www.telerama.fr/medias/palantir-big-data-renseignement,153229.php
    - sur la succession du contrat DGSI/Palantir : https://www.silicon.fr/renseignement-la-dgsi-semancipe-de-palantir-222231.html

    #palantir #DGSI #big_data #cloud_act #airbus #white_washing #backdoor

  • Comment sont tués les cyclistes à Paris - Libération
    https://www.liberation.fr/france/2019/04/24/comment-sont-tues-les-cyclistes-a-paris_1722899

    Les accidents mortels dans la capitale sont très genrés : toutes les femmes cyclistes tuées l’ont été par des poids lourds.

    Comment sont tués les cyclistes à Paris


    Comment sont tués les cyclistes à Paris ? Pour le savoir, nous avons étudié la base de données des accidents corporels de la circulation qui court de 2005 à 2017. Sur cette période, 42 cyclistes ont été tués à Paris (soit moins de 2% du total de cyclistes morts sur les routes en France).
    Les femmes cyclistes principalement tuées par des poids lourds tournant à droite

    Dans la capitale, 24 cyclistes sont morts après une collision avec un poids lourd, parmi lesquels 16 femmes. Presque toutes les femmes cyclistes tuées à Paris l’ont été par un poids lourd. Les femmes cyclistes à Paris sont donc deux fois plus nombreuses à avoir été tuées par des poids lourds que les hommes (16 contre 8). Dans la quasi-totalité des cas, elles sont victimes d’un poids lourd tournant à droite à un carrefour. En revanche, contrairement aux hommes, aucune femme n’a été victime de véhicule particulier sur cette période.

    Infographie : les cyclistes tués à Paris selon le type de véhicule impliqué

    Un phénomène similaire se produit en banlieue proche (Hauts-de-Seine, Seine-Saint-Denis, Val-de-Marne), où les femmes sont plus nombreuses que les hommes à être victimes de poids lourds. Et lorsqu’on prend en compte les blessés graves, les femmes sont encore près de deux fois plus nombreuses à être victimes de poids lourds (60 contre 34). Il s’agit d’une particularité de la capitale et des départements proches étant donné que dans la France entière, les femmes cyclistes sont plus de deux fois moins nombreuses à êtres tuées par les poids lourds que les hommes.
    La situation parisienne ressemble beaucoup à celle d’autres grandes villes, et notamment à celle du centre de Londres. Un rapport des transports en commun londoniens émettait l’hypothèse que les femmes sont surreprésentées dans les cyclistes tués par des poids lourds parce qu’elles sont moins susceptibles de griller les feux rouges que les hommes. En effet, les cyclistes hommes sont généralement plus enclins à prendre des libertés avec le code de la route lorsqu’il s’agit de se rendre visibles des autres engins motorisés, et à se mettre devant eux pour redémarrer. Et dans certains cas, le respect strict du code de la route force à rester dans un angle mort. Par ailleurs, indique le rapport, le cycliste est plus en sécurité dans le flux de circulation s’il se déplace à la même vitesse que les motorisés. A Londres, dans la plupart des cas, les accidents se produisent lorsque le poids lourd renverse le cycliste en tournant à gauche (et à droite à Paris).

    On peut espérer que les sas vélos, lorsqu’ils seront réellement respectés par les véhicules motorisés, permettront de réduire ce genre de drame. Au Parlement, des députés prévoient à ce sujet de discuter d’amendements à la loi mobilité pour réduire le danger des poids lourds pour les cyclistes et les piétons. L’un, qui aura probablement peu d’impact, a pour but d’imposer des autocollants sur les angles morts des poids lourds. L’autre, probablement plus efficace mais moins succeptible d’être adopté, proposerait l’interdiction de la circulation aux poids lourds sans dispositifs de détection.
    De plus en plus de cyclistes tués en France

    Si l’on prend l’évolution du nombre de tués sur la route en France depuis une dizaine d’années, on constate une baisse suivie d’un plateau à partir de 2014. En revanche pour la population cycliste, c’est une autre histoire : le nombre de tués est resté stable des années mais il augmente drastiquement depuis l’année 2017.

    Infographie : les tués sur la route en France

    Quand on représente l’évolution en base 100 depuis décembre 2007, cela permet de voir le décalage entre les cyclistes tués et l’ensemble des tués sur la route. Certes, en valeur absolue, ils ne représentent qu’entre 2,9% et 5,75% des tués selon les mois. Mais l’augmentation est de 34% depuis décembre 2007 alors que le nombre tous usagers confondus est en baisse de 31%.

    Infographie : évolution du nombre de cyclistes tués sur la route (base 100)

    L’on peut supposer que la pratique du vélo a augmenté récemment, comme en témoignent les chiffres de vente du secteur, ce qui expliquerait le décalage avec le reste des usagers. Selon la sécurité routière sur ces derniers mois, c’est surtout sur les routes hors agglomération que l’on compte les cyclistes tués. La remontée globale est aussi attribuée à un relâchement des comportements.

    Ces chiffres ne doivent pas vous décourager de faire du vélo, notamment pour vous rendre au travail, car plus les cyclistes sont nombreux sur la route, moins il y a d’accidents, selon le principe de la masse critique. Les premières victimes de la route à Paris sont d’ailleurs les piétons, suivis de près par les deux-roues motorisés, puis les automobilistes.

    • Cet article élude totalement la question de la #violence_au_volant, surtout pour un sujet qui traite de #genre. Il parle des comportements des personnes tuées, pas du tout des conducteurs, c’est donc toujours à charge contre les victimes. Peut-être qu’il y a un vide total de ce côté là, qu’il n’y a aucune étude sur la #violence_masculine favorisée par les publicités de bagnole et pousse les hommes à exacerber leur #masculinité au volant au mépris de la vie des autres, et surtout des femmes.
      Je ne vois pas comment une société favorisant le féminicide ne donnerait pas lieu à ce genre de répercussions sur la route.
      En tout cas, si on voit comme moi la bagnole ou le poids lourd comme un instrument de domination.
      D’autant que ces tanks civils permettent de tuer en toute impunité juridique, attention je ne dis pas que c’est volontaire, je souligne juste que la justice relaxe les criminels de la route.

    • La situation parisienne ressemble beaucoup à celle d’autres grandes villes, et notamment à celle du centre de Londres. Un rapport des transports en commun londoniens émettait l’hypothèse que les femmes sont surreprésentées dans les cyclistes tués par des poids lourds parce qu’elles sont moins susceptibles de griller les feux rouges que les hommes. En effet, les cyclistes hommes sont généralement plus enclins à prendre des libertés avec le code de la route lorsqu’il s’agit de se rendre visibles des autres engins motorisés, et à se mettre devant eux pour redémarrer. Et dans certains cas, le respect strict du code de la route force à rester dans un angle mort. Par ailleurs, indique le rapport, le cycliste est plus en sécurité dans le flux de circulation s’il se déplace à la même vitesse que les motorisés. A Londres, dans la plupart des cas, les accidents se produisent lorsque le poids lourd renverse le cycliste en tournant à gauche (et à droite à Paris)

    • ...ces gros signaux de présence d’autrui vont invisibiliser les autres usagèr·es.

      Tout à fait d’accord avec toi @aude_v
      Il faut se souvenir qu’au moment de l’instauration de cette mesure (l’allumage permanent des phares ) l’argument mis en avant par l’administration française était : « En Scandinavie où l’allumage des phares de jour est la règle, le taux d’accident est plus faible »
      Sauf qu’en Scandinavie cette mesure répond à une situation particulière : la moitié de l’année le soleil est très bas sur l’horizon entrainant un éblouissement (qu’on expérimente occasionnellement en France au moment du coucher du soleil) et c’est pour palier à ce manque de visibilité dû à l’éblouissement que l’allumage permanent des phares a été instauré dans les pays nordiques.
      Le taux d’accidents est en réalité totalement décorrélé, les conducteurs scandinaves étant déjà à l’époque beaucoup plus respectueux des autres usagés.
      L’administration française à juste trouvé dans l’exemple scandinave un biais de confirmation dont on mesure aujourd’hui les effets délétères.

    • Je note pour ma part que la grosse majorité des morts sont des hommes - la violence masculine est aussi une violence des hommes contre les autres hommes (et contre soit, donc, j’imagine, pour un certain nombre de ces morts...).

      J’étais en Allemagne ces jours-ci. C’est particulier la quiétude que l’on ressent dans les rues des villes. Les voitures s’arrêtent et te laissent passer, sans besoin de forcer le passage. Et même quand toi même tu conduis, les autres véhicules te laissent manœuvrer tranquillement. Sans parler des autoroutes, où les chauffards roulant à 170 te laissent tranquillement faire tes manœuvres de dépassement à ton rythme de français (130), sans cligno comminatoires (illégal là bas, figurez-vous) ni appels de phares. De retour en France, la différence était flagrante et désespérante.

    • @biggrizzly, les combats de zizi font beaucoup de victimes, la violence est une gloire débile de la masculinisation. Quand on sait que de +90% des prévenus sont des hommes, c’est très inquiétant sur l’état de l’éducation française où on continue de ne pas respecter les enfants et de les frapper.
      Il y a toujours une source d’enfance pourrie, et dans la violence une façon inconsciente de frôler la mort qui pue la douleur de ne pas être autre chose qu’un amas de frustration et de développement pas bien terminé.
      En corollaire il y avait une étude, mais je ne remets pas la main dessus, qui montrait que le nombre de victimes de la route ayant subies des violences enfants étaient plus nombreuses, un contre-coup des traumatismes subis.

      Et je m’éloigne un peu, mais quand même. La route est un espace public fortement inconscient avec 10 morts par jour en france. Il n’y a aucune étude ou campagne qui aborde la dimension culturelle ou qui se questionne sur ce qui génère cette violence. Moi j’aimerai bien comprendre pourquoi je trouve que c’est la même inconscience que pour l’espace du sexe, maintenant que l’on a commencé à lever le voile et reconnu que le sexe est politique, pour sortir de l’inconscient faudrait peut-être s’atteler à voir que la conduite aussi est politique.
      #victimes

    • Oui elles ont eu a une époque des frais d’assurances moins chers que les hommes mais les hommes dans un soucis d’égalité ont exigés que les frais soient identique et cela même si les hommes sont pour ceux qui conduisent des dangers publiques qui coute très chère à la collectivité et surtout aux femmes et aux enfants.

  • Et si on revenait à la bougie ?
    http://www.piecesetmaindoeuvre.com/spip.php?page=resume&id_article=1127

    Cela fait 150 ans que ça dure. Depuis l’invention de la « Houille blanche » en 1869 à Grenoble, des générations d’opposants au despotisme de l’électro-industrie ont essuyé l’invective : « - Vous les opposants (passéistes/obscurantistes/conservateurs/écologistes), vous voulez revenir à la bougie ! » Le mouvement anti-Linky, les pêcheurs du Tréport opposés aux éoliennes en mer et les habitants de Bure contre l’enfouissement de déchets nucléaires sous leurs pieds, font partie parmi tant d’autres de cette dernière vague d’humains à se faire ainsi apostropher par les Seigneurs du Progrès. À force, on finit par se demander si l’électrification de nos vies, de nos villes et campagnes, à l’échelle nationale et globale, fut un tel bienfait, et pour qui. C’est ce que nous avons tâché de savoir, à partir de l’exemple (...)

    #Nécrotechnologies
    http://www.piecesetmaindoeuvre.com/IMG/pdf/geg.pdf

  • Suisse : Avant même l’arrivée de la #5G, des chercheurs planchent déjà sur la #6G Cynthia Racine/oang - 15 Avril 2019 - RTS
    https://www.rts.ch/info/sciences-tech/technologies/10365979-avant-meme-l-arrivee-de-la-5g-des-chercheurs-planchent-deja-sur-la-6g.h

    Alors que les inquiétudes montent autour de la 5G et de ses antennes, des chercheurs suisses et européens s’intéressent déjà à la 6G. Ils veulent éviter le retard pris sur d’autres avec la dernière génération.
    L’Europe a pris du retard dans le développement de la technologie 5G, face à la Chine notamment. Elle veut donc éviter que ce scénario se reproduise avec la génération suivante de cette technologie mobile.

    Et parmi les chercheurs qui planchent déjà sur la 6G figure notamment le Centre Suisse d’Electronique et de Microtechnique (CSEM) à Neuchâtel, qui a participé au « 6G Wireless Summit » le mois dernier en Finlande.

    Les risques des solutions chinoises
    « L’Europe va devoir être prise comme un partenaire important dans la définition de ce que sera la 6G », explique le responsable du secteur Systèmes sans fils embarqués au CSEM Philippe Dallemagne lundi dans La Matinale. « Et pas seulement en se basant sur des solutions développées en Chine, ce qui présente des avantages parce que les produits chinois sont plus abordables mais certainement pas les mieux placés en termes de confidentialité des données. On a aussi évoqué des problèmes d’espionnage. On essayera d’éviter ces questions à l’avenir, j’imagine. »

    Parmi les autres pistes étudiées pour la 6G figurent des débits encore améliorés. La question de la dangerosité des ondes, elle, n’est pas encore au centre des préoccupations.

    Antennes moins puissantes mais plus nombreuses ?
    « Aujourd’hui, il n’y a pas de demande spécifique concernant la santé dans la 6G, mais c’est un sujet qui pourrait venir » note Philippe Dallemagne. « Il est clair que multiplier les antennes pose probablement un problème de densité d’émissions de radiofréquences. Un des sujets qui pourrait être abordé dans la 6G, peut-être même déjà dans les prochaines versions de la 5G, serait d’établir des mécanismes qui permettraient de réduire la puissance des antennes, en contrepartie de leur multiplication par exemple. »

    Les recherches sur la 6G n’en sont évidemment qu’à leurs débuts. Il faut en général une dizaine d’années pour développer une nouvelle génération de standards pour la téléphonie mobile.

     #obsolescence_programmée #internet #technologie #téléphonie_mobile #smartphone #nécrotechnologies #smartphones #big_data #high_tech #actualités_high-tech

  • De quelques perturbations en mode « jaune » concernant la conférence sur l’#intelligence_artificielle lors de la venue de #Cédric_Villani, le pape du #big_data auprès de la « république-en-marche ». Quand un « boss » des maths met son « intelligence agency » au service des #gestionnaires_du_cheptel_humain.
    De l’expertise à la « vulgarisation », le raccourci était aisé à prendre pour satisfaire une ambition inavouable à exercer le pouvoir lequel n’ayant plus pour seule issue qu’une fuite en avant éperdue pour toujours garder le bénéfice d’un mauvais coup d’avance.

    Albi : une conférence de Cédric Villani sur l’intelligence artificielle perturbée par des gilets jaunes
    https://lundi.am/Albi-une-conference-de-Cedric-Villani-sur-l-intelligence-artificielle-perturbe

    Jeudi 4 avril, les milieux d’affaires tarnais avaient convié dans l’amphithéâtre d’honneur de l’Ecole des Mines d’Albi l’excellent Cédric Villani, député En Marche et mathématicien, pour disserter sur l’économie numérique et la société du big data.
    Il a été interrompu par un cloud d’opposant.es à la Start-up Nation qui se sont introduit.es sur le podium afin d’y exposer un avis quelque peu contradictoire sous la forme d’une lettre.
    La lettre en question :

    Autres articles en rapport :

    https://lundi.am/IA-5G-Linky-innover-pour-aggraver-la-crise-sociale-et-e%CC%81cologique

    L’intelligence artificielle en marche pour foncer dans le mur

    L’IA sert à automatiser et surveiller, mais ce n’est pas tout : tous les dispositifs ayant recours à l’IA aggraveront aussi le désastre écologique. Car ils supposent une augmentation infinie de la production de matériel informatique : ordinateurs, antennes 5G, data center, etc. Tout cela implique une croissance abyssale de la consommation d’énergie et de métaux, donc de la production minière, base de l’économie numérique comme de toute industrie. De ce point de vue, venir parler d’IA dans une Ecole des Mines est on ne peut plus significatif. Car l’industrie minière est la plus polluante du monde, tant par ses émissions de CO2 que par les catastrophes irréversibles qu’elle entraine régulièrement (pensons aux barrages de déchets qui cèdent). Loin d’être « immatérielle », l’économie numérique est aussi très polluante car les appareils qu’elle produit et que nous jetons de plus en plus vite sont impossibles à recycler tant ils sont miniaturisés. Bref, elle est un facteur de plus dans la fuite en avant vers le désastre écologique, qui s’accélère de jour en jour.

    Ce n’est pas faute d’avoir été prévenus. Depuis plus de cinquante ans, des millions de gens tirent la sonnette d’alarme. Ils rappellent un principe simple : une croissance illimitée est impossible sur une planète aux ressources limitées. Ce principe qu’un enfant peut saisir, Macron, Villani et les entrepreneurs d’Ecoter ne l’ont pas compris. Ou plutôt, ils s’assoient dessus, emprisonnés dans leurs raisonnements économiques à court terme et aveuglés par les colonnes de chiffres auxquelles la réalité se résume selon eux. A moins qu’ils n’espèrent avoir assez de fric pour se mettre à l’abri des pires effets de la catastrophe – ce qui est malin, à défaut d’être intelligent.

    Avec des classes dirigeantes aussi méchamment stupides et myopes, on pourrait se réjouir du développement de l’IA, en imaginant qu’elle pourrait pallier leur déficit mental. Mais ce serait se mettre le doigt dans l’œil. Car l’intelligence artificielle, ce n’est qu’une aveugle capacité de calcul. Comme le rappelle le créateur du programme de dialogue automatique ELIZA, dont on équipe actuellement des robots pour tenir compagnie aux personnes âgées esseulées (autre « progrès social » que promet l’IA), son programme ne comprend rien, il ne fait que calculer les chances que telle réponse programmée corresponde plus que telle autre à telles informations perçues (ce qu’exprime la personne). Or, l’intelligence dont nous avons besoin est celle qui permet de voir la réalité en face et les limites qui la caractérisent, et de savoir s’arrêter avant qu’il ne soit trop tard.

    http://hors-sol.herbesfolles.org/wp-content/uploads/Au-nord-de-l%C3%A9conomie.pdf

    Nous vous écrivons du nord de la France. Symbole de la désindustrialisation, celui-ci ressemble à d’autres nords, des États-Unis ou d’Angleterre, qui résument et révèlent le point de rupture où se trouve l’économie mondiale. Cette terre de désespoir, de chômage, d’alcoolisme et de votes Front national provoque deux réflexes de survie : la ré-industrialisation et/ou la « Troisième révolution industrielle ». Qu’importe le chemin, tant qu’on entrevoit un espoir. Passant des corons au co-working, nous nous sommes donnés pour objet d’attaquer dans un même élan le vieux monde industriel et le nouveau monde technologique.

    https://fr.wikipedia.org/wiki/C%C3%A9dric_Villani#cite_note-37

    Le 8 septembre 2017, il est chargé par le Premier ministre Édouard Philippe d’une mission parlementaire sur l’intelligence artificielle d’une durée de six mois. Le 29 mars 2018, il participe à la conférence « AI for Humanity », lors de laquelle il présente son rapport sur l’intelligence artificielle dévoilé la veille : Donner un sens à l’intelligence artificielleN 1,35,34. Il y préconise de centrer les efforts en intelligence artificielle sur quatre domaines : la santé, la mobilité, l’environnement et la défense

    Le rapport en question (si ça vous tente) : https://www.aiforhumanity.fr/pdfs/9782111457089_Rapport_Villani_accessible.pdf

    Comme bien d’autres adolescents férus de sciences dans les années 80, j’ai fait la connaissance de l’intelligence artificielle dans les superbes ouvrages de vulgarisation de Douglas Hofstadter, qui mettait en scène Alan Turing avec une passion contagieuse. Mais comme bien des mathématiciens débutant la carrière dans les années 90, j’ai profondément sous-estimé l’impact de l’intelligence artificielle, qui ne donnait finalement, à cette époque, que peu de résultats. Quelle surprise ce fut d’assister, dans les années 2010, à l’incroyable amélioration de ses performances... Devenu moi-même vulgarisateur, je me suis mis à développer le sujet régulièrement, dans mes conférences publiques comme dans mes échanges avec le monde de l’entreprise. Et ce fut une surprise non moins grande de voir mes ouvrages de recherche sur le transport optimal cités dans des articles récents sur l’intelligence artificielle : comme un signe qu’il m’était impossible d’échapper à ce sujet polymorphe ! Du reste, depuis quelques années plus personne ne peut y échapper, tant il est devenu omniprésent dans les discussions économiques et sociales. Aussi ai-je été à peine surpris quand le Premier ministre me confia une mission d’information sur la stratégie française et européenne en intelligence artificielle. Le défi était grand, mais mon enthousiasme considérable. (tu m’étonnes ...)

    #low_tech #luddisme (yellow-friendly)

  • Vers une science de l’échec
    http://www.internetactu.net/a-lire-ailleurs/vers-une-science-de-lechec

    Quelles sont les lois du succès ? Grande question qui a obsédé de nombreux penseurs et chercheurs, et les études sur les données concernant la réussite sont nombreuses, nous raconte la Technology Review. Mais peut-être faut-il se poser la question inverse : pourquoi certaines entreprises échouent-elles ? Là, les études sont bien moins (...)

    #A_lire_ailleurs #Recherches #big_data #complexité

  • Gilets jaunes contre l’intelligence artificielle et la 5G - IAATA
    https://iaata.info/Gilets-jaunes-contre-l-intelligence-artificielle-et-la-5G-3285.html

    Ce jeudi 4 avril, les milieux d’affaires tarnais avaient convié dans l’amphithéâtre d’honneur de l’Ecole des Mines d’Albi l’excellent Cédric Villani, député En Marche et mathématicien, pour disserter sur l’économie numérique et la société du big data.
    Il a été interrompu par un cloud d’opposant.es à la Start-up Nation qui se sont introduit.es sur le podium pour lire la lettre suivante :

    Cher Cédric Villani,

    Nous vous remercions de vous être déplacé à Albi à l’occasion de cette conférence sur « L’économie numérique » à l’Ecole des Mines, car nous avions justement des choses à vous dire.

    Tout d’abord, nous avons le plaisir de vous remettre un compteur communicant Linky. Prenez-le, il est offert : c’est nous tous qui finançons, via la TURPE, leur déploiement à hauteur de 7 milliards d’euros.

    Ce petit boîtier jaune rend bien des services. Il s’est révélé un merveilleux outil d’éducation populaire. Dans toute la France, il a permis une prise de conscience massive de ce que signifie le monde du big data et des algorithmes, des véhicules autonomes et de la 5G. Dès lors, initié.es par ENEDIS aux joies des objets connectés, nous sommes devenu.es particulièrement sensibles aux mensonges dont on accompagne les investissements en faveur de l’intelligence artificielle.

    Par exemple, l’idée qu’elle serait une manière de créer des emplois. Soyons sérieux : l’automatisation sert à automatiser. Automatiser sert à licencier, à l’image des dizaines de milliers d’employés d’ENEDIS qui relevaient les compteurs électriques, ou à l’image de la désastreuse dématérialisation des services publics. Autre exemple : en France, le déploiement des véhicules autonomes, c’est-à-dire de la conduite par intelligence artificielle, menace directement plus de 600 000 professionnel.les (chauffeurs de bus, routiers, taxis, etc. ), soit 2 % de la population active. Et ne nous ressortez pas la bonne vieille théorie de la compensation : les conducteurs licenciés auront autant de chance de créer leurs start-up de robotique que les chevaux n’en avaient de se mettre à produire des pièces automobiles.

    Le problème, M. Villani, c’est aussi qu’il a fait chaud, beaucoup trop chaud à Albi en ce début de printemps. Or l’économie numérique est vorace : elle exige de produire toujours plus de processeurs, de capteurs, de serveurs, de câbles, d’antennes et d’écrans. Elle engloutit des quantités colossales d’énergie, de matières premières et de métaux. Le programme Linky est assez parlant : au nom de la transition écologique, on a commencé par bazarder 35 millions de compteurs en parfait état de marche, puis, en numérisant les réseaux, on génère des pétaoctets de données, stockées et traitées dans d’immenses entrepôts de béton qu’il faut refroidir en permanence. Vous ne pouvez l’ignorer : à l’échelle du globe, ces fameux data centers rejettent déjà autant de CO2 dans l’atmosphère que la totalité du transport aérien3. A ce stade, peut-on encore parler d’intelligence, même artificielle ?

    Enfin, qu’il s’agisse d’e-médecine, de maisons communicantes ou de voitures connectées, ce monde, qui fait de nos vies un grand réservoir à big data, est inacceptable pour une raison simple : il s’appuie sur le réseau 5G qui, plus encore que les précédents, menace directement notre santé. Nous refusons que tous les êtres vivants soient massivement exposés à des champs électromagnétiques d’une telle puissance pour faire fructifier l’industrie de l’électronique et les fortunes des Silicon Valley mondiales.

    Nous luttons pour la sobriété et la justice sociale. Si vous souhaitez employer votre curiosité intellectuelle et votre goût pour les sciences, tout en pérennisant votre carrière politique, n’hésitez pas, M. Villani, à rejoindre les rangs de l’écologie radicale et de l’anticapitalisme dont nous pensons, étant donnés les enjeux actuels, qu’ils constituent les filières d’avenir les plus populaires et les plus novatrices.❞

    Le comité d’accueil du député Cédric Villani à l’Ecole des Mines d’Albi

    #critique_techno #big_data #automatisation #villani #linky

  • Encore sur la crise des sciences : le « machine learning » en cause
    http://www.internetactu.net/a-lire-ailleurs/encore-sur-la-crise-des-sciences-le-machine-learning-en-cause

    Encore et toujours sur la crise actuelle des sciences et l’actuelle difficulté à reproduire les expériences. Après les biais de protocoles, de publication et de statistiques, après la théorie, on a peut-être trouvé un coupable supplémentaire : le « machine learning », de plus en plus utilisé dans les labos. C’est en tout (...)

    #A_lire_ailleurs #Recherches #big_data #science

  • Comprendre la ségrégation urbaine
    http://www.internetactu.net/a-lire-ailleurs/comprendre-la-segregation-urbaine

    Le Groupe des dynamiques humaines du Media Lab du MIT vient de publier une carte interactive des inégalités pour la ville de Boston, premier volet d’un Atlas des inégalités qui vise à cartographier la réalité des inégalités des plus grandes villes américaines. Cette cartographie utilise des données provenant de téléphones (...)

    #A_lire_ailleurs #Recherches #algorithmes #big_data #eDémocratie #Mobilité #Territoires

  • Comment La Poste tente de constituer une base de données géante sur « tous les Français »
    https://www.bastamag.net/Comment-La-Poste-tente-de-constituer-une-base-de-donnees-geante-concernant

    Une entreprise française sait beaucoup de choses sur vous : où vous habitez, quand vous déménagez, de combien de membres se compose votre famille, quel type de colis vous recevez et de qui… Cette entreprise, c’est La Poste, déjà connue pour revendre des fichiers d’adresses à des entreprises pour leurs prospections commerciales. Un nouveau cap pourrait être franchi : La Poste a racheté une start-up grenobloise spécialisée dans l’intelligence artificielle, qui permet de collecter et d’organiser des (...)

    #Décrypter

    / A la une, Surveillance, fichage, censure : la démocratie en danger ?, #Enquêtes, Surveillance et (...)

    #Surveillance,fichage,_censure:la_démocratie_en_danger ? #Surveillance_et_biométrie

    • Lorsque Jessie Battaglia a commencé à rechercher une nouvelle nounou pour son fils âgé d’un an, elle a voulu avoir plus d’informations que celles que l’on obtient par la vérification du casier judiciaire, les avis de parents et l’entretien face-à-face.

      Elle a donc fait appel à Predictim, un service en ligne utilisant une « intelligence artificielle avancée » pour évaluer la personnalité des baby-sitters, et a fait examiner par les scanners de l’agence les milliers de publications Facebook, Twitter et Instagram d’une candidate.

      Le système a présenté une note d’évaluation automatisée pour cette femme de 24 ans, expliquant que le risque qu’elle soit toxicomane était très faible, mais lui donnant toutefois un risque légèrement plus élevé – 2 sur 5 – quant aux possibilités d’intimidation, de harcèlement, de manque de respect et de mauvaise conduite.

      Le système n’expliquait pas comment il était arrivé à cette note, mais Mme Battaglia, qui avait crû que la nounou était digne de confiance, se sentit soudain assaillie de doutes.

      « Les réseaux sociaux révèlent le caractère d’une personne », affirme Mme Battaglia, âgée de 29 ans, qui vit dans la banlieue de Los Angeles. « Alors pourquoi obtient-elle un 2 et pas un 1 ? »

      Predictim offre aux parents le même modèle que des douzaines d’autres entreprises informatiques vendent aux patrons d’entreprises à travers le monde : des systèmes d’intelligence artificielle qui analysent la façon de parler d’une personne, ses expressions faciales et son historique en ligne, avec la promesse de révéler les aspects cachés de sa vie privée.

      Cette technologie est en train de remodeler les méthodes de recrutement, d’embauche et d’évaluation des salariés par les entreprises, en proposant à ces dernières un regard sans pareil sur les candidats à l’embauche grâce à l’arrivée de nouveaux systèmes de surveillance et d’évaluation psychologique intrusive.

      La société de services informatiques Fama indique qu’elle utilise l’intelligence artificielle pour surveiller les « comportements indésirables » des employés sur les réseaux sociaux et en alerter leur hiérarchie. De même, la société de recrutement informatique HireVue, qui travaille avec de grands groupes comme Geico, Hilton et Unilever, propose un système qui analyse automatiquement les intonations de voix des candidats, leurs choix de mots et les mouvements de leur visage lors d’entretiens vidéo afin de prédire quelles seront leurs compétences et leur attitude une fois en poste (les candidats sont encouragés à sourire pour obtenir la meilleure notation possible).
      . . . . . .
      Les balayages numériques de Predictim analysent l’intégralité de l’historique d’une baby-sitter sur les réseaux sociaux, ce qui, pour beaucoup de jeunes nounous, peut couvrir presque toute leur vie. On informe les candidates qu’elles seront extrêmement désavantagées sur ces emplois à forte concurrence si elles refusent cet examen.
      . . . . . .
      Un scan Predictim est facturé à partir de 24,99 $, et requiert le nom de la baby-sitter, son adresse e-mail et son accord pour l’accès à ses comptes sur les réseaux sociaux. Elle peut refuser, mais le parent sera informé de son refus et elle recevra par e-mail une note, lui indiquant que le parent intéressé ne sera pas en mesure de l’embaucher tant qu’elle n’aura pas complété cette demande.
      . . . . . . .
      La notation des risques est divisée en plusieurs catégories incluant les contenus douteux et l’usage de drogue. La jeune entreprise a également vanté la capacité de son système à évaluer les baby-sitters sur d’autres aspects de leur personnalité, tels que la politesse, l’aptitude à travailler avec d’autres et leur « positivité ».

      Les responsables de l’entreprise espèrent prendre la tête du secteur multimillionnaire de la « sous-traitance parentale » et ont commencé à faire de la publicité à travers le parrainage rémunéré de blogs d’éducation des enfants et de blogs de mamans. Le marketing est fortement axé sur la capacité de la société à mettre au jour les secrets cachés et éviter « le cauchemar de tout parent », citant des affaires criminelles comme celle de cette baby-sitter du Kentucky inculpée plus tôt dans l’année, pour avoir gravement blessé une enfant de huit mois.
      . . . . . . . . .
      Ainsi, lorsque les résultats d’une requête sur une baby-sitter ont signalé la possibilité d’une attitude brutale, une maman, décontenancée, a expliqué qu’elle n’était pas en mesure de savoir si le logiciel était tombé sur une citation de vieux film, des paroles de chanson ou une autre expression, ou bien sur des propos réellement intimidants.

      . . . . . . . . .
      Jamie L. William, avocat des libertés civiles pour la Electronic Frontier Fondation, note que la plupart des algorithmes utilisés aujourd’hui pour accéder aux sens des mots et des images publiés en ligne, sont largement connus pour manquer du bon sens et de la mise en contexte qu’apporte une lecture humaine. Même des géants technologiques, comme Facebook, ont eu du mal à construire des algorithmes qui puissent faire la différence entre un commentaire inoffensif et une incitation à la haine.

      « Quant à utiliser ces systèmes sur des gamins ; soyons sérieux, ce sont des gamins ! », nous dit William. « Les gamins ont des blagues d’initiés. Ils font un usage notoire du sarcasme. Ce qui pourrait ressembler à une “mauvaise attitude” pour un algorithme, ne serait pour une personne qu’un point de vue politique ou une critique fondée. »
      . . . . . . . . .
      La baby-sitter de Madame Battaglia, Malissa Nielsen, 24 ans, a récemment donné son accord à deux familles différentes qui lui ont demandé de remettre à Predictim ses accès aux réseaux sociaux. Elle a expliqué qu’elle a toujours été prudente sur les réseaux et s’est dit que partager un peu plus ne pouvait pas faire de mal ; elle va à l’église une fois par semaine, ne jure pas et elle termine sa formation en éducation de la petite enfance, grâce à laquelle elle espère ouvrir une garderie.

      Mais en apprenant que le système lui avait attribué une mauvaise note pour harcèlement et manque de respect, elle a été stupéfaite. Elle avait cru qu’il s’agissait de permettre aux parents d’examiner ses comptes sur les réseaux sociaux, et non pas de consentir à ce qu’un algorithme dissèque sa personnalité. Elle n’avait pas été informée non plus des résultats d’un test qui pourrait mettre à mal sa seule source de revenu.
      . . . . . . . . .
      Les Américains cultivent une méfiance persistante à l’égard des algorithmes dont les décisions pourraient affecter leur vie quotidienne. Dans une étude du Pew Research Center, 57 % des personnes interrogées pensent que l’examen automatisé des CV de candidats à l’embauche est « inacceptable ».

      Néanmoins, les responsables de Predictim confirment qu’ils se préparent à déployer leurs services à l’échelle nationale. Chez #Sittercity, une plateforme de recrutement de baby-sitters en ligne, visitée par des millions de parents, la direction va lancer, en début d’année prochaine, un programme pilote qui intégrera les notations de Predictim aux tests et vérifications d’antécédents actuellement en place.
      . . . . . . . . .
      Le travail d’extraction de données de #Predictim sur les réseaux sociaux et son intérêt pour l’analyse psychologique de masse n’est pas sans rappeler les ambitions de #Cambridge_Analytica , le cabinet en conseil politique qui a travaillé sur la campagne de Trump et entraîné Facebook dans un scandale mondial relatif à la protection de la vie privée. Mais les dirigeants de l’entreprise affirment qu’ils ont mis en place des gardes-fous internes et travaillent sur la protection des données personnelles des baby-sitters. « Si nous laissions fuiter les infos d’une baby-sitter, ce ne serait vraiment pas cool », a relevé Simonoff.

      Les experts craignent que les notations des systèmes d’intelligence artificielle, comme celles de Predictim, annoncent un futur dans lequel l’attribution de tout emploi, pas seulement de garde d’enfants, sera décidée par une machine. De nombreuses entreprises de recrutement à l’embauche construisent déjà ou investissent dans des systèmes qui peuvent analyser les CV de candidats à très grande échelle et obtenir une évaluation automatisée de la manière dont chacun d’eux pourraient travailler une fois en poste. Des systèmes d’intelligence artificielle de même type – comme #Jigsaw, une jeune entreprise d’informatique créée par Google – sont utilisés pour patrouiller sur Internet et débusquer dans les commentaires, le harcèlement, les menaces et la violence en ligne.
      . . . . . . . . .
      Mais il a été démontré régulièrement que les algorithmes de recrutement ne font pas apparaître le genre de préjugés subtils qui pourraient faire dérailler la carrière d’une personne. Ainsi, des sources ont confié à l’agence Reuters qu’Amazon avait arrêté le développement d’un algorithme de recrutement lorsqu’elle s’était aperçue que celui-ci avait injustement pénalisé les femmes – l’historique du recrutement de la société, dans un secteur informatique dominé par les hommes, avait appris au système que les caractéristiques masculines étaient préférables. La société a affirmé que l’outil n’avait jamais servi à évaluer les candidats (le fondateur et dirigeant d’Amazon est propriétaire du Washington Post).

      Certains experts pensent que de tels systèmes ont le pouvoir d’exacerber les préjugés liés à l’âge et aux origines raciales, y compris en signalant les mots ou les images issus de certains groupes plus que ceux issus d’autres groupes. Ils craignent également que Predictim puisse forcer de jeunes nounous à remettre des données personnelles uniquement en vue d’obtenir un boulot.
      . . . . . . . . .

      Source : The Washington Post, Drew Harwell, https://www.washingtonpost.com/gdpr-consent/?destination=%2ftechnology%2f2018%2f11%2f16%2fwanted-perfect-babysit - 23-11-2018
      Traduit par les lecteurs du site www.les-crises.fr. Traduction librement reproductible en intégralité, en citant la source.

      Drew Harwell est reporter national sur la technologie pour le compte du Washington Post, spécialisé en intelligence artificielle. Il a couvert par le passé les questions de commerce national et les entreprises de Trump.

      algorithme #intelligence_artificielle #prédiction #surveillance #facebook #santé #bigdata #google #big_data #prédictif #profiling #innovation #baby-sitters

  • #Data_for_Black_Lives. Data as protest. Data as accountability. Data as collective action.

    Data for Black Lives is a group of activists, organizers, and mathematicians committed to the mission of using data science to create concrete and measurable change in the lives of Black people.

    Since the advent of computing, #big_data and algorithms have penetrated virtually every aspect of our social and economic lives. These new data systems have tremendous potential to empower communities of color. Tools like statistical modeling, data visualization, and crowd-sourcing, in the right hands, are powerful instruments for fighting bias, building progressive movements, and promoting civic engagement.

    But history tells a different story, one in which data is too often wielded as an instrument of oppression, reinforcing inequality and perpetuating injustice. Redlining was a data-driven enterprise that resulted in the systematic exclusion of Black communities from key financial services. More recent trends like predictive policing, risk-based sentencing, and predatory lending are troubling variations on the same theme. Today, discrimination is a high-tech enterprise.

    Data for Black Lives seeks to mobilize scientists around racial justice issues. At our conference in November, we will convene over two hundred data scientists, computer programmers, racial justice activists, and elected officials to discuss the role that data can and should play in Black communities. Join us January 2019 at MIT for our second annual conference

    http://d4bl.org
    #données #résistance #Noirs
    ping @fil @simplicissimus @reka

  • Marriott Concedes 5 Million Passport Numbers Lost to Hackers Were Not Encrypted - The New York Times
    https://www.nytimes.com/2019/01/04/us/politics/marriott-hack-passports.html

    What made the Starwood attack different was the presence of passport numbers, which could make it far easier for an intelligence service to track people who cross borders. That is particularly important in this case: In December, The New York Times reported that the attack was part of a Chinese intelligence gathering effort that, reaching back to 2014, also hacked American health insurers and the Office of Personnel Management, which keeps security clearance files on millions of Americans.

    #big_data