• ENQUETE FRANCEINFO. Comment Doctolib se sert de nos données de santé
    https://www.francetvinfo.fr/sante/professions-medicales/enquete-franceinfo-comment-doctolib-se-sert-de-nos-donnees-de-sante_382

    Lorsque vous utilisez Doctolib pour prendre rendez-vous chez votre dermatologue, par exemple, vous transmettez deux types d’informations bien distinctes à la plateforme : d’un côté, vos données personnelles (nom, adresse e-mail, numéro de téléphone…) ; de l’autre, vos données de santé (rendez-vous avec un praticien, motif de la consultation, ordonnance numérisée après une téléconsultation...). Si cette distinction peut sembler évidente, elle est en fait assez récente. « Auparavant, la loi ne qualifiait de données de santé que les données relatives aux pathologies, comme par exemple le fait d’indiquer que Monsieur X est atteint de tel type de cancer », explique à franceinfo Guillaume Desgens-Pasanau, ancien directeur juridique de la Cnil, le gendarme français du respect des données personnelles.

    • La nouvelle législation demande en effet des précautions particulières aux entreprises ou administrations qui collectent ces données jugées sensibles. Ce qui est le cas de Doctolib. Comme l’indique le guide pratique (PDF) coédité par la Cnil et le Conseil national de l’Ordre des médecins à destination des professionnels de santé, le RGPD impose que les données issues de la prise de rendez-vous soient traitées de la même manière que les dossiers médicaux des patients.

      [...]

      Le fait que Doctolib soit considéré par la réglementation comme un prestataire des praticiens de santé qui font appel à ses services a de nombreuses conséquences. Outre le fait que le géant de la santé numérique ne communique pas à ses utilisateurs l’historique de ses rendez-vous médicaux, l’entreprise n’a sur le papier pas besoin d’obtenir votre consentement pour collecter vos données, tant que celles-ci sont utilisées pour la finalité recherchée, à savoir la prise de rendez-vous de santé.

      ...mais comme il s’agit d’une licorne ils peuvent s’arranger avec toutes les contraintes légales qui les empêcherait de faire des millions ? cf https://seenthis.net/messages/775587 ping @touti

      Voir aussi la plaquette de l’ordre des médecins avec les « bonnes pratiques » en matière de collecte, stockage et usage des données persos : https://www.conseil-national.medecin.fr/sites/default/files/external-package/edition/17ss6et/guide_cnom_cnil_rgpd.pdf

      #vie_privée #doctolib #big_data #santé #RGPD #CNIL

  • Linky : charge de la Cnil contre EDF et Engie
    https://www.linformaticien.com/actualites/id/53801/linky-charge-de-la-cnil-contre-edf-et-engie.aspx

    Le gendarme des données personnelles vient d’annoncer la mise en demeure d’EDF et d’Engie, en leur qualité de fournisseurs d’électricité exploitant les compteurs connectés Linky. La Cnil leur reproche un défaut de recueil du consentement éclairé et spécifique et des durées de conservation des données trop longues.
    […]
    Pas assez éclairé…
    A commencer par le consentement des usagers. Si EDF comme Engie demandent effectivement à leurs usagers s’ils acceptent la collecte de leurs données, ce consentement n’est ni spécifique, ni suffisamment éclairé. En effet, une seule case à cocher pour deux voire trois finalités distinctes : affichage des consommations quotidiennes, affichage des consommations à la demi-heure et fourniture de conseils personnalisés.

    Je suis très vénère !
    J’avais spécifiquement signalé ce point à la CNIL au printemps 2016, ainsi que l’absence totale d’information (d’éclairage…) sur les conséquences de la non acceptation : quelles données étaient transmises et à quel pas de temps.

    Elle ne m’a même pas accusé réception de mon message.

  • Clearview AI : comment une entreprise aspire illégalement des millions de photos au service des forces de l’ordre - Cyberguerre
    https://cyberguerre.numerama.com/2366-surveillance-de-masse-comment-une-entreprise-aspire-illeg

    Le New York Times s’est intéressé au cas inquiétant de Clearview AI, une startup qui a créé un outil de reconnaissance faciale... à partir de millions d’images trouvées sur le web. L’application, sortie des pires scénarios de science-fiction, convainc les utilisateurs, mais s’affranchit de plusieurs barrières légales. Peut-elle s’installer dans les usages, alors qu’elle se confronte aux lois américaines et au règlement européen sur les données en Europe ?

  • Une bibliothèque musicale en ligne classe ses morceaux selon vos émotions
    https://www.actualitte.com/article/zone-51/une-bibliotheque-musicale-en-ligne-classe-ses-morceaux-selon-vos-emotions/98604?origin=newsletter

    Parce qu’il est souvent difficile de décrire des émotions face à une quelconque forme d’art : musique, littérature ou spectacle vivant, des chercheurs américains ont décidé de les représenter. Ils ont ainsi conçu une cartographie interactive et audio qui hiérarchise des milliers de morceaux selon les sentiments qu’ils suscitent.

    Pour mener à bien ce projet de bibliothèque musicale interactive, les chercheurs de l’Université de Californie (Berkeley) ont d’abord mené une étude sur 2500 personnes vivant aux États-Unis et en Chine. Les participants, recrutés grâce à la plateforme de microtravail d’Amazon (Amazon Mechanical Turk), devaient évaluer plus de 40 extraits musicaux selon 28 catégories d’émotions différentes.

    Pendant cette enquête, 13 sentiments majeurs se sont démarqués : le plaisir, la joie, l’érotisme, la beauté, la détente, la tristesse, la rêverie, la satisfaction, l’angoisse, l’effroi, la colère, la défiance et enfin la motivation. Une seconde étude, sur un panel plus restreint cette fois, a également été menée pour garantir la véracité des premiers résultats, précise l’établissement dans un communiqué.

    Grâce à ces statistiques et aux données récoltées, les chercheurs ont pu classer les morceaux selon les sentiments qu’ils provoquent chez l’auditeur. Dans cette cartographie interactive, chaque musique y est décrite selon une combinaison d’émotions révélée en pourcentage. Par exemple, Somewhere over the Rainbow d’Israel Kamakawiwoʻole serait un mélange de joie, de sérénité, de beauté et de rêverie.

    Résoudre le mystère de la musique...

    « Nous voulions concevoir une grande bibliothèque musicale éclectique classée par émotions pour pouvoir capturer la combinaison des sentiments associés à chaque morceau », déclare l’auteur principal de l’étude, Alan Cowen, doctorant en neurosciences. « Pour ce faire, nous avons collecté le plus grand éventail d’émotions qui sont universellement ressenties à travers la mélodie d’une musique. »

    « Nous voulions faire un pas en avant vers la résolution du mystère autour de la musique, de comment elle peut évoquer autant d’émotions contrastées », reprend Alan Cowen. « La musique est un langage universel, nous ne prêtons pas toujours assez attention à ce qu’elle dit ni à la façon dont elle est comprise. »

    Métamorphoser une oeuvre littéraire
    en chanson, c’est possible

    La carte interactive est facile d’accès. L’utilisateur n’a qu’à diriger son curseur pour découvrir les morceaux et les combinaisons qu’ils renferment. La représentation contient également d’autres fonctionnalités, comme celle de présenter uniquement soit les statistiques des participants états-uniens, soit de ceux situés en Chine.

    Cela permet de mettre en lumière les conséquences de la culture et des traditions sur nos perceptions de la musique. Pour Cowen, les différences s’établissent surtout dans le sens que l’on donne à nos émotions. « Même s’ils appartiennent à des cultures différentes, deux personnes peuvent se mettre d’accord sur le fait qu’une chanson soit joyeuse ou triste. En revanche, ils sont rarement en adéquation quand il s’agit de caractériser ce sentiment de positif ou de négatif » a-t-il expliqué.

    La carte interactive est disponible à cette adresse.

    https://www.ocf.berkeley.edu/~acowen/music.html#

    #musique #émotions #big_data

  • Les données financières d’employés de Facebook volées dans une voiture
    https://www.linformaticien.com/actualites/direct-afp/id/53478/les-donnees-financieres-d-employes-de-facebook-volees-dans-une-voitu

    Facebook a prévenu vendredi ses employés que les données personnelles et financières de 29.000 d’entre eux avaient été volées dans une voiture le mois dernier.

    « Nous n’avons constaté aucun abus et nous pensons qu’il s’agit d’un cambriolage et non pas d’une tentative de voler des informations sur les employés », a expliqué Facebook à l’AFP.

    Aucune donnée d’utilisateurs du réseau n’a été compromise.

    Les disques durs volés contenaient les noms, numéros de comptes en banque et d’autres données personnelles de 29.000 personnes qui étaient employées par Facebook aux Etats-Unis l’année dernière, a confirmé le géant de l’internet, après une dépêche de Bloomberg.

    Le conducteur de la voiture, un membre du service de paie du groupe, avait placé les disques durs dans un sac, laissé dans le véhicule, alors qu’ils n’auraient pas dû quitter le campus Facebook.

    « Par prudence, nous avons informé les employés passés et présents concernés, et nous mettons à leur dispositions les aides nécessaires en cas de vol d’identité », a précisé Facebook, qui coopère aussi avec l’enquête de la police.

  • Gouvernementalité algorithmique : 3 questions à Antoinette Rouvroy et Hugues Bersini.

    https://www.pointculture.be/magazine/articles/focus/gouvernementalite-algorithmique-3-questions-antoinette-rouvroy-et-hugue

    En confiant notre pouvoir décisionnel au calcul algorithmique, dans quel type de société nous engageons-nous ? Que restera-t-il de la sphère publique, d’un idéal de la justice et de la personne humaine ? Antoinette Rouvroy, juriste et philosophe, et Hugues Bersini, informaticien spécialisé en IA, nous apportent leurs éclairages respectifs sur les dérives éventuelles des technologies contemporaines.

    [...]

    • Que recouvre le concept de gouvernementalité algorithmique en regard des écrits de Foucault ?

    • Peut-on considérer que l’enjeu de la protection des données personnelles soit dépassé ? En quoi le raffinement des techniques de profilage exerce-t-il une pression contre l’individu dans l’espace social ?

    • En quoi la prétendue objectivité du calcul algorithmique s’érige-t-elle contre l’idée même de justice ?

    • Norbert Wiener, le père de la cybernétique, qui avait émis l’hypothèse d’une machine à gouverner conçue pour le bien-être de la planète et des humains, en était arrivé à la conclusion que celle-ci serait comme une fiction au service d’intérêts particuliers et humains. Est-ce là une vue qui rencontre aujourd’hui la définition d’une gouvernementalité algorithmique ?

    #gouvernemetalité_algorithmique
    #big_data

  • Vous avez aimé ceci, vous aimerez cela
    https://www.latribune.fr/opinions/blogs/homo-numericus/vous-avez-aime-ceci-vous-aimerez-cela-834486.html

    HOMO NUMERICUS. Les algorithmes savent presque tout de nous. Ces outils omniprésents dans les nouvelles technologies iront-ils jusqu’à nous ravir notre libre arbitre ? Par Philippe Boyer, directeur de l’innovation à Covivio.

    « Inspiré de votre historique de navigation », «  Notre sélection pour vous » ou encore « Vous avez aimé ceci, vous aimerez cela » ... sont des injonctions que nous connaissons presque tous pourvu que nous achetions déjà sur Amazon, Netflix, Deliveroo et bien d’autres plates-formes numériques. Derrière ces phrases en apparence anodines se cachent une mécanique algorithmique bien huilée destinée à alimenter une stratégie de big data et d’intelligence artificielle qui vise à inciter les utilisateurs à passer toujours plus de temps, et accessoirement dépenser plus d’argent, sur ces sites.

    Grâce aux multiples traces numériques que nous laissons derrière nous, nous devenons de plus en plus prévisibles au point que les applicatifs technologiques en arriveraient presque à anticiper notre propre avenir sans que nous ayons besoin d’y penser nous-mêmes, sorte de renoncement à notre libre-arbitre à « l’insu de notre plein gré ».

    Leibniz
    Pour qui s’intéresse à la philosophie, ces questions de l’affirmation de l’individu face à une entité qui dirige et décide de tout ont animé de très nombreux débats, en particulier au 17ème siècle, quand Descartes et Leibniz, philosophes de la modernité naissante, se demandaient déjà comment affirmer sa liberté face à Dieu, par nature omniscient et grand ordonnateur de toute chose. Leibnitz, est sans conteste le philosophe dont nous pourrions le plus nous inspirer aujourd’hui pour décrire la puissance des algorithmes développés par les entreprises du numérique. Qu’expose-t-il ? Dans son écrit paru en 1714, Monadologie, il oppose deux principes censés fondés l’équilibre du monde. D’une part, la connaissance scientifique, nécessairement vraie. En écrivant que la somme des angles d’un triangle est forcément égale à 180°, il s’agit-là d’une vérité universelle, que le philosophe appelle « principe de contradiction ». Et d’autre part, le « principe de raison suffisante » via lequel des événements se produisent en raison d’un nombre infini de causes qui, assemblées les unes aux autres, finissent par produire un résultat au-dessus de ce qu’un simple humain aurait été capable de penser, de prédire et a fortiori de réaliser.

    Si dans l’esprit du philosophe du 17ème siècle, cette « force obscure » se nomme Dieu, appliqué à notre quotidien du 21ème siècle, imprégné d’algorithmes, une telle « force » pourrait prendre l’appellation de « #big_data » en tant que collecte d’un nombre colossal de données qu’aucun être humain ne pourra jamais ingurgiter. C’est logiquement grâce aux corrélations établies entre toutes ces informations que l’on en arrive ensuite à la mise au point d’algorithmes, pour certains d’entre eux qualifiés de « prédictifs », en ce sens qu’ils peuvent prévoir, voire prédire, certaines de nos futures actions en nous envoyant des recommandations hyper-personnalisées.

    Sommes-nous à ce point transparents ?
    Comment se prémunir face à cette prégnance algorithmique dans laquelle nos comportements numériques sont scrutés, analysés et stockés dans les moindres détails ? Dans une vision dystopique, des algorithmes pourraient-ils finir par nous connaître mieux que nous nous connaissons nous-mêmes ? Sans que nous le sachions, se pourrait-il qu’ils fixent ce que nous pourrions faire sans que nous en ayons pleinement conscience ? Pour ne pas succomber à ce fantasmagorique futur, des débuts de réponses existent. Qu’il s’agisse de la récente législation européenne qui encadre l’usage des données personnelles (RGPD), en passant par nos actions individuelles consistant, sur les principaux moteurs de recherche, à désactiver l’affichage d’annonces basées sur ses propres centres d’intérêt, de nouveaux comportements apparaissent à l’heure d’une prise de conscience grand public de l’usage de ces données et de ses éventuels détournements (on se souvient du scandale Cambridge Analytica ayant eu pour cause la fuite de données personnelles de 87 millions d’utilisateurs Facebook).

    D’autres revendiquent même un certain « droit au mensonge numérique » visant à déjouer les moteurs de recherche à qui nous confions nos questions et nos pensées les plus intimes. S’appuyant sur les recherches Google de millions d’Américains, Seth Stephens-Davidowitz, ancien data scientist de Google, détaille combien ce « sérum de vérité numérique » qu’est le big data et les algorithmes qui sont par la suite construits sur cette matière brute, exposent nos comportements réels. Outre l’exploration de ce que le Big Data nous révèle de notre quotidien, le bien-nommé chapitre « Big Data, big n’importe quoi ? Ce que les données ne peuvent faire » décortique les limites de ce big data en prenant soin d’exhorter ses lecteurs à ne pas s’abandonner à la fatalité qui consisterait à penser que la technologie prendrait systématiquement le pas sur les humains.

    Préserver notre libre arbitre
    La quantité massive de données collectées associée aux algorithmes transforment notre rapport au monde. Ce dernier, c’est un fait, devenant toujours plus objectif, quantifié et mesurable. Face à cette situation, l’une des questions qui se pose est bien celle de la préservation de notre libre arbitre face à cette omniprésence des algorithmes. Pour Aurélie Jean, scientifique reconnue et éminente spécialiste de ces sujets, il s’agit de rappeler « qu’un algorithme ne connaîtra jamais tout de nous pour la bonne et simple raison qu’il n’atteindra jamais complètement notre inconscient. Les algorithmes nous faciliteront la vie de plus en plus à l’avenir, ils nous connaîtront davantage, mais ils ne peuvent pas se substituer à notre libre arbitre, car sans libre arbitre nous ne sommes rien. » et d’ajouter ce message de bon sens destiné, d’une certaine manière, à clore les débats, du moins les plus anxiogènes d’entre eux : « Certes les algorithmes sont plus performants que nous dans de nombreux domaines. Mais il en existe aussi de mal conçus, ou truffés de biais... Dirigeants, journalistes, consommateurs ou citoyens : tous, à notre niveau, nous devons améliorer notre culture algorithmique, et urgemment. »

    Qu’en penserait Leibniz ? Je suggère de poser la question à Google...

  • « #China_Cables » : au #Xinjiang, le #big_data au service d’une surveillance totale des #Ouïgours
    https://www.lemonde.fr/international/article/2019/11/25/china-cables-au-xinjiang-le-big-data-au-service-d-une-surveillance-totale-de
    #chine

    "Quatre bulletins internes émanant du chef de la sécurité de la région du Xinjiang, Zhu Hailun, obtenus par le Consortium international des journalistes d’investigation (#ICIJ), mettent en lumière l’utilisation du big data pour ratisser au plus large et envoyer une part importante de la population ouïgoure en détention. Les policiers font remonter les informations détaillées sur chaque individu, puis la plate-forme liste des milliers de noms de personnes à interner chaque semaine, sans que l’on sache si la décision relève de l’évaluation d’officiels ou de l’utilisation d’algorithmes.

    Les directives datent du mois de juin 2017, alors que la campagne « Frapper fort contre le terrorisme violent », lancée quelques mois plus tôt par un nouveau secrétaire du #Parti communiste chinois pour la région du Xinjiang, Chen Quanguo, prend toute son ampleur.

    Sur une semaine seulement, du 19 au 25 juin 2017, la base de données « notifie » aux autorités locales 24 412 noms de « personnes suspectes » dans quatre préfectures du sud du Xinjiang. Conséquence directe, 15 683 sont envoyées dans des centres dits « d’éducation et de formation », tandis que 706 sont « détenues pénalement », c’est-à-dire probablement destinées à la prison. Enfin, 2 096 feront l’objet d’une « surveillance préventive ». Malgré ces chiffres accablants, le chef de la sécurité de la région, Zhu Hailun, fait le constat de défaillances qui expliquent que certaines personnes, dont le nom est sorti, n’ont pas été localisées."

  • How Earnest Research Into Gay Genetics Went Wrong | WIRED
    https://www.wired.com/story/how-earnest-research-into-gay-genetics-went-wrong

    Un excellent article sur les danger éthiques et sociaux de l’usage sans précaution des données génétiques, notamment les données massives obtenues soit par des actes volontaires (recherche d’ancêtres, et autres) soit au fil d’actes médicaux.

    Anonymiser les données ne suffit pas à garantir qu’il n’y aura pas de conséquences fâcheuses pour l’ensemble de la société.

    Un très bon papier.

    In late spring 2017, Andrea Ganna approached his boss, Ben Neale, with a pitch: He wanted to investigate the genetics of sexuality. Neale hesitated. One of the top geneticists in the country, Neale and his colleagues at the Broad Institute, a pioneering biotech hub in Boston, had a decade earlier developed software that made it much easier for scientists to study the vast amounts of genetic data that were beginning to flood in. It was the kind of tool that helped illuminate a person’s risk of developing, say, heart disease or diabetes. And now, as Ganna was proposing, the approach could be applied to the foundations of behavior, personality, and other social traits that in the past had been difficult to study.

    Ganna wanted to pounce on a new opportunity. A giant collection of carefully cataloged genomes, called the UK Biobank, was about to become available to researchers. A scientist could apply and then gain access to data from 500,000 British citizens—the largest public repository of DNA on the planet. To Ganna, the genetic origins of being gay or straight seemed like the kind of blockbuster question that might finally get an answer from a data set of this size.

    Neale wasn’t so sure. As a gay man himself, he worried that such research could be misconstrued or wielded to advance hateful agendas. On the other hand, a better understanding of how genetics influences same-sex attraction could also help destigmatize it.

    Then Ganna mentioned that another group was already pursuing the question using the UK Biobank: a geneticist named Brendan Zietsch, at the University of Queensland, and his colleagues. In 2008, Zietsch published a study suggesting that the genes straight people shared with their gay twins made them more successful at bedding heterosexual partners. Now he was going to further test this “fecundity hypothesis” with a much more powerful data set. He’d also proposed investigating the genetic associations between sexual orientation and mental health. Thinking his lab could add expertise coupled with caution to such a project, Neale agreed they should try to team up with Zietsch.

    “Armed with the knowledge that this research was going to be done, I thought it was important that we try and do it in a way that was responsible and represented a variety of different perspectives,” he says, noting that, because there is so much genetic data to work with these days, collaborations in his field are commonplace “But it was also important to me personally, as a gay man, to get involved.”

    From the outset, Neale expected some pushback and misunderstandings. That’s why he involved LGBTQ+ groups along the way, something not technically required for the kind of research he was doing. But he wasn’t prepared for scientists within his home institution to rise up and challenge the value and ethics of his work. And he was even less prepared for a company to exploit the results of the study—just a few weeks after it was published in the journal Science—to sell an app purporting to predict how attracted someone is to the same sex.

    #Données_génétiques #Big_data #Ethique #Recherche #Hubris #Génomique #Homosexualité #Fausse_science

  • Google’s ‘Project Nightingale’ Gathers Personal Health Data on Millions of Americans - WSJ
    https://www.wsj.com/articles/google-s-secret-project-nightingale-gathers-personal-health-data-on-millions-of

    Search giant is amassing health records from Ascension facilities in 21 states; patients not yet informed

    Google is engaged with one of the country’s largest health-care systems to collect and crunch the detailed personal health information of millions of Americans across 21 states.

    The initiative, code-named “Project Nightingale,” appears to be the largest in a series of efforts by Silicon Valley giants to gain access to personal health data and establish a toehold in the massive health-care industry.

  • « Les Pays-Bas bâtissent un Etat de surveillance pour les pauvres » - Le Temps
    https://www.letemps.ch/monde/paysbas-batissent-un-surveillance-pauvres

    La démonstration semble anodine. Mais elle fait sursauter Tijmen Wisman dans son bureau de l’Université libre d’Amsterdam. « A eux seuls, les compteurs intelligents, d’eau ou d’électricité, prennent une mesure tous les quarts d’heure. Cela fait 96 par jour, et cela suffit à vous offrir une vue très détaillée de la vie d’une personne. » Or, le système ne s’arrête pas là. « SyRI peut puiser dans une gamme incroyablement étendue de données. Nous sommes très loin de la simple recherche d’« anomalies ». Ce système ouvre la porte à un Etat de surveillance généralisée. »

    Tijmen Wisman sait de quoi il parle. Il a consacré son doctorat au droit européen en matière d’objets connectés. Il est l’un des derniers habitants d’Amsterdam à ne pas posséder de smartphone, et peste à chaque fois qu’il doit introduire sa carte d’abonnement numérisée pour entrer dans le métro qui l’amène à l’université. Il est conscient de chaque trace numérique qu’il laisse, et c’est à ce titre qu’il est devenu l’une des principales chevilles ouvrières de l’opposition qui s’est développée face à SyRI.

  • Zeynep Tufekci : Get a red team to ensure AI is ethical | Verdict
    https://www.verdict.co.uk/zeynep-tufekci-ai-red-team

    In cybersecurity, red team professionals are tasked with finding vulnerabilities before they become a problem. In artificial intelligence, flaws such as bias often become apparent only once they are deployed.

    One way to catch these AI flaws early is for organisations to apply the red team concept when developing new systems, according to techno-sociologist and academic Zeynep Tufekci.

    “Get a read team, get people in the room, wherever you’re working, who think about what could go wrong,” she said, speaking at Hitachi Vantara’s Next conference in Las Vegas, US, last week. “Because thinking about what could go wrong before it does is the best way to make sure it doesn’t go wrong.”

    Referencing Hitachi CEO and president Toshiaki Higashihara description of digitalisation as having “lights and shadows”, Tufekci warned of the risks associated with letting the shadowy side go unchecked.
    AI shadows

    One of these “shadows” is when complex AI systems become black boxes, making it difficult even for the AI’s creators to explain how it made its decision.

    Tufekci also cited the example of YouTube’s recommendation algorithm pushing people towards extremism. For example, a teenager could innocently search ‘is there a male feminism’ and then be nudged towards misogynistic videos because such controversial videos have received more engagement.

    And while data can be used for good, it can also be used by authoritarian governments to repress its citizens, or by election consultancies to manipulate our votes.

    Then there are the many instances of human bias finding their way into algorithms. These include AI in recruitment reflecting the sexism of human employers or facial recognition not working for people with darker skin.

    “If the data can be used to fire you, or to figure out protesters or to use for social control, or not hire people prone to depression, people are going to be like: ‘we do not want this’,” said Tufekci, who is an associate professor at the UNC School of Information and Library Science.

    “What would be much better is to say, what are the guidelines?”
    Using a red team to enforce AI ethics guidelines

    Some guidelines already exist. In April 2018, the European Union’s High-Level Expert Group on AI presented seven key requirements for trustworthy AI.

    These requirements include human oversight, accountability and technical robustness and safety. But what Tufekci suggests is having a team of people dedicated to ensuring AI ethics are adhered to.
    3 Things That Will Change the World Today
    Get the Verdict morning email

    “You need people in the room, who are going to say there’s light and there are shadows in this technology, and how do we figure out to bring more light into the shadowy side, so that we’re not blindsided, so that we’re not just sort of shocked by the ethical challenges when they hit us,” she explained.

    “So we think about it ahead of time.”

    However, technology companies often push back against regulation, usually warning that too much will stifle innovation.

    “Very often when a technology is this new, and this powerful, and this promising, the people who keep talking about what could go wrong – which is what I do a lot – are seen as these spoilsport people,” said Tufekci.

    “And I’m kind of like no – it’s because we want it to be better.”

    #Intelligence_artificielle #Zeynep_Tufekci #Cybersécurité #Biais #Big_data

  • Mes Datas et Moi. Reprenez en main votre identité numérique !
    https://www.mesdatasetmoi.fr

    Un portail thématique sur les données personnelles...
    ...pas super convaincant quand on s’aperçoit qu’il n’y a pas de paramétrage possible des cookies déposés par ce site ("j’accepte" et rien d’autre) et que les outils/sous-sites associés ("une journée de données", application mobile...) commencent par demander tout un tas d’infos persos (âge, code postal...)

    #vie_privée #big_data #données_personnelles

  • Le fichage. Note d’analyse ANAFE
    Un outil sans limites au service du contrôle des frontières ?

    La traversée des frontières par des personnes étrangères est un « outil » politique et médiatique, utilisé pour faire accepter à la population toutes les mesures toujours plus attentatoires aux libertés individuelles, au nom par exemple de la lutte contre le terrorisme. Le prétexte sécuritaire est érigé en étendard et il est systématiquement brandi dans les discours politiques, assimilant ainsi migration et criminalité, non seulement pour des effets d’annonce mais de plus en plus dans les législations.
    Les personnes étrangères font depuis longtemps l’objet de mesures de contrôle et de surveillance. Pourtant, un changement de perspective s’est opéré pour s’adapter aux grands changements des politiques européennes vers une criminalisation croissante de ces personnes, en lien avec le développement constant des nouvelles technologies. L’utilisation exponentielle des fichiers est destinée à identifier, catégoriser, contrôler, éloigner et exclure. Et si le fichage est utilisé pour bloquer les personnes sur leurs parcours migratoires, il est aussi de plus en plus utilisé pour entraver les déplacements à l’intérieur de l’Union et l’action de militants européens qui entendent apporter leur soutien aux personnes exilées.
    Quelles sont les limites à ce développement ? Les possibilités techniques et numériques semblent illimitées et favorisent alors un véritable « business » du fichage.

    Concrètement, il existe pléthore de fichiers. Leur complexité tient au fait qu’ils sont nombreux, mais également à leur superposition. De ce maillage opaque naît une certaine insécurité juridique pour les personnes visées.
    Parallèlement à la multiplication des fichiers de tout type et de toute nature, ce sont désormais des questions liées à leur interconnexion[1], à leurs failles qui sont soulevées et aux abus dans leur utilisation, notamment aux risques d’atteintes aux droits fondamentaux et aux libertés publiques.

    Le 5 février 2019, un accord provisoire a été signé entre la présidence du Conseil européen et le Parlement européen sur l’interopérabilité[2] des systèmes d’information au niveau du continent pour renforcer les contrôles aux frontières de l’Union.

    http://www.anafe.org/IMG/pdf/note_-_le_fichage_un_outil_sans_limites_au_service_du_controle_des_frontieres

    #frontières #contrôle #surveillance #migration #réfugiés #fichage #interconnexion #interopérabilité

  • Think only authoritarian regimes spy on their citizens?

    Use of AI surveillance technology is becoming the global norm, even in liberal democracies.

    Almost half the world’s countries now deploy AI surveillance systems. So says a new report, The Global Expansion of AI Surveillance, from the #Carnegie_Endowment_for_International_Peace (https://carnegieendowment.org/2019/09/17/global-expansion-of-ai-surveillance-pub-79847). Such technologies vary from “#smart_city” projects, which use real-time data on residents to aid delivery of public services and enhance policing, to facial recognition systems, to border security, to governments spying on political dissidents.

    The main driver is China. The tech company Huawei alone is responsible for providing AI surveillance technology to at least 50 countries. But it’s not just Beijing pushing such technology. Western companies, from IBM to Palantir, are deeply involved. In Saudi Arabia, for instance, Huawei is helping create smart cities, Google and Amazon are building cloud computing servers for government surveillance and the UK arms firm BAE is providing mass monitoring systems.

    While authoritarian countries are investing heavily in such technology, it is most widespread in democracies. “Liberal democratic governments,” the report observes, “are aggressively using AI tools to police borders, apprehend potential criminals, monitor citizens for bad behaviour and pull out suspected terrorists from crowds.” Projects range from Baltimore’s secret use of drones for daily surveillance of the city’s residents, to Marseille’s mass monitoring project, built largely by the Chinese firm ZTE and given the very Orwellian name of Big Data of Public Tranquility, to the array of advanced surveillance techniques being deployed on the US-Mexico border.

    The technologies raise major ethical issues and questions about civil liberties. Yet even before we’ve begun to ask such questions, the technology has become so ubiquitous as to render the debate almost redundant. That should be as worrying as the technology itself.

    https://www.theguardian.com/commentisfree/2019/sep/22/think-only-authoritarian-regimes-spy-on-their-citizens
    #surveillance #démocratie #intelligence_artificielle #big_data #index #Chine #Huawei #IBM #Palantir #Google #Amazon #BAE #drones #Baltimore #Marseille #ZTE #Big_data_of_public_tranquility

  • Zum 11. September in Chile : « Man weiß sehr wenig über Allendes Zeit » | amerika21
    https://amerika21.de/audio/231436/11-september-chile-allende

    https://amerika21.de/files/a21/audio/2019/20190910-manweisehrwe-w15886.mp3

    11.09.2019 - Der Weg in den demokratischen Sozialismus
    Von Nils Brock, Radio Dreyeckland

    1970 wurde die erste marxistische Regierung gewählt mit Salvador Allende an der Spitze. 1973 endete der Traum eines und einer jeden Linken mit einem Militärputsch und dem Suizid Allendes. Wir sprachen mit Nils vom Nachrichtenpool Lateinamerika in Berlin.

    Seit 2017 forscht das crossmediale Rechercheprojekt „Allendes Internationale“, eine Kooperation des Nachrichtenpools Lateinamerika e.V. und der Rosa-Luxemburg-Stiftung.

    Rappellons les informations disponibles sur #seenthis à propos du développement d’une société informatisée socialiste sous l’Unidad Popuplar.

    Eden Medina Le Projet Cybersyn, La cybernétique socialiste dans le Chili de Salvador Allende
    https://seenthis.net/messages/778647

    On Cybernetics / Stafford Beer
    https://seenthis.net/messages/715741

    Project Cybersyn
    https://seenthis.net/messages/562656

    « team syntegrity » développées entre autres par le cybernéticien Stafford Beer.
    https://seenthis.net/messages/368059#message368638

    The Planning Machine. Project #Cybersyn and the (socialist) origins of the #Big_Data nation. Evgeny Morozov
    https://seenthis.net/messages/300406

    Letanía para un computador y para un niño que va a nacer
    Texte : Stafford Beer, Musique : Angel Parra
    https://seenthis.net/messages/174261

    Allende, l’informatique et la révolution, par Philippe Rivière
    https://seenthis.net/messages/15929

    #Chili #histoire #socialisme #informatique

  • What Statistics Can and Can’t Tell Us About Ourselves | The New Yorker
    https://www.newyorker.com/magazine/2019/09/09/what-statistics-can-and-cant-tell-us-about-ourselves

    In some ways, this is what you would expect from any large, disordered system. Think about the predictable and quantifiable way that gases behave. It might be impossible to trace the movement of each individual gas molecule, but the uncertainty and disorder at the molecular level wash out when you look at the bigger picture. Similarly, larger regularities emerge from our individually unpredictable lives. It’s almost as though we woke up each morning with a chance, that day, of becoming a murderer, causing a car accident, deciding to propose to our partner, being fired from our job. “An assumption of ‘chance’ encapsulates all the inevitable unpredictability in the world,” Spiegelhalter writes.

    But it’s one thing when your aim is to speak in general terms about who we are together, as a collective entity. The trouble comes when you try to go the other way—to learn something about us as individuals from how we behave as a collective. And, of course, those answers are often the ones we most want.

    The dangers of making individual predictions from our collective characteristics were aptly demonstrated in a deal struck by the French lawyer André-François Raffray in 1965. He agreed to pay a ninety-year-old woman twenty-five hundred francs every month until her death, whereupon he would take possession of her apartment in Arles.

    At the time, the average life expectancy of French women was 74.5 years, and Raffray, then forty-seven, no doubt thought he’d negotiated himself an auspicious contract. Unluckily for him, as Bill Bryson recounts in his new book, “The Body,” the woman was Jeanne Calment, who went on to become the oldest person on record. She survived for thirty-two years after their deal was signed, outliving Raffray, who died at seventy-seven. By then, he had paid more than twice the market value for an apartment he would never live in.

    #Statistiques #Big_data #Méthode_scientifique

  • Comment le numérique bouleverse la gestion des villes | Mediapart
    https://www.mediapart.fr/journal/culture-idees/290819/comment-le-numerique-bouleverse-la-gestion-des-villes?onglet=full

    Les projets se multiplient de « smart cities », des villes intelligentes optimisées par des algorithmes, et de « safe cities », des réseaux urbains sécurisés par la reconnaissance faciale ou la police prédictive. Le livre Gouverner la ville numérique revient sur ces domaines qui bouleversent les relations entre acteurs publics et acteurs privés.

    Progressivement, associations et universitaires commencent pourtant à se pencher sur ces questions. Publié mercredi 28 août aux PUF, Gouverner la ville numérique est un ouvrage collectif permettant de faire le tour d’un sujet aux multiples facettes. Il étudie la recomposition des forces politiques induite par l’arrivée dans les villes de plateformes telles que Airbnb, détaille les enjeux des projets de smart city lancés à San Francisco et Singapour, dissèque le logiciel de police prédictive PredPol et met en perspective les questions de gestion des territoires par des algorithmes.

    Mediapart a rencontré le politiste Antoine Courmont qui, avec le directeur de recherche au CNRS Patrick Le Galès, a codirigé cet ouvrage.

    Quelles sont les différences entre les notions de ville numérique, de smart city et de safe city ?

    Antoine Courmont : La ville numérique désigne toutes les relations entre numérique et ville. On se concentre souvent sur la smart city, alors que la ville numérique, c’est également l’apparition de nouveaux usages et de nouveaux services pour les citoyens, indépendamment des pouvoirs publics. Agrégées, toutes ces pratiques individuelles peuvent avoir des effets sur le gouvernement de la ville, comme on le voit avec Airbnb, Uber ou les trottinettes en libre-service.

    La smart city, c’est l’idée que, par le biais de la technologie, on peut optimiser le fonctionnement urbain, grâce aux données et à leur circulation et leur centralisation. Il serait possible de mettre en place, à des fins d’efficience, une gestion transverse qui dépasse les divisions sectorielles et les silos métiers de la ville.

    Les safe cities, c’est l’application des principes de la smart city au secteur de la sécurité urbaine : croiser des données, développer des algorithmes, mettre en place des centres de commandement pour optimiser les politiques de sécurité. L’usage des technologies numériques pour améliorer la sécurité urbaine connaît un gros boom technologique et économique, et conduit à des évolutions législatives qui ont accompagné la mise en place de dispositifs dans différents pays.

    L’élément central entre la ville numérique, la smart city et la safe city est la donnée. Celle-ci est cruciale pour comprendre les recompositions du gouvernement de la ville numérique.

    Qu’est-ce qui n’a pas fonctionné ? Y a-t-il des différences entre les pays ?

    Ce n’est pas qu’une question de pays. Il n’y a pas un modèle unique de ville numérique. Cela varie entre et au sein des villes. Ce qui n’a pas marché, c’est le modèle unifié, homogène, consistant à utiliser un tableau de bord urbain pour toute la gestion urbaine. Celui-ci est très difficile à mettre en place, car les villes, historiquement, gèrent différemment la voirie, le traitement des déchets, le réseau d’eau… car, dans chacun de ces secteurs, il ne s’agit pas des mêmes institutions et règles, de la même expertise, des mêmes instruments et besoins. Tout cela constitue autant de facteurs d’inertie transformant ou limitant le déploiement de dispositifs techniques.

    En termes organisationnels, il n’y a personne qui gère véritablement la ville de manière transverse. C’est l’une des raisons pour lesquelles ces projets n’ont souvent pas marché. Quand Cisco ou IBM ont voulu vendre leurs technologies, la vraie question était de savoir à qui. Car, en interne, personne n’utilise un dashboard de gestion centralisée. Ça ne répond pas véritablement aux besoins opérationnels des collectivités.

    En revanche, là où ça fonctionne plutôt bien, c’est dès qu’il y a une expertise métier et que l’on repasse silo par silo. Pour l’optimisation des réseaux d’eau ou des réseaux énergétiques, ça marche. Mais dès que l’on veut croiser, par exemple, le réseau énergétique avec la voirie, ça devient beaucoup plus compliqué.

    Cette multiplication des bases de données pose également la question de leur sécurisation. Les smart cities sont-elles prêtes à assurer la sécurité de leurs administrés ?

    Plus on numérise nos villes, plus on collecte de données, plus il y a de risques de piratage de données ou de prise de contrôle des systèmes urbains. C’est un enjeu qui est pris en compte par les villes et par l’État. Et c’est là aussi l’occasion du développement d’un très gros marché économique autour de la cybersécurité.

    Mais aucun système n’est infaillible. Ce n’est pas médiatisé en France mais il y a régulièrement des attaques sur services urbains. Qui échouent mais qui sont régulières. À l’étranger, il y a déjà eu des réseaux de transport ou d’énergie paralysés pendant plusieurs jours.

    On peut penser qu’un jour il y aura, comme l’a prédit le sociologue Dominique Boullier, un « Fukushima des données personnelles ». À ce moment-là, on se rendra compte de toutes les informations dont disposent toutes ces entreprises et administrations. Peut-être qu’à ce moment-là il y aura un débat public un peu plus important sur la collecte de données.

    Car c’est malheureusement un sujet qui n’est pas beaucoup débattu au niveau des collectivités lorsque des services numériques sont développés. On se pose rarement la question de savoir pourquoi on collecte ces informations sur tous ces individus. Est-ce qu’on ne peut pas au contraire avoir de la privacy by design qui permettrait de collecter moins de données ?

    Un autre aspect est sous-débattu, ce sont les questions environnementales. Plus vous mettez des dispositifs numériques, plus vous installez des capteurs, plus vous collectez de données, plus ça nécessite de l’énergie. Les datas centers sont déjà une des principales sources de consommation énergétique. Jusqu’où ça va aller ?

    #Smart_city #Numérique #Villes #Politique

  • More than 1,000 Android apps harvest data even after you deny permissions

    The apps gather information such as location, even after owners explicitly say no. Google says a fix won’t come until Android Q.
    https://www.cnet.com/news/more-than-1000-android-apps-harvest-your-data-even-after-you-deny-permissions

    Fundamentally, consumers have very few tools and cues that they can use to reasonably control their privacy and make decisions about it.

    #privacy #android #security

  • Radicalisation et psychiatrie : les données de deux fichiers pourront être consultées par les préfets
    https://www.lemonde.fr/societe/article/2019/05/07/radicalisation-et-psychiatrie-les-donnees-de-deux-fichiers-pourront-etre-con

    Des psychiatres et des associations de patients y voient des « amalgames entre maladie psychique et terrorisme ».

    Les autorités de l’Etat – les préfets dans les départements et le préfet de police à Paris – pourront être prévenues lorsqu’une personne fichée pour « radicalisation terroriste » est hospitalisée sans consentement pour des raisons psychiatriques, selon un décret du ministère des solidarités et de la santé publié mardi 7 mai au Journal officiel.
    Ce texte a « pour objet la prévention de la radicalisation ». Il autorise le croisement de deux fichiers de données à caractère personnel (identité, date de naissance, etc.). L’un, nommé Hopsyweb, concerne les personnes subissant des « soins psychiatriques sans consentement », et l’autre est le Fichier des signalements pour la prévention et la radicalisation à caractère terroriste (FSPRT).

    #psychiatrie #surveillance #secret_médical #anti-terrorisme

  • Palantir : l’œil américain du renseignement français
    https://www.franceinter.fr/emissions/secrets-d-info/secrets-d-info-22-septembre-2018

    Du côté de la DGSI, on explique que le système est « efficace et parfaitement sécurisé. » Une source proche du renseignement explique que « si Palantir a bien formé des agents français à l’utilisation du logiciel, l’entreprise n’a jamais accès directement aux données. »
    « Au moment où nous avons passé ce contrat avec Palantir, des techniciens ont donné leur feu vert et nous ont garanti l’étanchéité du système », assure encore une source proche de la direction du renseignement, à l’époque.
    « Nos services ont des capacités de cyber-défense et de contre-espionnage qui sont très développées, ajoute l’ancien conseiller du garde des Sceaux Jean-Jacques Urvoas, Floran Vadillo. Une porte dérobée ou un cheval de Troie serait facilement repéré. Et puis, il n’est pas dans l’intérêt commercial de Palantir d’offrir des solutions minées à ses clients. Si on apprend qu’elle participe à un détournement de données, tout son système-business s’effondre. »

    Naïveté consternante, méthode Coué ou enfumage complice ?

    Voir aussi :
    - sur la société Palantir : https://www.telerama.fr/medias/palantir-big-data-renseignement,153229.php
    - sur la succession du contrat DGSI/Palantir : https://www.silicon.fr/renseignement-la-dgsi-semancipe-de-palantir-222231.html

    #palantir #DGSI #big_data #cloud_act #airbus #white_washing #backdoor

  • Comment sont tués les cyclistes à Paris - Libération
    https://www.liberation.fr/france/2019/04/24/comment-sont-tues-les-cyclistes-a-paris_1722899

    Les accidents mortels dans la capitale sont très genrés : toutes les femmes cyclistes tuées l’ont été par des poids lourds.

    Comment sont tués les cyclistes à Paris


    Comment sont tués les cyclistes à Paris ? Pour le savoir, nous avons étudié la base de données des accidents corporels de la circulation qui court de 2005 à 2017. Sur cette période, 42 cyclistes ont été tués à Paris (soit moins de 2% du total de cyclistes morts sur les routes en France).
    Les femmes cyclistes principalement tuées par des poids lourds tournant à droite

    Dans la capitale, 24 cyclistes sont morts après une collision avec un poids lourd, parmi lesquels 16 femmes. Presque toutes les femmes cyclistes tuées à Paris l’ont été par un poids lourd. Les femmes cyclistes à Paris sont donc deux fois plus nombreuses à avoir été tuées par des poids lourds que les hommes (16 contre 8). Dans la quasi-totalité des cas, elles sont victimes d’un poids lourd tournant à droite à un carrefour. En revanche, contrairement aux hommes, aucune femme n’a été victime de véhicule particulier sur cette période.

    Infographie : les cyclistes tués à Paris selon le type de véhicule impliqué

    Un phénomène similaire se produit en banlieue proche (Hauts-de-Seine, Seine-Saint-Denis, Val-de-Marne), où les femmes sont plus nombreuses que les hommes à être victimes de poids lourds. Et lorsqu’on prend en compte les blessés graves, les femmes sont encore près de deux fois plus nombreuses à être victimes de poids lourds (60 contre 34). Il s’agit d’une particularité de la capitale et des départements proches étant donné que dans la France entière, les femmes cyclistes sont plus de deux fois moins nombreuses à êtres tuées par les poids lourds que les hommes.
    La situation parisienne ressemble beaucoup à celle d’autres grandes villes, et notamment à celle du centre de Londres. Un rapport des transports en commun londoniens émettait l’hypothèse que les femmes sont surreprésentées dans les cyclistes tués par des poids lourds parce qu’elles sont moins susceptibles de griller les feux rouges que les hommes. En effet, les cyclistes hommes sont généralement plus enclins à prendre des libertés avec le code de la route lorsqu’il s’agit de se rendre visibles des autres engins motorisés, et à se mettre devant eux pour redémarrer. Et dans certains cas, le respect strict du code de la route force à rester dans un angle mort. Par ailleurs, indique le rapport, le cycliste est plus en sécurité dans le flux de circulation s’il se déplace à la même vitesse que les motorisés. A Londres, dans la plupart des cas, les accidents se produisent lorsque le poids lourd renverse le cycliste en tournant à gauche (et à droite à Paris).

    On peut espérer que les sas vélos, lorsqu’ils seront réellement respectés par les véhicules motorisés, permettront de réduire ce genre de drame. Au Parlement, des députés prévoient à ce sujet de discuter d’amendements à la loi mobilité pour réduire le danger des poids lourds pour les cyclistes et les piétons. L’un, qui aura probablement peu d’impact, a pour but d’imposer des autocollants sur les angles morts des poids lourds. L’autre, probablement plus efficace mais moins succeptible d’être adopté, proposerait l’interdiction de la circulation aux poids lourds sans dispositifs de détection.
    De plus en plus de cyclistes tués en France

    Si l’on prend l’évolution du nombre de tués sur la route en France depuis une dizaine d’années, on constate une baisse suivie d’un plateau à partir de 2014. En revanche pour la population cycliste, c’est une autre histoire : le nombre de tués est resté stable des années mais il augmente drastiquement depuis l’année 2017.

    Infographie : les tués sur la route en France

    Quand on représente l’évolution en base 100 depuis décembre 2007, cela permet de voir le décalage entre les cyclistes tués et l’ensemble des tués sur la route. Certes, en valeur absolue, ils ne représentent qu’entre 2,9% et 5,75% des tués selon les mois. Mais l’augmentation est de 34% depuis décembre 2007 alors que le nombre tous usagers confondus est en baisse de 31%.

    Infographie : évolution du nombre de cyclistes tués sur la route (base 100)

    L’on peut supposer que la pratique du vélo a augmenté récemment, comme en témoignent les chiffres de vente du secteur, ce qui expliquerait le décalage avec le reste des usagers. Selon la sécurité routière sur ces derniers mois, c’est surtout sur les routes hors agglomération que l’on compte les cyclistes tués. La remontée globale est aussi attribuée à un relâchement des comportements.

    Ces chiffres ne doivent pas vous décourager de faire du vélo, notamment pour vous rendre au travail, car plus les cyclistes sont nombreux sur la route, moins il y a d’accidents, selon le principe de la masse critique. Les premières victimes de la route à Paris sont d’ailleurs les piétons, suivis de près par les deux-roues motorisés, puis les automobilistes.

    • Cet article élude totalement la question de la #violence_au_volant, surtout pour un sujet qui traite de #genre. Il parle des comportements des personnes tuées, pas du tout des conducteurs, c’est donc toujours à charge contre les victimes. Peut-être qu’il y a un vide total de ce côté là, qu’il n’y a aucune étude sur la #violence_masculine favorisée par les publicités de bagnole et pousse les hommes à exacerber leur #masculinité au volant au mépris de la vie des autres, et surtout des femmes.
      Je ne vois pas comment une société favorisant le féminicide ne donnerait pas lieu à ce genre de répercussions sur la route.
      En tout cas, si on voit comme moi la bagnole ou le poids lourd comme un instrument de domination.
      D’autant que ces tanks civils permettent de tuer en toute impunité juridique, attention je ne dis pas que c’est volontaire, je souligne juste que la justice relaxe les criminels de la route.

    • La situation parisienne ressemble beaucoup à celle d’autres grandes villes, et notamment à celle du centre de Londres. Un rapport des transports en commun londoniens émettait l’hypothèse que les femmes sont surreprésentées dans les cyclistes tués par des poids lourds parce qu’elles sont moins susceptibles de griller les feux rouges que les hommes. En effet, les cyclistes hommes sont généralement plus enclins à prendre des libertés avec le code de la route lorsqu’il s’agit de se rendre visibles des autres engins motorisés, et à se mettre devant eux pour redémarrer. Et dans certains cas, le respect strict du code de la route force à rester dans un angle mort. Par ailleurs, indique le rapport, le cycliste est plus en sécurité dans le flux de circulation s’il se déplace à la même vitesse que les motorisés. A Londres, dans la plupart des cas, les accidents se produisent lorsque le poids lourd renverse le cycliste en tournant à gauche (et à droite à Paris)

    • ...ces gros signaux de présence d’autrui vont invisibiliser les autres usagèr·es.

      Tout à fait d’accord avec toi @aude_v
      Il faut se souvenir qu’au moment de l’instauration de cette mesure (l’allumage permanent des phares ) l’argument mis en avant par l’administration française était : « En Scandinavie où l’allumage des phares de jour est la règle, le taux d’accident est plus faible »
      Sauf qu’en Scandinavie cette mesure répond à une situation particulière : la moitié de l’année le soleil est très bas sur l’horizon entrainant un éblouissement (qu’on expérimente occasionnellement en France au moment du coucher du soleil) et c’est pour palier à ce manque de visibilité dû à l’éblouissement que l’allumage permanent des phares a été instauré dans les pays nordiques.
      Le taux d’accidents est en réalité totalement décorrélé, les conducteurs scandinaves étant déjà à l’époque beaucoup plus respectueux des autres usagés.
      L’administration française à juste trouvé dans l’exemple scandinave un biais de confirmation dont on mesure aujourd’hui les effets délétères.

    • Je note pour ma part que la grosse majorité des morts sont des hommes - la violence masculine est aussi une violence des hommes contre les autres hommes (et contre soit, donc, j’imagine, pour un certain nombre de ces morts...).

      J’étais en Allemagne ces jours-ci. C’est particulier la quiétude que l’on ressent dans les rues des villes. Les voitures s’arrêtent et te laissent passer, sans besoin de forcer le passage. Et même quand toi même tu conduis, les autres véhicules te laissent manœuvrer tranquillement. Sans parler des autoroutes, où les chauffards roulant à 170 te laissent tranquillement faire tes manœuvres de dépassement à ton rythme de français (130), sans cligno comminatoires (illégal là bas, figurez-vous) ni appels de phares. De retour en France, la différence était flagrante et désespérante.

    • @biggrizzly, les combats de zizi font beaucoup de victimes, la violence est une gloire débile de la masculinisation. Quand on sait que de +90% des prévenus sont des hommes, c’est très inquiétant sur l’état de l’éducation française où on continue de ne pas respecter les enfants et de les frapper.
      Il y a toujours une source d’enfance pourrie, et dans la violence une façon inconsciente de frôler la mort qui pue la douleur de ne pas être autre chose qu’un amas de frustration et de développement pas bien terminé.
      En corollaire il y avait une étude, mais je ne remets pas la main dessus, qui montrait que le nombre de victimes de la route ayant subies des violences enfants étaient plus nombreuses, un contre-coup des traumatismes subis.

      Et je m’éloigne un peu, mais quand même. La route est un espace public fortement inconscient avec 10 morts par jour en france. Il n’y a aucune étude ou campagne qui aborde la dimension culturelle ou qui se questionne sur ce qui génère cette violence. Moi j’aimerai bien comprendre pourquoi je trouve que c’est la même inconscience que pour l’espace du sexe, maintenant que l’on a commencé à lever le voile et reconnu que le sexe est politique, pour sortir de l’inconscient faudrait peut-être s’atteler à voir que la conduite aussi est politique.
      #victimes

    • Oui elles ont eu a une époque des frais d’assurances moins chers que les hommes mais les hommes dans un soucis d’égalité ont exigés que les frais soient identique et cela même si les hommes sont pour ceux qui conduisent des dangers publiques qui coute très chère à la collectivité et surtout aux femmes et aux enfants.

  • Et si on revenait à la bougie ?
    http://www.piecesetmaindoeuvre.com/spip.php?page=resume&id_article=1127

    Cela fait 150 ans que ça dure. Depuis l’invention de la « Houille blanche » en 1869 à Grenoble, des générations d’opposants au despotisme de l’électro-industrie ont essuyé l’invective : « - Vous les opposants (passéistes/obscurantistes/conservateurs/écologistes), vous voulez revenir à la bougie ! » Le mouvement anti-Linky, les pêcheurs du Tréport opposés aux éoliennes en mer et les habitants de Bure contre l’enfouissement de déchets nucléaires sous leurs pieds, font partie parmi tant d’autres de cette dernière vague d’humains à se faire ainsi apostropher par les Seigneurs du Progrès. À force, on finit par se demander si l’électrification de nos vies, de nos villes et campagnes, à l’échelle nationale et globale, fut un tel bienfait, et pour qui. C’est ce que nous avons tâché de savoir, à partir de l’exemple (...)

    #Nécrotechnologies
    http://www.piecesetmaindoeuvre.com/IMG/pdf/geg.pdf

  • Suisse : Avant même l’arrivée de la #5G, des chercheurs planchent déjà sur la #6G Cynthia Racine/oang - 15 Avril 2019 - RTS
    https://www.rts.ch/info/sciences-tech/technologies/10365979-avant-meme-l-arrivee-de-la-5g-des-chercheurs-planchent-deja-sur-la-6g.h

    Alors que les inquiétudes montent autour de la 5G et de ses antennes, des chercheurs suisses et européens s’intéressent déjà à la 6G. Ils veulent éviter le retard pris sur d’autres avec la dernière génération.
    L’Europe a pris du retard dans le développement de la technologie 5G, face à la Chine notamment. Elle veut donc éviter que ce scénario se reproduise avec la génération suivante de cette technologie mobile.

    Et parmi les chercheurs qui planchent déjà sur la 6G figure notamment le Centre Suisse d’Electronique et de Microtechnique (CSEM) à Neuchâtel, qui a participé au « 6G Wireless Summit » le mois dernier en Finlande.

    Les risques des solutions chinoises
    « L’Europe va devoir être prise comme un partenaire important dans la définition de ce que sera la 6G », explique le responsable du secteur Systèmes sans fils embarqués au CSEM Philippe Dallemagne lundi dans La Matinale. « Et pas seulement en se basant sur des solutions développées en Chine, ce qui présente des avantages parce que les produits chinois sont plus abordables mais certainement pas les mieux placés en termes de confidentialité des données. On a aussi évoqué des problèmes d’espionnage. On essayera d’éviter ces questions à l’avenir, j’imagine. »

    Parmi les autres pistes étudiées pour la 6G figurent des débits encore améliorés. La question de la dangerosité des ondes, elle, n’est pas encore au centre des préoccupations.

    Antennes moins puissantes mais plus nombreuses ?
    « Aujourd’hui, il n’y a pas de demande spécifique concernant la santé dans la 6G, mais c’est un sujet qui pourrait venir » note Philippe Dallemagne. « Il est clair que multiplier les antennes pose probablement un problème de densité d’émissions de radiofréquences. Un des sujets qui pourrait être abordé dans la 6G, peut-être même déjà dans les prochaines versions de la 5G, serait d’établir des mécanismes qui permettraient de réduire la puissance des antennes, en contrepartie de leur multiplication par exemple. »

    Les recherches sur la 6G n’en sont évidemment qu’à leurs débuts. Il faut en général une dizaine d’années pour développer une nouvelle génération de standards pour la téléphonie mobile.

     #obsolescence_programmée #internet #technologie #téléphonie_mobile #smartphone #nécrotechnologies #smartphones #big_data #high_tech #actualités_high-tech