• Scandaleux : chez Intermarché, pas de carte de fidélité, pas de masque de sécurité ! | L’Humanité
    https://www.humanite.fr/scandaleux-chez-intermarche-pas-de-carte-de-fidelite-pas-de-masque-de-secur

    Ils n’ont pas honte. L’enseigne commerciale Intermarché a réservé la vente de masques de protection... aux titulaires d’une carte de fidélité. De quoi engranger des milliers d’adresses mail et de coordonnées personnelles.

    L’occasion était trop belle. Alors que la grande distribution a mis en vente, ce lundi, des millions de masques de protection, certains ont flairé le bon filon pour capter une clientèle sous pression, inquiète à l’idée de ne pas pouvoir se procurer – par ses propres moyens – ce que l’État devrait mettre gratuitement à disposition de tous. Intermarché n’a pas hésité.

    Le 1er mai, Intermarché diffusait une publicité pour son programme de fidélisation enjoignant les potentiels clients à « créer (votre) carte de fidélité pour réserver (vos) masques ». Et de détailler la procédure pour accéder au précieux sésame : une fois la carte créée, il convient de remplir un formulaire afin de recevoir un bon de retrait pour un lot de « 50 masques à usage unique », vendu 29,54 euros. Trente millions d’unités ont été mises en vente par l’enseigne dès lundi. Et le patron du groupe, Thierry Cotillard, maintient ferme son objectif d’en écouler 90 millions dans les prochains jours. Les clients, eux, oscillent entre indignation et colère. Indignation de voir ainsi les gens « sélectionnés sur critères commerciaux », dénonce un internaute. Colère de ceux qui s’y sont laissés prendre et qui se sont retrouvés face à une fin de non-recevoir : « Nous sommes désolés, réservations complètes pour aujourd’hui, revenez demain », affiche l’écran après des heures d’attente.

    #post-capitalisme ?

  • Le gouvernement veut créer un #fichier pour les malades du coronavirus

    Le projet de loi du gouvernement prévoit la création d’un fichier spécifique rassemblant les noms des #malades du #Covid-19 ainsi que de leurs contacts. Et ce « sans le consentement » des personnes concernées.

    Comment assurer le #suivi des malades du Covid-19 et des personnes qu’ils ont croisées ? C’est pour répondre à cette question que le gouvernement entend créer un nouveau fichier, prévu par le projet de loi prorogeant l’#état_d’urgence_sanitaire, qui devrait être examiné par les parlementaires les 4 et 5 mai.

    L’article 6 du texte prévoit en effet que soient rassemblées dans un même fichier toutes les informations susceptibles d’aider à la reconstitution, par des « #brigades » d’#enquêteurs_épidémiologiques, des #relations de chacun. Le fichier, non anonyme, devrait ainsi contenir l’#identité des malades et les résultats de leurs #examens_biologiques, mais aussi plus largement la liste des personnes croisées au cours des derniers jours – car « présentant un #risque_d’infection » -, leur #adresse et leurs #déplacements. Et ce afin d’opérer, peut-on lire dans le texte du gouvernement une « #surveillance_épidémiologique aux niveaux national et local ».

    Plusieurs administrations auront accès aux données

    Le nouveau fichier, qui n’a aucun lien avec l’application de #traçage #StopCovid, dont Olivier #Véran a annoncé qu’elle ne serait pas prête le 11 mai, abritera ces #informations, d’abord collectées par le #médecin_traitant puis par les « brigades » de l’#Assurance_maladie. Des #données_personnelles extrêmement sensibles qui seront ensuite mises à la disposition non seulement des professionnels de santé en charge du suivi des personnes malades, mais aussi de plusieurs administrations comme le #ministère_de_la_santé, le service de santé des #armées, l’Assurance maladie et les #Agences_régionales_de_santé.

    Le dossier est d’autant plus sensible que les données dont il est question sont en partie couvertes par le #secret_médical. « Comme lorsque nous consultons un confrère à propos d’un patient ou lorsque nous envoyons à l’Assurance maladie les motifs médicaux d’arrêt de travail, nous serons dans le cadre d’un #secret_médical_partagé », assure le docteur Jacques Battistoni, président du premier syndicat de médecins généralistes, #MGFrance. Les #généralistes seront chargés de collecter les premières informations sur le « #premier_cercle » fréquenté par un malade dans le fichier. Ils ont d’ailleurs reçu un courrier en ce sens, jeudi 30 avril, signé par Nicolas Revel, le patron de l’Assurance maladie.

    « Je comprends que ce système puisse impressionner, car il contient des #informations_sensibles et personnelles, mais c’est un moindre mal. Il me semble vraiment indispensable si l’on ne veut pas que l’#épidémie reparte », souligne le docteur Battistoni.

    Une transmission de données « sans le #consentement des personnes »

    Autre question sensible, au cœur de ce nouveau fichier : la #transmission_des_informations qu’il contient sera opérée « sans le consentement des personnes intéressées », peut-on lire dans le projet de loi gouvernemental. Une précision qui inquiète plusieurs observateurs, comme le président de l’#Union_française_pour_une_médecine_libre (#UFML), le docteur Jérôme Marty. « Le consentement est l’un des socles de la médecine. Le fait de ne pas demander le consentement de son patient pour constituer un fichier est sans précédent. La situation d’#urgence ne peut pas tout justifier », alerte-t-il.

    « Imaginez le scandale si nous avions fait ce genre de fichiers pour le sida, poursuit-il. Cela pose un problème #éthique et déontologique important. » Ce praticien réclame l’avis Conseil de l’Ordre sur le sujet, mais aussi celui du Comité national d’éthique, de l’Académie de médecine, de la Cnil et du Conseil constitutionnel.

    « Garde-fous »

    « Que signifie cette absence de consentement ? », interroge quant à lui l’avocat Thierry Vallat. Ce spécialiste des données personnelles estime que des « #garde-fous » devront ainsi être nécessaires. « Il faut définir très précisément qui collectera les informations, la liste des informations précises, qui pourra y avoir accès et surtout pour combien de temps », insiste l’avocat. Sur ce dernier point, le gouvernement prévoit la disparition du fichier « au plus tard » un an après la promulgation de la loi.

    Mais surtout, l’avocat s’inquiète d’éventuelles #fuites de données. « Nous sommes dans un contexte exceptionnel où les services de l’État agissent très rapidement, et risquent de ne pas avoir le temps de sécuriser ce nouveau fichier. Or les données de santé font régulièrement l’objet de fuites, et elles sont extrêmement convoitées », estime-t-il.

    Dans l’ensemble, l’architecture de ce nouveau dispositif demeure assez floue. Et pour cause : il devrait ainsi être précisé, après coup, par un #décret d’application. Ce qui permettra de consulter la Cnil sur ce nouveau fichier. Jusqu’à maintenant, la Commission indépendante n’a en effet pas été sollicitée sur ce dossier sensible.

    https://www.la-croix.com/Sciences-et-ethique/Sante/Le-gouvernement-veut-creer-fichier-malades-coronavirus-2020-05-03-12010923
    #coronavirus #France #loi #déontologie
    ping @etraces @isskein

  • La #Suisse sous couverture - Agents infiltrés (1/5)

    En 1955, les #services_de_renseignement américains et l’entreprise suisse #Crypto_AG concluent un accord confidentiel qui permettra l’#espionnage des communications de 130 pays. Durant des décennies, un pan de l’industrie helvétique sera impliqué dans ces activités, malgré la « #neutralité » du pays et avec la bénédiction du Conseil fédéral.

    https://www.rts.ch/play/tv/la-suisse-sous-couverture/video/la-suisse-sous-couverture-agents-infiltres-15?id=10868165

    #histoire #USA #guerre_froide #Crypto #William_Friedman #cryptographie #technologie #espions #renseignements #Boris_Hagelin #neutralité #espionnage #affaire_Buehler #Hans_Buehler #Nora_Makabee #BND #Siemens #Loèches #Valais

    ping @simplicissimus @etraces

    • La Suisse sous couverture - Les grandes oreilles de la Confédération (2/5)

      A #Loèche, #Swisscom, le Département fédéral de la défense et des entreprises privées proches de la #National_Security_Agency (#NSA) gèrent un parc d’antennes pour les communications satellitaires entre la Suisse et l’étranger. En l’an 2000, ce site stratégique devient la porte d’entrée privilégiée de Washington pour espionner les communications dans le monde entier.

      https://www.rts.ch/play/tv/la-suisse-sous-couverture/video/la-suisse-sous-couverture-les-grandes-oreilles-de-la-confederation-25-?id=108681
      #neutralité #télécommunication #satellites #ONYX #services_de_renseignement #USA #Etats-Unis #Jean-Paul_Rouiller #signalhorn #Treasure_Map serveurs_clandestins #déni

    • La Suisse sous couverture - #Genève, nid d’espions (3/5)

      Des salons de l’#ONU truffés de micros, des antennes camouflées dans les missions diplomatiques et des agents russes ou américains infiltrés partout... A Genève, où Edward Snowden travaillait pour la #CIA, le petit monde du renseignement grenouille discrètement et les espions chassent en meute.

      https://www.rts.ch/play/tv/la-suisse-sous-couverture/video/la-suisse-sous-couverture-geneve-nid-despions-35?id=10868210
      #Snowden #Nations_Unies #Special_collection_service (#SCS) #organisations_internationales #système_d'écoute #site_C #Wiesbaden #Fort_Meade #NSA #Russie

    • La Suisse sous couverture - Le secret bunker suisse (4/5)

      Nos données numériques personnelles sont une mine d’or d’informations qu’il faut protéger des regards indiscrets. En Suisse, une législation déficiente – elle date de 1992 – permet à des puissances étrangères d’accéder à ces données. Dans le dossier du « big data », c’est la souveraineté de la Confédération qui est en jeu.

      https://www.rts.ch/play/tv/la-suisse-sous-couverture/video/la-suisse-sous-couverture-le-secret-bunker-suisse-45?id=10868236

      #big_data #données_numériques #coffre-fort_numérique #réduit_national_4.0 #stockage #RGPD #protection_des_données #cloud_act

    • La Suisse sous couverture - Crypto révolution (5/5)

      D’un côté, Google et consorts contrôlent les canaux et le stockage de l’information. De l’autre, une puissante mouvance de hackers tente de rendre cette information publique, en piratant des systèmes informatiques. L’enjeu de cette guerre ? La défense de libertés fondamentales, aussi bien sur internet que dans la société.

      https://www.rts.ch/play/tv/la-suisse-sous-couverture/video/la-suisse-sous-couverture-crypto-revolution-55?id=10868255

      #activisme #résistance #hackers #Digital_Gesellschaft #droits_humains #chaos_computer #club #surveillance #économie_de_la_surveillance

    • La CIA s’est servie d’une entreprise suisse pour espionner plus de 100 pays

      Une affaire d’espionnage secoue la Suisse : pendant des décennies, les services de renseignement américains et allemands ont secrètement utilisé une entreprise suisse et sa technologie pour espionner de nombreux États. Que savaient les autorités suisses à ce sujet ?

      Vue de l’extérieur, la firme zougoise Crypto AG était une entreprise suisse sérieuse, spécialisée dans la technologie de pointe. Elle fabriquait un produit peu utilisé par la plupart des gens : des appareils de chiffrement. Ses clients étaient des États ainsi que leurs armées et services secrets voulant rendre leurs communications secrètes illisibles, c’est-à-dire les crypter ou les chiffrer.

      Cependant, Crypto AG n’était une entreprise normale et respectant les valeurs ayant cours en Suisse que côté pile. Côté face, elle possédait une structure cryptique – au sens propre – car ses propriétaires agissant dans l’ombre étaient, à partir de 1970, l’agence centrale de renseignement américaine (CIA) et le service de renseignement allemand (BND). Les deux services secrets firent en sorte que la technologie de cryptage « swiss made », réputée infaillible, soit munie d’une porte dérobée.

      Grâce à ces manipulations ciblées, la CIA et le BND ont pu espionner 148 États – ennemis ou alliés – pendant des dizaines d’années. Tous ces pays avait investi des millions pour obtenir la technologie de ce pays neutre et digne de confiance qu’était la Suisse. Autrement dit, ils ont payé eux-mêmes les appareils qui les ont trahis.

      Les faits ont été dévoilés à la mi-février par la télévision suisse alémanique SRF, la chaîne allemande ZDF et le « Washington Post » à l’issue d’une enquête commune. L’équipe de recherche s’est appuyée sur des dossiers de la CIA qu’on lui a fait passer en douce, et sur des entretiens avec d’anciens employés de Crypto AG et leurs proches.

      L’ampleur du « coup du siècle des services secrets » – ce sont les termes de la CIA – paraît énorme. L’affaire met en lumière les tensions de l’époque de la guerre froide. La complicité de la CIA et du BND éclaire d’un nouveau jour bon nombre d’événements historiques de ces 50 dernières années. Jusqu’où faut-il réécrire l’histoire mondiale récente ? Seule une étude approfondie des CryptoLeaks le déterminera. L’histoire suisse doit-elle, elle aussi, être révisée ? C’est la question qui fait tant de vagues aussi en Suisse. On se demande ce que les autorités suisses savaient, et si l’État suisse était au courant des agissements des services de renseignement étrangers sur son sol et les a couverts.
      « Le programme a dépassé les espérances les plus folles »

      Dans quelle mesure les activités d’espionnage de la CIA et du BND, s’appuyant sur la technologie truquée de l’entreprise Crypto AG, ont-elles abouti ? Le succès des espions est toujours un échec pour ceux qui en sont victimes : la réponse dépend donc du point de vue adopté. Celui de la CIA, d’après les sources publiées, est le suivant : « Cela a été le projet d’espionnage à la fois le plus productif et le plus long depuis la Seconde Guerre mondiale. » Ainsi, entre 80 et 90 % des communications secrètes de l’Iran ont pu être déchiffrées. D’après la source de la CIA, « le programme a dépassé les espérances les plus folles de ses inventeurs. »

      Ces écoutes ont permis aux États-Unis d’influencer l’issue de tous les grands conflits ou presque à leur profit. Un exemple : selon l’état actuel des sources, le coup d’État militaire au Chili (1973) a été soutenu par les États-Unis sur la base des écoutes. En même temps, la CIA et le BND ont épié les conversations du régime militaire alors parvenu au pouvoir et n’ont donc jamais rien ignoré des méthodes de persécution et de torture qui coûtèrent la vie à 30 000 opposants au régime.
      Beaucoup de questions, premières réponses

      Les révélations sur Crypto AG font beaucoup de vagues, mais il n’est pas encore possible d’en tirer des conclusions définitives. Les grandes questions qu’elles posent esquissent cependant la portée de l’affaire pour la Suisse.

      Pourquoi la CIA et le BND ont-ils utilisé la couverture discrète d’une entreprise suisse ?

      Crypto AG a été fondée en 1952 par le cryptologue suédois Boris Hagelin. Il n’a pas implanté son entreprise en Suisse par hasard : « Lorsqu’on travaillait dans un domaine aussi sensible que la cryptographie, il valait mieux rechercher la protection d’un pays neutre mais faisant preuve de peu de scrupules moraux », indique la source de la CIA. Boris Hagelin a vendu son entreprise en 1970 à une société-écran de la CIA et du BND.

      Ce sont la CIA et le BND qui se sont livrés à ces activités d’espionnage. Pourquoi l’affaire est-elle perçue en Suisse comme un scandale « suisse » ?

      Du point de vue suisse, il est déterminant de savoir si les autorités du pays connaissaient les intentions, le modus operandi et la portée des activités d’espionnage, et si elles les ont tolérées, voire même favorisées.

      Des employés de Crypto AG soupçonnèrent que des puissances étrangères s’étaient immiscées dans les rouages de leur parfaite technique. Ils en ont informé la justice suisse. Que s’est-il passé ensuite ?

      Il est prouvé qu’au milieu des années 1970, un employé a informé des instances officielles que les appareils vendus étaient « dotés de générateurs de clés manipulés permettant aux services d’espionnage allemands et américains de déchiffrer les messages » : c’est ce que dit une fiche des Archives fédérales du 24 juillet 1977. Le problème est que les dossiers relatifs à cette fiche ont en partie disparu…

      La police fédérale suisse a enquêté sur la base de ces accusations, mais sans résultat. Des témoins de l’époque affirment aujourd’hui que les interrogatoires menés par la police ne l’ont été que « pour la forme »...

      Toute l’affaire ne sent-elle pas un peu le réchauffé de l’époque de la guerre froide ?

      Il est vrai que les premières accusations ont été lancées au milieu des années 1970. Et que Hans Bühler, ancien employé de Crypto, a accusé ouvertement son entreprise de collaborer avec des services secrets étrangers (Hans Bühler, soupçonné d’espionnage, a passé neuf mois dans une geôle iranienne, et a publié ses accusations dans un livre paru en 1994). Mais toute la portée de l’affaire n’éclate au grand jour que maintenant, car des preuves ont été fournies par des sources de la CIA. De plus, les activités d’espionnage ont perduré jusqu’en 2018, soit bien après la fin de la guerre froide. Le BND s’en est toutefois retiré en 1993 déjà, à la suite de la réunification de l’Allemagne.

      Dans l’état actuel des connaissances, que savait le Conseil fédéral de ces activités d’espionnage ?

      C’est une question clé. On ne sait pas encore dans quelle mesure des conseillers fédéraux étaient au courant de ces activités. Les documents de la CIA impliquent l’ancien conseiller fédéral Kaspar Villiger (PLR). Aujourd’hui âgé de 79 ans, ce dernier nie vigoureusement avoir été informé des détails.

      Pourquoi est-ce si important de savoir si le Conseil fédéral était au courant des activités d’espionnage ?

      S’il devait s’avérer que le Conseil fédéral, ou certains conseillers fédéraux, connaissaient ces activités d’espionnage, des questions sérieuses se posent : le gouvernement les a-t-il tolérées ? Ou les a-t-il couvertes ? A-t-il accepté que la neutralité suisse serve de leurre ? Et si la Suisse a été complice, a fermé les yeux ou couvert les faits : comment justifier l’espionnage contre des pays belligérants lorsqu’on affiche une politique de neutralité ?

      Comment le Conseil fédéral et le Parlement réagissent-ils à l’affaire ?

      La présidente de la Confédération, Simonetta Sommaruga, a dit très tôt que le gouvernement allait réunir tous les faits et était favorable à une enquête. La ministre de la Défense Viola Amherd a confirmé que son département abrite des documents laissant penser que son prédécesseur Kaspar Villiger était au courant. Désormais, l’affaire fait l’objet d’une enquête de la Délégation des Commissions de gestion des chambres fédérales. Cet organe de contrôle entend déterminer ce que la Suisse savait de ces activités d’espionnage, et si les renseignements suisses en ont même éventuellement même.

      L’affaire des CryptoLeaks met-elle en péril le rôle actuel de la Suisse ?

      La Suisse joue un rôle d’intermédiaire dans de nombreux conflits. Elle propose même ses « bons offices » dans les régions du monde sous tension. Ainsi, elle joue actuellement le « rôle du facteur » entre les États-Unis et l’Iran. La Suisse ne peut endosser ce rôle diplomatique que si sa crédibilité d’État neutre est intacte. C’est précisément cette crédibilité qui est en jeu maintenant. Ajoutons que l’Iran a été particulièrement touché par l’espionnage permis par la technologie « swiss made » truquée et vendue par le représentant de Crypto, Hans Bühler.

      Ce sont les États-Unis et l’Allemagne qui ont espionné d’autres pays. Pourquoi la réputation de la Suisse en souffrirait-elle ?

      L’avenir dira si la perception extérieure de la Suisse a subi des dommages. Mais la perception intérieure de la Suisse est de toute façon affectée : l’image de pays neutre à laquelle tiennent tant de Suisses est endommagée. L’affaire des CryptoLeaks pourrait jeter un discrédit total sur la neutralité suisse (voir aussi le commentaire de notre invité, p. 15).

      Crédibilité, confiance, image de soi : ce sont des facteurs subjectifs. L’affaire menace-t-elle aussi des intérêts économiques tangibles ?

      La Suisse possède une branche technologique en plein essor, qui dépend aussi de l’image de marque du pays. De plus, la Suisse souhaite se vendre comme une « place numérique propre », et promeut une initiative internationale dans le domaine de l’éthique. L’affaire des #CryptoLeaks tombe très mal.

      https://www.revue.ch/fr/editions/2020/03/detail/news/detail/News/la-cia-sest-servie-dune-entreprise-suisse-pour-espionner-plus-de-100-pays

  • Monitoring being pitched to fight Covid-19 was tested on refugees

    The pandemic has given a boost to controversial data-driven initiatives to track population movements

    In Italy, social media monitoring companies have been scouring Instagram to see who’s breaking the nationwide lockdown. In Israel, the government has made plans to “sift through geolocation data” collected by the Shin Bet intelligence agency and text people who have been in contact with an infected person. And in the UK, the government has asked mobile operators to share phone users’ aggregate location data to “help to predict broadly how the virus might move”.

    These efforts are just the most visible tip of a rapidly evolving industry combining the exploitation of data from the internet and mobile phones and the increasing number of sensors embedded on Earth and in space. Data scientists are intrigued by the new possibilities for behavioural prediction that such data offers. But they are also coming to terms with the complexity of actually using these data sets, and the ethical and practical problems that lurk within them.

    In the wake of the refugee crisis of 2015, tech companies and research consortiums pushed to develop projects using new data sources to predict movements of migrants into Europe. These ranged from broad efforts to extract intelligence from public social media profiles by hand, to more complex automated manipulation of big data sets through image recognition and machine learning. Two recent efforts have just been shut down, however, and others are yet to produce operational results.

    While IT companies and some areas of the humanitarian sector have applauded new possibilities, critics cite human rights concerns, or point to limitations in what such technological solutions can actually achieve.

    In September last year Frontex, the European border security agency, published a tender for “social media analysis services concerning irregular migration trends and forecasts”. The agency was offering the winning bidder up to €400,000 for “improved risk analysis regarding future irregular migratory movements” and support of Frontex’s anti-immigration operations.

    Frontex “wants to embrace” opportunities arising from the rapid growth of social media platforms, a contracting document outlined. The border agency believes that social media interactions drastically change the way people plan their routes, and thus examining would-be migrants’ online behaviour could help it get ahead of the curve, since these interactions typically occur “well before persons reach the external borders of the EU”.

    Frontex asked bidders to develop lists of key words that could be mined from platforms like Twitter, Facebook, Instagram and YouTube. The winning company would produce a monthly report containing “predictive intelligence ... of irregular flows”.

    Early this year, however, Frontex cancelled the opportunity. It followed swiftly on from another shutdown; Frontex’s sister agency, the European Asylum Support Office (EASO), had fallen foul of the European data protection watchdog, the EDPS, for searching social media content from would-be migrants.

    The EASO had been using the data to flag “shifts in asylum and migration routes, smuggling offers and the discourse among social media community users on key issues – flights, human trafficking and asylum systems/processes”. The search covered a broad range of languages, including Arabic, Pashto, Dari, Urdu, Tigrinya, Amharic, Edo, Pidgin English, Russian, Kurmanji Kurdish, Hausa and French.

    Although the EASO’s mission, as its name suggests, is centred around support for the asylum system, its reports were widely circulated, including to organisations that attempt to limit illegal immigration – Europol, Interpol, member states and Frontex itself.

    In shutting down the EASO’s social media monitoring project, the watchdog cited numerous concerns about process, the impact on fundamental rights and the lack of a legal basis for the work.

    “This processing operation concerns a vast number of social media users,” the EDPS pointed out. Because EASO’s reports are read by border security forces, there was a significant risk that data shared by asylum seekers to help others travel safely to Europe could instead be unfairly used against them without their knowledge.

    Social media monitoring “poses high risks to individuals’ rights and freedoms,” the regulator concluded in an assessment it delivered last November. “It involves the use of personal data in a way that goes beyond their initial purpose, their initial context of publication and in ways that individuals could not reasonably anticipate. This may have a chilling effect on people’s ability and willingness to express themselves and form relationships freely.”

    EASO told the Bureau that the ban had “negative consequences” on “the ability of EU member states to adapt the preparedness, and increase the effectiveness, of their asylum systems” and also noted a “potential harmful impact on the safety of migrants and asylum seekers”.

    Frontex said that its social media analysis tender was cancelled after new European border regulations came into force, but added that it was considering modifying the tender in response to these rules.
    Coronavirus

    Drug shortages put worst-hit Covid-19 patients at risk
    European doctors running low on drugs needed to treat Covid-19 patients
    Big Tobacco criticised for ’coronavirus publicity stunt’ after donating ventilators

    The two shutdowns represented a stumbling block for efforts to track population movements via new technologies and sources of data. But the public health crisis precipitated by the Covid-19 virus has brought such efforts abruptly to wider attention. In doing so it has cast a spotlight on a complex knot of issues. What information is personal, and legally protected? How does that protection work? What do concepts like anonymisation, privacy and consent mean in an age of big data?
    The shape of things to come

    International humanitarian organisations have long been interested in whether they can use nontraditional data sources to help plan disaster responses. As they often operate in inaccessible regions with little available or accurate official data about population sizes and movements, they can benefit from using new big data sources to estimate how many people are moving where. In particular, as well as using social media, recent efforts have sought to combine insights from mobile phones – a vital possession for a refugee or disaster survivor – with images generated by “Earth observation” satellites.

    “Mobiles, satellites and social media are the holy trinity of movement prediction,” said Linnet Taylor, professor at the Tilburg Institute for Law, Technology and Society in the Netherlands, who has been studying the privacy implications of such new data sources. “It’s the shape of things to come.”

    As the devastating impact of the Syrian civil war worsened in 2015, Europe saw itself in crisis. Refugee movements dominated the headlines and while some countries, notably Germany, opened up to more arrivals than usual, others shut down. European agencies and tech companies started to team up with a new offering: a migration hotspot predictor.

    Controversially, they were importing a concept drawn from distant catastrophe zones into decision-making on what should happen within the borders of the EU.

    “Here’s the heart of the matter,” said Nathaniel Raymond, a lecturer at the Yale Jackson Institute for Global Affairs who focuses on the security implications of information communication technologies for vulnerable populations. “In ungoverned frontier cases [European data protection law] doesn’t apply. Use of these technologies might be ethically safer there, and in any case it’s the only thing that is available. When you enter governed space, data volume and ease of manipulation go up. Putting this technology to work in the EU is a total inversion.”
    “Mobiles, satellites and social media are the holy trinity of movement prediction”

    Justin Ginnetti, head of data and analysis at the Internal Displacement Monitoring Centre in Switzerland, made a similar point. His organisation monitors movements to help humanitarian groups provide food, shelter and aid to those forced from their homes, but he casts a skeptical eye on governments using the same technology in the context of migration.

    “Many governments – within the EU and elsewhere – are very interested in these technologies, for reasons that are not the same as ours,” he told the Bureau. He called such technologies “a nuclear fly swatter,” adding: “The key question is: What problem are you really trying to solve with it? For many governments, it’s not preparing to ‘better respond to inflow of people’ – it’s raising red flags, to identify those en route and prevent them from arriving.”
    Eye in the sky

    A key player in marketing this concept was the European Space Agency (ESA) – an organisation based in Paris, with a major spaceport in French Guiana. The ESA’s pitch was to combine its space assets with other people’s data. “Could you be leveraging space technology and data for the benefit of life on Earth?” a recent presentation from the organisation on “disruptive smart technologies” asked. “We’ll work together to make your idea commercially viable.”

    By 2016, technologists at the ESA had spotted an opportunity. “Europe is being confronted with the most significant influxes of migrants and refugees in its history,” a presentation for their Advanced Research in Telecommunications Systems Programme stated. “One burning issue is the lack of timely information on migration trends, flows and rates. Big data applications have been recognised as a potentially powerful tool.” It decided to assess how it could harness such data.

    The ESA reached out to various European agencies, including EASO and Frontex, to offer a stake in what it called “big data applications to boost preparedness and response to migration”. The space agency would fund initial feasibility stages, but wanted any operational work to be jointly funded.

    One such feasibility study was carried out by GMV, a privately owned tech group covering banking, defence, health, telecommunications and satellites. GMV announced in a press release in August 2017 that the study would “assess the added value of big data solutions in the migration sector, namely the reduction of safety risks for migrants, the enhancement of border controls, as well as prevention and response to security issues related with unexpected migration movements”. It would do this by integrating “multiple space assets” with other sources including mobile phones and social media.

    When contacted by the Bureau, a spokeswoman from GMV said that, contrary to the press release, “nothing in the feasibility study related to the enhancement of border controls”.

    In the same year, the technology multinational CGI teamed up with the Dutch Statistics Office to explore similar questions. They started by looking at data around asylum flows from Syria and at how satellite images and social media could indicate changes in migration patterns in Niger, a key route into Europe. Following this experiment, they approached EASO in October 2017. CGI’s presentation of the work noted that at the time EASO was looking for a social media analysis tool that could monitor Facebook groups, predict arrivals of migrants at EU borders, and determine the number of “hotspots” and migrant shelters. CGI pitched a combined project, co-funded by the ESA, to start in 2019 and expand to serve more organisations in 2020.
    The proposal was to identify “hotspot activities”, using phone data to group individuals “according to where they spend the night”

    The idea was called Migration Radar 2.0. The ESA wrote that “analysing social media data allows for better understanding of the behaviour and sentiments of crowds at a particular geographic location and a specific moment in time, which can be indicators of possible migration movements in the immediate future”. Combined with continuous monitoring from space, the result would be an “early warning system” that offered potential future movements and routes, “as well as information about the composition of people in terms of origin, age, gender”.

    Internal notes released by EASO to the Bureau show the sheer range of companies trying to get a slice of the action. The agency had considered offers of services not only from the ESA, GMV, the Dutch Statistics Office and CGI, but also from BIP, a consulting firm, the aerospace group Thales Alenia, the geoinformation specialist EGEOS and Vodafone.

    Some of the pitches were better received than others. An EASO analyst who took notes on the various proposals remarked that “most oversell a bit”. They went on: “Some claimed they could trace GSM [ie mobile networks] but then clarified they could do it for Venezuelans only, and maybe one or two countries in Africa.” Financial implications were not always clearly provided. On the other hand, the official noted, the ESA and its consortium would pay 80% of costs and “we can get collaboration on something we plan to do anyway”.

    The features on offer included automatic alerts, a social media timeline, sentiment analysis, “animated bubbles with asylum applications from countries of origin over time”, the detection and monitoring of smuggling sites, hotspot maps, change detection and border monitoring.

    The document notes a group of services available from Vodafone, for example, in the context of a proposed project to monitor asylum centres in Italy. The proposal was to identify “hotspot activities”, using phone data to group individuals either by nationality or “according to where they spend the night”, and also to test if their movements into the country from abroad could be back-tracked. A tentative estimate for the cost of a pilot project, spread over four municipalities, came to €250,000 – of which an unspecified amount was for “regulatory (privacy) issues”.

    Stumbling blocks

    Elsewhere, efforts to harness social media data for similar purposes were proving problematic. A September 2017 UN study tried to establish whether analysing social media posts, specifically on Twitter, “could provide insights into ... altered routes, or the conversations PoC [“persons of concern”] are having with service providers, including smugglers”. The hypothesis was that this could “better inform the orientation of resource allocations, and advocacy efforts” - but the study was unable to conclude either way, after failing to identify enough relevant data on Twitter.

    The ESA pressed ahead, with four feasibility studies concluding in 2018 and 2019. The Migration Radar project produced a dashboard that showcased the use of satellite imagery for automatically detecting changes in temporary settlement, as well as tools to analyse sentiment on social media. The prototype received positive reviews, its backers wrote, encouraging them to keep developing the product.

    CGI was effusive about the predictive power of its technology, which could automatically detect “groups of people, traces of trucks at unexpected places, tent camps, waste heaps and boats” while offering insight into “the sentiments of migrants at certain moments” and “information that is shared about routes and motives for taking certain routes”. Armed with this data, the company argued that it could create a service which could predict the possible outcomes of migration movements before they happened.

    The ESA’s other “big data applications” study had identified a demand among EU agencies and other potential customers for predictive analyses to ensure “preparedness” and alert systems for migration events. A package of services was proposed, using data drawn from social media and satellites.

    Both projects were slated to evolve into a second, operational phase. But this seems to have never become reality. CGI told the Bureau that “since the completion of the [Migration Radar] project, we have not carried out any extra activities in this domain”.

    The ESA told the Bureau that its studies had “confirmed the usefulness” of combining space technology and big data for monitoring migration movements. The agency added that its corporate partners were working on follow-on projects despite “internal delays”.

    EASO itself told the Bureau that it “took a decision not to get involved” in the various proposals it had received.

    Specialists found a “striking absence” of agreed upon core principles when using the new technologies

    But even as these efforts slowed, others have been pursuing similar goals. The European Commission’s Knowledge Centre on Migration and Demography has proposed a “Big Data for Migration Alliance” to address data access, security and ethics concerns. A new partnership between the ESA and GMV – “Bigmig" – aims to support “migration management and prevention” through a combination of satellite observation and machine-learning techniques (the company emphasised to the Bureau that its focus was humanitarian). And a consortium of universities and private sector partners – GMV among them – has just launched a €3 million EU-funded project, named Hummingbird, to improve predictions of migration patterns, including through analysing phone call records, satellite imagery and social media.

    At a conference in Berlin in October 2019, dozens of specialists from academia, government and the humanitarian sector debated the use of these new technologies for “forecasting human mobility in contexts of crises”. Their conclusions raised numerous red flags. They found a “striking absence” of agreed upon core principles. It was hard to balance the potential good with ethical concerns, because the most useful data tended to be more specific, leading to greater risks of misuse and even, in the worst case scenario, weaponisation of the data. Partnerships with corporations introduced transparency complications. Communication of predictive findings to decision makers, and particularly the “miscommunication of the scope and limitations associated with such findings”, was identified as a particular problem.

    The full consequences of relying on artificial intelligence and “employing large scale, automated, and combined analysis of datasets of different sources” to predict movements in a crisis could not be foreseen, the workshop report concluded. “Humanitarian and political actors who base their decisions on such analytics must therefore carefully reflect on the potential risks.”

    A fresh crisis

    Until recently, discussion of such risks remained mostly confined to scientific papers and NGO workshops. The Covid-19 pandemic has brought it crashing into the mainstream.

    Some see critical advantages to using call data records to trace movements and map the spread of the virus. “Using our mobile technology, we have the potential to build models that help to predict broadly how the virus might move,” an O2 spokesperson said in March. But others believe that it is too late for this to be useful. The UK’s chief scientific officer, Patrick Vallance, told a press conference in March that using this type of data “would have been a good idea in January”.

    Like the 2015 refugee crisis, the global emergency offers an opportunity for industry to get ahead of the curve with innovative uses of big data. At a summit in Downing Street on 11 March, Dominic Cummings asked tech firms “what [they] could bring to the table” to help the fight against Covid-19.

    Human rights advocates worry about the longer term effects of such efforts, however. “Right now, we’re seeing states around the world roll out powerful new surveillance measures and strike up hasty partnerships with tech companies,” Anna Bacciarelli, a technology researcher at Amnesty International, told the Bureau. “While states must act to protect people in this pandemic, it is vital that we ensure that invasive surveillance measures do not become normalised and permanent, beyond their emergency status.”

    More creative methods of surveillance and prediction are not necessarily answering the right question, others warn.

    “The single largest determinant of Covid-19 mortality is healthcare system capacity,” said Sean McDonald, a senior fellow at the Centre for International Governance Innovation, who studied the use of phone data in the west African Ebola outbreak of 2014-5. “But governments are focusing on the pandemic as a problem of people management rather than a problem of building response capacity. More broadly, there is nowhere near enough proof that the science or math underlying the technologies being deployed meaningfully contribute to controlling the virus at all.”

    Legally, this type of data processing raises complicated questions. While European data protection law - the GDPR - generally prohibits processing of “special categories of personal data”, including ethnicity, beliefs, sexual orientation, biometrics and health, it allows such processing in a number of instances (among them public health emergencies). In the case of refugee movement prediction, there are signs that the law is cracking at the seams.
    “There is nowhere near enough proof that the science or math underlying the technologies being deployed meaningfully contribute to controlling the virus at all.”

    Under GDPR, researchers are supposed to make “impact assessments” of how their data processing can affect fundamental rights. If they find potential for concern they should consult their national information commissioner. There is no simple way to know whether such assessments have been produced, however, or whether they were thoroughly carried out.

    Researchers engaged with crunching mobile phone data point to anonymisation and aggregation as effective tools for ensuring privacy is maintained. But the solution is not straightforward, either technically or legally.

    “If telcos are using individual call records or location data to provide intel on the whereabouts, movements or activities of migrants and refugees, they still need a legal basis to use that data for that purpose in the first place – even if the final intelligence report itself does not contain any personal data,” said Ben Hayes, director of AWO, a data rights law firm and consultancy. “The more likely it is that the people concerned may be identified or affected, the more serious this matter becomes.”

    More broadly, experts worry that, faced with the potential of big data technology to illuminate movements of groups of people, the law’s provisions on privacy begin to seem outdated.

    “We’re paying more attention now to privacy under its traditional definition,” Nathaniel Raymond said. “But privacy is not the same as group legibility.” Simply put, while issues around the sensitivity of personal data can be obvious, the combinations of seemingly unrelated data that offer insights about what small groups of people are doing can be hard to foresee, and hard to mitigate. Raymond argues that the concept of privacy as enshrined in the newly minted data protection law is anachronistic. As he puts it, “GDPR is already dead, stuffed and mounted. We’re increasing vulnerability under the colour of law.”

    https://www.thebureauinvestigates.com/stories/2020-04-28/monitoring-being-pitched-to-fight-covid-19-was-first-tested-o
    #cobaye #surveillance #réfugiés #covid-19 #coronavirus #test #smartphone #téléphones_portables #Frontex #frontières #contrôles_frontaliers #Shin_Bet #internet #big_data #droits_humains #réseaux_sociaux #intelligence_prédictive #European_Asylum_Support_Office (#EASO) #EDPS #protection_des_données #humanitaire #images_satellites #technologie #European_Space_Agency (#ESA) #GMV #CGI #Niger #Facebook #Migration_Radar_2.0 #early_warning_system #BIP #Thales_Alenia #EGEOS #complexe_militaro-industriel #Vodafone #GSM #Italie #twitter #détection #routes_migratoires #systèmes_d'alerte #satellites #Knowledge_Centre_on_Migration_and_Demography #Big_Data for_Migration_Alliance #Bigmig #machine-learning #Hummingbird #weaponisation_of_the_data #IA #intelligence_artificielle #données_personnelles

    ping @etraces @isskein @karine4 @reka

    signalé ici par @sinehebdo :
    https://seenthis.net/messages/849167

  • Que penser du protocole de traçage des GAFAM ?
    https://www.laquadrature.net/2020/04/29/que-penser-du-protocole-de-tracage-des-gafam

    .spacemargin-bottom : 1em ; Tribune de Guinness, doctorante en informatique et membre de La Quadrature du Net À l’heure où toutes les puissances de la planète se mettent à réfléchir à des solutions de traçage de contact (contact tracing),…

    #Données_personnelles #Surveillance

  • Déconfinement : « Il faut considérer les données de santé comme un bien commun »
    https://www.lemonde.fr/idees/article/2020/04/24/deconfinement-il-faut-considerer-les-donnees-de-sante-comme-un-bien-commun_6

    Cette méfiance s’explique pour deux raisons. La première est que la notion de bien public a perdu de son sens. Le bien public n’est plus perçu comme appartenant au citoyen parce qu’utile pour les citoyens, mais comme celui qui est produit par l’Etat parce qu’il ne peut pas être produit par le marché. Autrement dit, on réduit l’intérêt du bien public à un intérêt économique.
    Comment conjuguer intérêt particulier et intérêt collectif ?

    Or, en réduisant le bien public à une utilité standard économique, on permet aux Gafam de proposer des contreparties bien plus intéressantes et immédiates pour les individus. La seconde raison est que l’individu estime que le croisement des données de santé est plus dangereux s’il est fait par un Etat que par les Gafam. Or, s’il est vrai que l’utilisation des données personnelles par l’Etat (pour accorder des droits d’accès au soin, de circulation, etc.) peut être perçue comme une atteinte aux libertés individuelles, le risque réel est pourtant équivalent avec les Gafam : le scandale Cambridge Analytica en est l’exemple le plus éloquent.

    Mais il reste que les individus préfèrent confier des données de santé aux Gafam, car la contrepartie immédiate est plus satisfaisante (usage d’une application, optimisation du paramétrage d’une application…). De plus, le risque s’avère bien moins visible (influence sur les scrutins électoraux), voire indolore (envoi de publicité, tarification en fonction des préférences)

    Restaurer un lien démocratique avec les citoyens

    Nous pensons qu’il faut sortir les données de santé de la logique de marché et les considérer comme un bien mis en commun ; certes comme une propriété privée, mais dont les individus donnent usage pour le bien-être collectif. Il est impératif de restaurer un lien démocratique avec les citoyens. Il y a un effort d’acculturation et de pédagogie à faire pour passer de la représentation d’une « donnée pour l’Etat » à celle d’une « donnée pour le collectif ».

    L’Etat ne jouerait qu’un rôle de coordonnateur, qui agrégerait les données de santé pour constituer ce bien commun qu’il mettrait au service de la communauté. Il n’aurait aucun droit de propriété, mais un droit d’usage. Enfin, il faut repenser la gouvernance des données à l’échelle nationale. Il n’est plus possible que les Gafam constituent des silos avec les données personnelles en excluant du bien commun l’Etat et les citoyens, considérés seulement comme des consommateurs.

    Toutes les données publiques et privées sont interdépendantes. Le bien commun ne peut être constitué que par des données privées et personnelles, mais elles doivent faire l’objet de traitements qui ont la confiance des citoyens et déboucher sur la réalisation de biens publics.

    #StopCovid #Données_médicales #Biens_communs #Biens_publics

  • Un masque à Nice contre tes #données_personnelles
    https://masques.ville-nice.fr/Masques

    #nice


    Le 16 mars 2020 le maire de Nice C. #Estrosi annonce qu’il a été testé positif. Certains peuvent se passer de masques pour aller en EHPAD et ont le privilège de passer des tests. Les autres, vous aurez droit à un masque si vous acceptez de remplir le questionnaire.
    https://www.nicematin.com/sante/le-maire-de-nice-christian-estrosi-teste-positif-au-coronavirus-481787

  • Contenir la pandémie sans confinement ? COVID 2 - YouTube
    https://www.youtube.com/watch?v=e3WXfTOw7xY

    Dans cette vidéo, on explore les différentes options pour réduire le taux de reproduction effectif Rt. En dehors d’un confinement généralisé, il semble indispensable d’exploiter des solutions comme le contact tracing électronique. Cependant, celui-ci ne sera efficace que si une large proportion de la population l’utilise (l’effet est quadratique). Sa promotion massive semble donc critique.

    NB : Après la mise en ligne de cette vidéo, j’ai découvert ces deux autres publications qui estiment elles aussi que la fraction des contaminations pré-symptomatiques semblent ~50%. Voilà qui confirme l’importance du contact tracing pour réduire le taux de reproduction effectif.
    https://www.medrxiv.org/content/10.1101/2020.03.05.20031815v1
    https://wellcomeopenresearch.org/articles/5-58

    Lancez vos simulations épidémiologiques à la 3Blue1Brown :
    https://prajwalsouza.github.io/Experiments/Epidemic-Simulation.html

    #COVID19 #coronavirus #simulations

    • Je vais essayer d’être diplomate (même si c’est pas gagné) car je comprends qu’avec l’inquiétude actuelle et l’impuissance dans laquelle nous sommes isolés, certaines personnes soient tentées de trouver dans le contact tracing une solution à étudier attentivement.
      Se consacrer à cela n’est-il pas un moyen efficace de se détourner de la réalité de la maladie et de ses effets de bord sociaux et politiques déjà à l’œuvre ?
      Pouvons nous essayé de prendre un peu de distance au lieu de rêver à un miracle technologique (que certain·es nomment le #bluff_technologique) pour analyser factuellement les proratas médicaux (tests/masques/soins hospitaliers), puis si il le faut vraiment creuser l’application du contact tracing d’un point de vue uniquement technique (comment marche le bluetooth et avec qui).
      Faire cela avant même d’activement se remémorer l’histoire de la mise en place exponentielle des moyens de surveillance globale de la population appuyés sur la peur et la précipitation depuis 25 ans ? avant même de penser qu’un tel basculement ne peut nous mener qu’à la mise en danger de la démocratie ?

      https://seenthis.net/messages/844226

    • De toute manière, sur une bonne partie de la population, ça ne marchera pas plus qu’un numéro vert pour un problème de société.

      1⃣ Il faut des téléphoner compatibles (et beaucoup de gens préfèrent des téléphones qui ne font qui téléphoner).
      2⃣ Il faut savoir les utiliser → on est toujours pas certains d’avoir réussi à expliquer à ma belle-mère comment avoir une téléconsultation avec sa psy.
      3⃣ ceux qui réunissent les 2 premières conditions sont les + susceptibles de savoir aussi contourner le dispositif au besoin.

      Donc, on arrête de perdre du temps sur des doudous stupides et on doit juste repenser toute l’organisation sociale…

    • C’est le problème rencontré en sécurité informatique où sur l’usage d’outils que nous pensons basiques, le dysfonctionnement est d’abord entre la chaise et l’écran.

      Un exemple aussi d’une grand-maman bien connue de mes services bisoux virtuels à qui j’ai envoyé un lien à cliquer pour pouvoir échanger par visio sur jitsi. Une heure au téléphone pour lui demander de cliquer sur le lien qu’elle avait reçu sur sa tablette (oui, la famille lui a offert une tablette second prix l’année dernière pour qu’elle reçoive de leurs nouvelles). Elle a abandonné, on devait se voir depuis Noël, on repoussait notre venue, voila, on ne se verra pas, même pas en visio.

      Cette dame de 83 ans sait toutefois se servir des textos, au grand dam de ses petits enfants qui reçoivent des SMS de trois mots quand ils se sont fendus d’un long texte bien écrit en beau français :)

    • D’autres points à considérer :

      – les outils technologiques de surveillance de masse existent déjà, qu’on le veuille ou non ; si les services de renseignement veulent tracer où tu as été et qui tu as fréquenté, c’est déjà faisable, et sans doute déjà fait dans de nombreux pays, comme l’a montré Snowden ;

      – Facebook, c’est 37 millions d’utilisateurs actifs chaque mois en France. Prétendre que les gens ne sont pas équipés, ne savent faire, ou qu’ils ne veulent pas se faire fliquer, c’est une vue de l’esprit ; il y a de nombreuses difficultés avec les logiciels « privacy first », mais l’aspect diffusion/acceptabilité ne me semble pas le plus complexe ;

      – une question qui se pose de manière extrêmement urgente, c’est de savoir si les États vont utiliser cet épisode pour officialiser les outils les plus intrusifs et répressifs, où si l’on peut refuser l’officialisation des outils tels qu’ils sont ouvertement utilisés dans l’autres pays, et pousser pour aller vers les outils conçus par des spécialistes du « privacy-first » plutôt que par Palantir et avec une absence à peu près totale de contrôle démocratiqu ;

      Dit autrement : les outils de surveillance de masse existent déjà, mais leur valeur répressive est relativement limitée, parce que leur utilisation n’est pas officielle (c’est du domaine du renseignement, qui est certes très problématique, mais qui est plus ou moins limité). Si on officialise ces outils dans le cadre de l’épidémie, on change d’échelle, et leur valeur répressive restera, parce qu’on aura accepté ça cette fois. Une fois qu’on aura officialisé l’idée qu’un outil à la Palantir est utile en étant accessible aux flics « de terrain » et peut être utilisé dans une procédure juridique (démontrer que tu n’as pas respecté le confinement plusieurs fois de suite), ça restera si on invoque le terrorisme, les black blocks, les néonazis, les violeurs pédophiles ou je ne sais quoi. L’alternative envisagée, c’est donc de proposer l’utilisation d’outils conçus pour ne pas pouvoir être utilisés de manière répressive (parce que sans moyens d’identification) mais qui rempliront le même but (limiter la propagation de l’épidémie), retirant ainsi la « justification » de l’utilisation de moyens intrusifs.

      – le grand risque, c’est que le déconfinement soit suivi, moins d’un mois après, par une hausse brutale des contaminations et l’imposition dans l’urgence d’un second confinement ; s’il y a échec du déconfinement (et ça nous semble à tous très probable), la question des libertés publiques deviendra tellement accessoire qu’on va pleurer. Si l’État se retrouve avec un second confinement et absolument tout le monde qui exige de lui de trouver immédiatement une solution (Saint Raoult priez pour nous), je n’ai rigoureusement aucune doute, mais alors aucun, que les méthodes instaurées seront d’une violence que l’on pense aujourd’hui impossible. Croire qu’on échappera alors à Palantir et à la surveillance électronique renforcée (tout ça sera de toute façon réclamé par la population), ça me semble dangereusement naïf. On prendra le logiciel et les méthodes de flicage sud-coréens, au mieux, et on les appliquera à la Lallement, et ce ne sera plus du tout discutable.

      – dans l’immédiat, on n’a pas le droit de sortir de chez nous, si on le fait c’est avec la crainte de tomber sur des flics, on n’a pas le droit de se rencontrer, on n’a pas le droit de manifester, on n’a pas le droit d’aller voter, l’effondrement économique a aussi pour conséquence qu’on a de moins en moins la possibilité de subvenir aux besoins de sa famille (je ne suis pas pour le « tout économique », mais tout de même), ce sont les plus faibles socialement et physiquement qui en prennent plein la gueule les premiers, etc. On n’est pas dans une situation où il y aurait des choix parfaits, et où l’on peut considèrer des absolus quant à nos libertés. Parce que pour l’instant et pour une période dangereusement longue, notre libertés fondamentales sont déjà abolies (aller et venir, rassemblement, démocratie, éducation…).

      – l’autre grosse alternative, et c’est certainement la solution qui se met en place sans le dire explicitement, c’est l’immunité de groupe (malgré les doutes sur l’immunité). Le confinement ne sert dans cette optique qu’à atteindre un niveau d’acceptabilité, dans nos démocraties, au fait qu’on va laisser crever une partie de notre population. Le coût d’un second confinement serait tellement intolérable que la population acceptera ce choix, initialement indéfendable. Depuis une semaine, on a d’ailleurs en France toute une littérature qui fleurit allant dans ce sens.

      Du coup, dans cette logique (et dans un sens donc contraire aux considérations précédentes), on peut suspecter que l’annonce du logiciel soit, justement, une sorte de gri-gri destiné à calmer l’opinion et justifier le déconfinement, et pouvoir dire, s’il y a trop de morts, que vous voyez bien, on avait tout mis en place, mais les gens n’ont pas voulu utiliser l’outil qu’on leur avait proposé. (Donc c’est la faute aux gens.)

    • Tout comme Arno, je pense que la plupart des gens vont installer l’appli sans sourciller, tout comme ils utilisent Facebook et tous les services de Google... Il n’y a qu’à voir aussi comment en ce moment tout le monde se rue sur Zoom malgré tous les articles et avertissements qu’on peut lire partout, alors que des alternatives tout aussi pratiques (voire mieux) et open-source existent, comme jitsi. La question est donc d’exiger une appli qui ne fera que du tracking anonyme et rien d’autre. J’y crois moyen et en même temps j’ai une petite lueur d’espoir depuis que j’ai vu que le code de leur formulaire d’attestation dérogatoire était publié sur Github (même si on peut toujours penser que le code effectivement mis en œuvre n’est pas tout à fait celui qui nous est présenté).

    • – les outils technologiques de surveillance de masse existent déjà, qu’on le veuille ou non ; si les services de renseignement veulent tracer où tu as été et qui tu as fréquenté, c’est déjà faisable, et sans doute déjà fait dans de nombreux pays, comme l’a montré Snowden ;

      Tu fais des suppositions non démontrées et en avançant ainsi tu considères que personne n’y peut rien et tu invites à renoncer à dénoncer les différents procédés de surveillance et de suivi. L’argument du on le sait déjà n’est pas recevable, parce qu’il tient du fantasme paranoïaque, ça ne veut pas dire que c’est faux, mais qu’il y a certaines formes de surveillance. Heureusement qu’il existe encore des moyens d’y échapper.

      – Facebook, c’est 37 millions d’utilisateurs actifs chaque mois en France. Prétendre que les gens ne sont pas équipés, ne savent faire, ou qu’ils ne veulent pas se faire fliquer, c’est une vue de l’esprit ; il y a de nombreuses difficultés avec les logiciels « privacy first », mais l’aspect diffusion/acceptabilité ne me semble pas le plus complexe ;

      Merci de citer tes sources. 37 millions de comptes actifs, ce n’est pas 37 millions de personnes. Ce n’est pas une vue de l’esprit de se rendre compte que les personnes les plus exposées sont des personnes qui ne sont pas équipées en smartphone. On ne parle pas d’un ordinateur à la maison.

      – une question qui se pose de manière extrêmement urgente, c’est de savoir si les États vont utiliser cet épisode pour officialiser les outils les plus intrusifs et répressifs, où si l’on peut refuser l’officialisation des outils tels qu’ils sont ouvertement utilisés dans l’autres pays, et pousser pour aller vers les outils conçus par des spécialistes du « privacy-first » plutôt que par Palantir et avec une absence à peu près totale de contrôle démocratique ;

      Il y a urgence de masques et de tests, de lits d’hopitaux mais certainement pas urgence de la mise en place d’une surveillance sociale de masse électronique telle qu’elle voudrait s’imposer actuellement. N’oublions pas le contexte politique, voir la différence de gestion sanitaire en Allemagne et en France, on parle bien d’un but sanitaire et tout concoure à montrer le contraire. Je continue de dire que nous nous épuisons dans un débat technologique qui ne devrait pas avoir lieu et qui est une façon de nous détourner des réalités catastrophiques.

      Je peux malheureusement répondre oui à la première question, parce que cela se vérifie à chaque crise depuis 25 ans, les libertés se réduisent aux profits d’un Etat sécuritaire, toute occasion est bonne et les tenants de la surveillance électronique, du croisement de fichiers et du traçage sont des lobbyistes très actifs, de type Babinet (video youtube du 1er avril), qui n’ont aucune limite ni scrupule politique à t’exposer que les mails sont une source à prendre en compte dans le dossier médical multidatas qu’ils promeuvent et qui rêvent de fermer la CNIL déjà réduite à rien. Concernant Palentir, c’est une boite américaine qui analyse pour la DGSE et autres services secrets français les résultats des données collectées en france. Ça me laisse toujours pontoise de réaliser que les français sont carrement naïfs ou que nous sommes simplement toujours dans les mains des mêmes industriels du complexe militaro industriel depuis 1941 qui font croire à une guerre économique entre pays alors qu’elle est entre classes dominantes et les 99% qui subissent leurs incompétences délirantes et leurs fantasmes de contrôle total. Mais oui, je pense que ce sera Palantir et Consorts et même pire.

      Pour revenir à la croyance en des alternatives de traçage, à partir du moment où les principes démocratiques sont baffoués parce qu’il y aura violation de la vie privé via une technique de suivi personnalisé (sous des prétextes fallacieux car je répète que l’efficience sanitaire du traçage est loin d’être prouvée), qu’elle soit anonyme ou pas ne change rien (il n’y a pas d’anonymat dans du traçage), ni de garanti par un encadrement de la CNIL qui a appris à aplatir ses prérogatives chaque fois qu’un échelon supplémentaire est franchi.

      Je vois plutôt se profiler une surveillance de multiples sources justifiée par une meilleure efficience et surtout pour notre bien sanitaire. FB+internet+conversations filtrées+Géolocalisation+traçage+biométrie+rfid+ saupoudrage d’un peu d’alternatifs pour faire plaisir aux geeks qui rêvent d’un monde libre informatisé et faire croire que tout est sous contrôle démocratique.

      Nos avis démocratiques ne pèseront pas grand chose face aux milliards de $ que pèsent les données de santé et de profilage, surtout pour sauver des vies dont ils se foutent totalement. Ce qui m’intéresse à regarder actuellement c’est la méthode de persuasion qui va être utilisée. Ça suit son cours et la diversion fonctionne à merveille …

      Dit autrement : les outils de surveillance de masse existent déjà, mais leur valeur répressive est relativement limitée, parce que leur utilisation n’est pas officielle (c’est du domaine du renseignement, qui est certes très problématique, mais qui est plus ou moins limité). Si on officialise ces outils dans le cadre de l’épidémie, on change d’échelle, et leur valeur répressive restera, parce qu’on aura accepté ça cette fois. Une fois qu’on aura officialisé l’idée qu’un outil à la Palantir est utile en étant accessible aux flics « de terrain » et peut être utilisé dans une procédure juridique (démontrer que tu n’as pas respecté le confinement plusieurs fois de suite), ça restera si on invoque le terrorisme, les black blocks, les néonazis, les violeurs pédophiles ou je ne sais quoi. L’alternative envisagée, c’est donc de proposer l’utilisation d’outils conçus pour ne pas pouvoir être utilisés de manière répressive (parce que sans moyens d’identification) mais qui rempliront le même but (limiter la propagation de l’épidémie), retirant ainsi la « justification » de l’utilisation de moyens intrusifs.

      Prends juste l’exemple de Tarnac, avec Coupat qui est soupçonné parce qu’il n’a pas de téléphone portable, la répression est déjà là et n’a pas besoin de notre accord pour se déployer. La technique le permet, la répression suit, l’accompagne. Ce n’est pas de quelle manière cela va se déployer, ni si il y a anonymat ni si les intentions sont louables, mais si nous savons faire bloc contre cette hallucination collective pro technosurveillance. Je préfère me battre contre toutes les prisons car il n’y a pas de prison alternative.

      – le grand risque, c’est que le déconfinement soit suivi, moins d’un mois après, par une hausse brutale des contaminations et l’imposition dans l’urgence d’un second confinement ; s’il y a échec du déconfinement (et ça nous semble à tous très probable), la question des libertés publiques deviendra tellement accessoire qu’on va pleurer. Si l’État se retrouve avec un second confinement et absolument tout le monde qui exige de lui de trouver immédiatement une solution (Saint Raoult priez pour nous), je n’ai rigoureusement aucune doute, mais alors aucun, que les méthodes instaurées seront d’une violence que l’on pense aujourd’hui impossible. Croire qu’on échappera alors à Palantir et à la surveillance électronique renforcée (tout ça sera de toute façon réclamé par la population), ça me semble dangereusement naïf. On prendra le logiciel et les méthodes de flicage sud-coréens, au mieux, et on les appliquera à la Lallement, et ce ne sera plus du tout discutable.

      Depuis le début du covid le gvt nous mène en bateau, je n’ai aucun doute qu’on arrivera à palentir par un chemin ou un autre et en plus avec l’assentiment de la population et le chemin le plus court trouvé pour le moment c’est de laisser travailler les « alternatifs » dessus, histoire que la gauche technophile se foute bien sur la gueule.

      – dans l’immédiat, on n’a pas le droit de sortir de chez nous, si on le fait c’est avec la crainte de tomber sur des flics, on n’a pas le droit de se rencontrer, on n’a pas le droit de manifester, on n’a pas le droit d’aller voter, l’effondrement économique a aussi pour conséquence qu’on a de moins en moins la possibilité de subvenir aux besoins de sa famille (je ne suis pas pour le « tout économique », mais tout de même), ce sont les plus faibles socialement et physiquement qui en prennent plein la gueule les premiers, etc. On n’est pas dans une situation où il y aurait des choix parfaits, et où l’on peut considèrer des absolus quant à nos libertés. Parce que pour l’instant et pour une période dangereusement longue, notre libertés fondamentales sont déjà abolies (aller et venir, rassemblement, démocratie, éducation…).

      C’est assez bien vendu en effet mais je n’achète pas.

      – l’autre grosse alternative, et c’est certainement la solution qui se met en place sans le dire explicitement, c’est l’immunité de groupe (malgré les doutes sur l’immunité). Le confinement ne sert dans cette optique qu’à atteindre un niveau d’acceptabilité, dans nos démocraties, au fait qu’on va laisser crever une partie de notre population. Le coût d’un second confinement serait tellement intolérable que la population acceptera ce choix, initialement indéfendable. Depuis une semaine, on a d’ailleurs en France toute une littérature qui fleurit allant dans ce sens.

      Disons que laisser mourir des personnes et même les euthanasier sans leur accord ni celui de leurs familles sous prétexte qu’ils auraient peut-être le covid et qu’il n’y a pas assez de lits en réanimation c’est aujourd’hui et maintenant en france. Ça me suffit pour voir que ce gouvernement n’en a absolument rien à foutre de sa population et que s’il faut s’allier aux pires des américains pour réaliser le grand panoptique de surveillance cette crise servira comme excellent prétexte et au lieu de tests et de masques et de lits d’hopitaux, tout le monde demandera des drones et du traçage et de la répression bien entendu.

      Du coup, dans cette logique (et dans un sens donc contraire aux considérations précédentes), on peut suspecter que l’annonce du logiciel soit, justement, une sorte de gri-gri destiné à calmer l’opinion et justifier le déconfinement, et pouvoir dire, s’il y a trop de morts, que vous voyez bien, on avait tout mis en place, mais les gens n’ont pas voulu utiliser l’outil qu’on leur avait proposé. (Donc c’est la faute aux gens.)

      Oui, parfaitement d’accord, c’est la méthode de persuasion qui sera probablement utilisée, le #bluff_technologique, one more time.

    • Pour poursuivre mes propos, voila comment avec #stopcovid les bonimenteurs du traçage numérique des #données_personnelles sensibles commes les #données_de_santé peuvent enfin placer leurs discours : ici le babinet national, qui refuse de dire pour quelles entreprises il travaille (YT V4yf3HOEHPk) mais dispose de sa place en tant que #digital-champion (sic) français (groupe des conseillers au numérique européen). Souvenez-vous, c’est lui qui voulait fermer la CNIL et sert ici de conseil au smartank de l’#institut_Montaigne (Bébéar), ne vous méprenez pas sur le style alternatif cool sympa qu’il se donne, ce qu’il propose est bien une #société_de_contrôle totalitaire avec profilage médical de chacun·e basé sur l’aspiration de données provenant de sources diverses comme les données d’alimentation ou la lecture des emails …
      extrait de la vidéo

      1er avril 2020
      https://www.youtube.com/watch?v=Rxt-8Z1dQHg?t=471

      Comment ça, vous ne saviez pas à quoi vous attendre avec la république numérique de Macron ?

      #future-of-innovation-in-europe
      Friday, 20 March
      https://www.iiea.com/event/france-and-the-future-of-innovation-in-europe

      In his address to the IIEA, Gilles Babinet will offer his perspective on the future of innovation in Europe and discuss the French Government’s work on innovation and startups (Visa Tech, Next40). He will comment on the implications of europeanisation as French efforts increasingly focus on French champions. Gilles Babinet will also discuss issues such as 5G, connected objects, the need for an overarching ecosystem and how to prepare for it.

      #babinet

  • StopCovid : le double risque de la “signose” et du “glissement”
    https://medium.com/@hubertguillaud/stopcovid-le-double-risque-de-la-signose-et-du-glissement-b1e2205bff5a

    Le risque face à une absence de masques et de tests qui est là pour durer est que cette brique logicielle devienne un peu le seul outil à notre disposition pour “déconfiner”. Que StopCovid, de “brique incertaine” devienne le seul outil prêt à être utilisé, tout comme aujourd’hui l’attestation dérogatoire de déplacement est devenue le seul outil de maîtrise du confinement qu’on renforce d’arrêtés municipaux ou nationaux (quand ce n’est pas d’appréciations liberticides des agents) sans réelle motivation sanitaire (comme l’interdiction de courir ou de faire du vélo ou la fermeture des parcs ou pire encore des marchés : alors qu’on peut organiser des marchés voir des commerces non essentiels comme des accès aux espaces verts avec des règles de distanciations sociales). Et donc que tout le monde souhaite le renforcer : en le rendant peut-être obligatoire et pire peut-être en le rendant accessible au contrôle policier ! Et dans l’urgence et le dénuement, pour sortir d’une crise qui se révèle chaque jour plus dramatique, nul doute que nombreux seront prêt à s’y précipiter !

    Le problème principal de StopCovid, c’est de ne reposer sur aucune science ! La seule étude disponible sur le sujet dans Science estime que ce type d’application doit accueillir 60% de la population pour être efficace et être associée à une politique de dépistage — dont nous ne disposons pas !

    À Singapour, l’application TraceTogether, qui rassemblait 15% de a population, pourtant couplée au dépistage n’a pas suffi, comme le rappelle Olivier Tesquet pour Télérama ou Margot Clément depuis Hong Kong pour Mediapart : c’est certainement le signe (pas assez fort pourtant) que ce n’est pas une solution.

    Le problème de StopCovid comme d’autres solutions de backtracking proposées, c’est de transformer une notion de proximité en alerte. Or, être à proximité d’un malade ne signifie pas le devenir automatiquement ! La médecine a besoin de suivre et confiner les malades, ceux qu’ils contaminent et ceux qui les ont contaminés. Mais cela ne peut pas se faire sur la base de conjoncture, de corrélation, d’approximation, de proximité et de localisation.

    Très souvent, le coeur des problèmes des systèmes réside dans les données utilisées et dans les décisions très concrètes qui sont prises pour décider ! Ici, tout le problème de cette proximité réside dans sa définition, sa qualification. Comment est définie la proximité par l’application ? Quelle durée ? Quelle distance ? Quelles conditions ? Quel contexte est pris en compte ? Et pour chacun de ces critères avec quelle précision et quelle fiabilité ?

    Le risque bien sûr, vous l’aurez compris, est que StopCovid produise énormément de “faux positifs” : c’est-à-dire des signalements anxiogènes et non motivés ! Dont il ne nous présentera aucun contexte : on ne saura pas ni qui, ni quand nous avons été à proximité d’un malade, donc incapable d’apprécier la situation, de lui rendre son contexte pour l’apprécier. Nous serons renvoyés à l’injonction du signal ! Sans être capable de prendre une décision informée (dois-je me confiner ? me faire tester — pour autant que ce soit possible !?).

    Ce que j’appelle “le glissement”, c’est le changement de finalité et l’évolution des autorisations d’accès. C’est le moteur de l’innovation technologique (une manière de pivoter dirait-on dans le monde entrepreneurial, c’est-à-dire de changer la finalité d’un produit et de le vendre pour d’autres clients que son marché originel). Mais le glissement est aussi le moteur de la surveillance, qui consiste bien souvent à transformer des fonctions simples en fonctions de surveillance : comme quand accéder à vos outils de télétravail permet de vous surveiller. Le risque du glissement consiste à faire évoluer dans l’urgence les finalités de l’application StopCovid, qu’elles soient logicielles ou d’usages. C’est ce dont s’inquiète (.pdf) très justement le comité consultatif national d’éthique en prévenant du risque de l’utilisation de l’application pour du contrôle policier ou du contrôle par l’employeur. Même inquiétude pour La Quadrature du Net et l’Observatoire des libertés numériques : le risque c’est qu’une “telle application finisse par être imposée pour continuer de travailler ou pour accéder à certains lieux publics”.

    Le risque le plus évident bien sûr est que votre employeur demande à voir votre application sur votre smartphone chaque matin ! Les commerçants, les bars, les policiers, les voisins… Que StopCovid devienne le “certificat d’immunité”, qu’évoquait dans son plan de déconfinement — tout à fait scandaleusement il me semble — la maire de Paris, Anne Hidalgo (sans compter qu’elle l’évoque comme un moyen de contrôle par l’employeur qu’elle représente, la Ville de Paris !). Le “glissement” le plus insidieux c’est que StopCovid devienne une application non pas obligatoire, mais injonctive. Que la santé de chacun soit à la vue de tous : employeurs, voisins, police ! Que nous devenions tous des auxiliaires de police plutôt que des auxiliaires de santé !

    L’application — pourtant “privacy by design” — n’est pas encore déployée que déjà on nous prépare aux glissements, autoritaires ou contraints ! Le risque bien sûr est de passer d’un contrôle des attestations à un contrôle de l’application ! Un élargissement continu de la pratique du contrôle par la police qui a tendance à élargir les dérives… Ou, pour le dire avec la force d’Alain Damasio : “faire de la médecine un travail de police”.

    Le risque enfin c’est bien sûr de faire évoluer l’application par décrets et modification successive du code… pour finir par lui faire afficher qui a contaminé qui et quand, qui serait le meilleur moyen d’enterrer définitivement nos libertés publiques !

    Le risque, finalement est de continuer à croire que l’analyse de mauvaises données fera pour moins cher ce que seule la science peut faire : mais avec du temps et de l’argent. Le risque, c’est de croire, comme d’habitude que le numérique permet de faire la même chose pour moins cher, d’être un soin palliatif de la médecine. On sait où cette politique de baisse des coûts nous a menés en matière de masques, de lits et de tests. Doit-on encore continuer ?

    Le risque c’est de croire qu’une application peut faire le travail d’un médecin, d’un humain : diagnostiquer, traiter, enquêter, apaiser… Soigner et prendre soin. Le risque c’est de rendre disponible des informations de santé de quelque nature qu’elles soient en dehors du circuit de santé et de soin !

    Ce que nous devons garantir en tant que société : c’est que les informations de santé demeurent des informations de santé. Que l’état de chacun face au Covid n’a pas à être communiqué : ni aux entreprises, ni à la police, ni aux employeurs, ni aux voisins ! La santé doit rester à la médecine et la médecine ne doit pas devenir la police. Devant un homme malade, on ne doit pas mettre une application, mais bien un soignant.

    #Coronavirus #Stop-covid #Libertyés_publiques #Données_médicales

  • Des analyses de Swisscom soutiennent la lutte contre le coronavirus

    L’#Office_fédéral_de_la_santé_publique (#OFSP) a demandé à Swisscom des analyses pour vérifier si les mesures de protection contre l’infection du #coronavirus sont respectées. Les analyses comprennent des données relatives à la #mobilité et aux #rassemblements de personnes dans l’#espace_public. Les évaluations montrent que la population suisse a fortement réduit ses #déplacements. L’OFSP ne reçoit à aucun moment des #données_géographiques de Swisscom, mais seulement des #statistiques et des #visualisations. Les données qui sous-tendent les analyses et les visualisations sont anonymisées et agrégées. Aucun lien avec des personnes spécifiques ne peut être établi.

    Le 21 mars, le Conseil fédéral a interdit les rassemblements de plus de cinq personnes dans l’espace public (art. 7c, al. 1, Ordonnance 2 COVID-19). Les autorités souhaitent maintenant avoir des preuves pour savoir si ces mesures de protection de la population sont respectées ou non. L’Office fédéral de la santé publique (OFSP) reçoit des analyses sur la mobilité et sur les rassemblements dans l’espace public qui se basent sur la plateforme Mobility Insights de Swisscom. La plateforme et les analyses correspondantes ont déjà été utilisées dans le contexte de la Smart City, comme p. ex. à Montreux ou à Pully.

    Les premières évaluations montrent que les habitants font beaucoup moins de déplacements depuis la première interdiction de rassemblements de plus de cinq personnes. En effet, les déplacements, en termes de kilomètres parcourus, ont diminué d’environ 50% dans toute la Suisse par rapport à un mois antérieur typique. Il faut toutefois souligner que la population du Tessin a réduit ses trajets de la manière la plus prononcée.
    Anonymisation complète et agrégation des données

    Pour localiser les rassemblements de personnes, la plateforme Mobility Insight (en conformité avec l’art. 45b, loi sur les télécommunications) affiche les zones où se trouvent au moins 20 cartes SIM par surface de 100 mètres par 100 mètres. Les analyses se basent sur des données géographiques approximatives sur les 24 heures passées.

    Pour indiquer comment les déplacements de la population ont évolué, la plateforme affiche la mobilité approximative des cartes SIM Swisscom d’une zone (p. ex. d’un canton) au cours d’une période de temps donnée. Les informations qui sont obtenues par des moyens techniques dans le réseau mobile sont anonymisées automatiquement aussitôt après leur création puis regroupées sous forme agrégée en vue des analyses.
    L’OFSP ne reçoit pas de données géographiques, mais seulement des visualisations

    L’OFSP ne reçoit à aucun moment des données géographiques, mais seulement des statistiques et des visualisations que Swisscom peut calculer à partir de ces données. Les analyses/visualisations sont entièrement anonymisées et agrégées, donc uniquement visibles sous forme d’une valeur de groupe. Ainsi, aucun lien ne peut être établi avec des personnes spécifiques ou des profils de déplacement individuels. Les directives de la loi fédérale sur la protection des données et les principes éthiques que suit Swisscom pour le traitement des données sont entièrement respectés. Dès que l’ordonnance 2 COVID-19 ne sera plus applicable, aucune analyse ne sera plus mise à la disposition de l’OFSP.

    Les clients ont le contrôle de leurs données en tout temps

    Les clients peuvent définir eux-mêmes pour quels produits et prestations Smart Data Swisscom est autorisée à utiliser leurs données, sous une forme anonymisée et agrégée, autrement dit très concise (#opt-out). Un opt-out peut être demandé dans le domaine « #Protection_des_données », sous Mon profil, dans l’Espace clients. Les données ne sont donc pas utilisées pour d’autres analyses.

    https://www.swisscom.ch/fr/about/news/2020/03/27-swisscom-coronavirus.html

    #Orange en #France... #Swisscom en #Suisse...

    #données #téléphone #smartphone #surveillance #anonymat #agrégation #anonymisation #données_agrégées

    ping @etraces

  • Where America Didn’t Stay Home Even as the Virus Spread - The New York Times
    https://www.nytimes.com/interactive/2020/04/02/us/coronavirus-social-distancing.html

    In areas where public officials have resisted or delayed stay-at-home orders, people changed their habits far less. Though travel distances in those places have fallen drastically, last week they were still typically more than three times those in areas that had imposed lockdown orders, the analysis shows.

    #cartographie #données_téléphoniques (agrégées !)

  • Communication on COVID-19 to community – measures to prevent a second wave of epidemic

    The manuscript highlights available data on gap in public awareness about recent clinical and scientific facts about COVID-19, insufficient community knowledge about symptoms and preventive measures during COVID-19 and previous MERS-CoV epidemic, and lack of monitoring the community perception and adherence to preventive measures. We also summarize literature evidence about reluctance to change social behavior and disregard recommendations for social distancing among persons who percept to having low risk of infection or complications, and briefly describe destructive psychological response and misleading communications.
    Our analysis could be translated into important policy changes in two directions:
    (1) to communicate recent scientific discoveries about COVID-19 pathophysiology to better prepare public opinion to longer period of extraordinary measures;
    (2) to implement sociological feedback on knowledge, attitudes and practices among general public and some vulnerable social groups.

    https://osf.io/preprints/socarxiv/ea9jm

    Reçu via la mailing-list Facs et Labos en lutte (comme quoi), avec ce commentaire, le 27.03.2020 :

    Je signale un article cosigné avec mon frère épidémiologiste travaillant dans un institut de recherche à Bergame. Le texte « Communication on COVID-19 to community – measures to prevent a second wave of epidemic » est déposé en libre accès https://osf.io/preprints/socarxiv/ea9jm et propose une mise à jour des #données_épidémiologiques ainsi qu’une mise en question de la stratégie paternaliste adoptée par la plupart des gouvernements européens dans la communication avec les populations confinées.

    Je résume ici quelques faits cliniques qui ne sont pas largement communiqués et qui actualisent l’idée de la propagation du virus et des mesures préventives à venir :

    – La période d’#incubation du COVID n’est pas limitée à 14 jours (ce qu’on on savait au début de l’épidémie), dans 1 % des cas, elle peut tabler sur 24 jours.

    – La période de la #sécrétion du #virus par les patients gravement malades a une médiane de 20 jours et jusqu’à 37 maximum. Dans les cas légers c’est 10 jours en moyen, jusqu’à 15 max.

    – Une diagnostique sans #dépistage est spécialement difficile, car près de moité des patients, à leur admission à l’hôpital, n’avaient pas de fièvre (> 37,5 C) et jusqu’à 30 % des contaminés sont complètement #asymptomatiques (il n’est pas encore claire s’ils sont contagieux).

    Ces nouvelles données signifient un prolongement fort probable de l’isolement collectif, dans le cadre du modèle paternaliste actuellement en acte, et en absence d’autres moyens.

    Et il ajoute :

    Je me détache de l’article pour faire un pas suivant. Pour le choix politique, les deux semaines qui viennent seront probablement un moment clé. Soit le gouvernement poursuit ce régime du #confinement de la majorité de la population, avec un investissement dans l’infrastructure policière et des limitations évidentes des libertés. Soit il opte pour un choix technologique, notamment pour un investissement à la production massive des #testes de dépistage. La deuxième option permettrait de laisser la plupart des confinée.e.s revenir à l’activité sociale, à condition des contrôles médicaux (et probablement électroniques) assez systématiques. Si je me permets de schématiser, c’est le moment d’un choix entre le #contrôle_policier de l’isolement et le contrôle médical de l’activité. Dans tous les deux cas « le monde ne sera plus le même », mais la deuxième stratégie semble être moins dépressive.

    Ne serait-il opportune dans ce cas à réfléchir sur une campagne en faveur de ce deuxième choix, un programme public de #dépistage_massif, assurée par le gouvernement et non laissé à des grandes entreprises pharmaceutiques comme BioMérieux et Roche dont les produits l’État paierait avec les sources publiques ? Dans ce cas, il s’agit de demander une création d’un mécanisme institutionnel qui assurerait la production des tests par le financement public et dégagerait des ressources pour la recherche scientifique ultérieure. Cela n’exclut pas une « #nationalisation » de la technologie – son transfert dans le domaine publique, pour que toutes les laboratoires et entreprises capables à la production puisse y contribuer.

    Si le sujet prend une forme plus consistante, au moins, on pousse une discussion ciblée autour des solutions sociales qui ne se limitent pas au vocabulaire de l’isolement. Dans ce cas, on n’est plus sur une position défensive qui nous laisse critiquer (à juste titre) l’atteinte aux libertés, et on s’avance vers la sortie du confinement et vers une réflexion, encore une fois plus sociale que clinique, sur les nouvelles pratiques du #contrôle et de la #vie_collective.

    #coronavirus #covid-19 #épidémiologie #deuxième_vague #paternalisme
    ping @simplicissimus @fil

    –-----

    Citation pour @davduf :

    Pour le choix politique, les deux semaines qui viennent seront probablement un moment clé. Soit le gouvernement poursuit ce régime du #confinement de la majorité de la population, avec un investissement dans l’infrastructure policière et des limitations évidentes des libertés. Soit il opte pour un choix technologique, notamment pour un investissement à la production massive des #testes de dépistage. La deuxième option permettrait de laisser la plupart des confinée.e.s revenir à l’activité sociale, à condition des contrôles médicaux (et probablement électroniques) assez systématiques. Si je me permets de schématiser, c’est le moment d’un choix entre le #contrôle_policier de l’isolement et le contrôle médical de l’activité.

  • Coronavirus : « Une classification systématique d’une population en fonction d’un critère de santé est dangereuse »
    https://www.lemonde.fr/idees/article/2020/03/26/coronavirus-une-classification-systematique-d-une-population-en-fonction-d-u

    Le comité CARE, mis en place par le président de la République, doit inclure des spécialistes des libertés fondamentales, observe l’avocate Zoé Vilain, dans une tribune au « Monde », pour éviter une surveillance généralisée des citoyens et de leur vie privée. Depuis le 17 mars 2020, toute personne sur le territoire français doit être en mesure de justifier le motif de sa sortie, et depuis le 24 mars, l’heure à laquelle elle a quitté son domicile. Le gouvernement envisagerait désormais un contrôle massif (...)

    #Google #algorithme #smartphone #géolocalisation #[fr]Règlement_Général_sur_la_Protection_des_Données_(RGPD)[en]General_Data_Protection_Regulation_(GDPR)[nl]General_Data_Protection_Regulation_(GDPR) #BigData #santé #surveillance #métadonnées (...)

    ##[fr]Règlement_Général_sur_la_Protection_des_Données__RGPD_[en]General_Data_Protection_Regulation__GDPR_[nl]General_Data_Protection_Regulation__GDPR_ ##santé ##ICO-UK

    • Décret n° 2020-356 du 27 mars 2020 portant création d’un traitement automatisé de données à caractère personnel dénommé « DataJust »
      https://www.legifrance.gouv.fr/affichTexte.do;jsessionid=8B2997ECAD85AEB6E9AB37994EEDF6E1.tplgfr38s

      ce décret autorise le ministre de la justice à mettre en œuvre, pour une durée de deux ans, un traitement automatisé de données à caractère personnel, dénommé « DataJust », ayant pour finalité le développement d’un algorithme destiné à permettre l’évaluation rétrospective et prospective des politiques publiques en matière de responsabilité civile et administrative, l’élaboration d’un référentiel indicatif d’indemnisation des préjudices corporels, l’information des parties et l’aide à l’évaluation du montant de l’indemnisation à laquelle les victimes peuvent prétendre afin de favoriser un règlement amiable des litiges, ainsi que l’information ou la documentation des juges appelés à statuer sur des demandes d’indemnisation des préjudices corporels. Le décret définit les finalités du traitement, la nature et la durée de conservation des données enregistrées ainsi que les catégories de personnes y ayant accès. Il précise enfin les modalités d’exercice des droits des personnes concernées.

    • Suite et fin de la tribune de Zoé Vilain (Avocate associée du cabinet 1862 Avocats et présidente Europe et responsable de la protection des données personnelles de Jumbo Privacy, une application mobile qui permet aux utilisateurs de regagner le contrôle de leur données)

      Le gouvernement envisagerait désormais un contrôle massif des données de santé des Français notamment grâce aux pratiques de « #backtracking » permettant d’identifier non seulement les personnes atteintes du #Covid-19, mais également les personnes en contact avec celles-ci.

      Ce contrôle massif reviendrait à une véritable stratégie numérique d’identification des personnes en raison de leurs données de santé. Les #données_de_santé font l’objet d’une protection particulièrement renforcée depuis la création de textes juridiques portant sur la protection de la vie privée et des données personnelles en étant classée comme données dites « sensibles », depuis l’origine.

      Cette protection dans les textes, nécessaire notamment pour que tout individu atteint d’une pathologie, puisse vivre une vie normale, s’illustre par l’interdiction de tout traitement des données de santé relatives à personne identifiée ou identifiable, et leur commercialisation, selon l’article 9 du Règlement général sur la protection des données (RGPD).

      La tentation d’exploiter les données de santé des citoyens
      Le RGPD prévoit cependant quelques exceptions à cette interdiction, qui pourrait servir de base à cette stratégie numérique d’identification des personnes. En effet, il prévoit que les traitements de données personnelles de santé peuvent être autorisés si le traitement est nécessaire pour des motifs d’intérêt public à condition que la règle de droit prévoyant ce traitement soit proportionnée à l’objectif poursuivi, respecte l’essence du droit à la protection des données et prévoit des mesures appropriées et spécifiques pour la sauvegarde des droits fondamentaux et des intérêts de la personne concernée (article 9.2).

      Cette obligation est notamment rappelée dans un communiqué du Comité européen de la protection des données du 19 mars 2020 portant « Déclaration sur le traitement des données personnelles dans le contexte de l’épidémie de Covid-19 ». La tentation d’exploiter les données de santé des citoyens est grande en période de crise sanitaire comme la nôtre, surtout au vu des outils technologiques à disposition en 2020.
      Article réservé à nos abonnés Lire aussi Coronavirus : « 

      La Chine aurait endigué une grande partie du virus en contrôlant de manière systématique les données mobiles de ses citoyens, notamment en obligeant les personnes à préciser leur température et leur état de santé, en utilisant les caméras de vidéosurveillance pour traquer avec qui les personnes auraient pu être en contact. Des applications auraient même pu être utilisées pour vérifier la proximité de ces personnes, avec des personnes infectées. Les citoyens chinois seraient maintenant classifiés selon trois couleurs indiquant leur risque de contamination : rouge, jaune et vert.

      Pas au détriment du respect des libertés fondamentales

      La Chine n’est pas la seule à avoir mis ce genre de contrôle en place. L’Italie, Israël, la Corée du Sud mettraient en place des contrôles massifs afin de surveiller l’expansion du virus dans leur territoire grâce à l’exploitation des images de #vidéosurveillance, des données de #géolocalisation et les #données_bancaires, pour contrôler les mouvements de leur population.

      Le Royaume-Uni serait en négociation avec Google, qui fait l’objet de plusieurs plaintes pour violation du RGPD devant l’Information Commissioner’s Office (ICO), l’équivalent britannique de la Commission nationale de l’informatique et des libertés (CNIL), pour avoir accès aux données de localisation des Anglais, afin de contrôler le respect du confinement.

      Emmanuel Macron a annoncé le 24 mars avoir créé un comité d’analyse, de recherche et d’expertise (CARE) composé exclusivement de scientifiques, afin de se prononcer sur l’utilisation des données de santé des personnes sur le territoire français pour faire face à la pandémie actuelle. A l’ère du numérique et du big data, l’utilisation de la technologie et des données semble inévitable et fondamentale pour lutter contre un virus comme le Covid-19 et faire en sorte que la crise soit la plus courte possible. Mais cela ne doit pas se faire au détriment du respect des libertés fondamentales. Quelles seront les décisions prises par le gouvernement et fondées sur cette classification de la population ?

      Des décisions générales ou personnalisées ?

      Cette classification aura-t-elle pour objet de donner lieu à des décisions générales de santé publique ? Ou, au contraire, visera-t-elle à prendre des décisions personnalisées en fin de crise, pour décider quelles sont les personnes qui auront le droit de sortie de confinement en fonction de leur exposition à des personnes contaminées ? Allons-nous privilégier les personnes exposées, et donc potentiellement immunisées, pour les embauches à des postes à plus haut risque (livreur, caissiers, etc.) au cas où le Covid-19 reviendrait ?

      Cette stratégie numérique d’identification fait naître beaucoup trop d’interrogations pour qu’elle ne fasse pas l’objet d’une réflexion approfondie du cadre légal sans lequel elle ne devrait pas exister. Nous ne savons pas combien de temps cette crise sanitaire va durer. Une classification systématique d’une population en fonction d’un critère de santé est dangereuse, et cela ne peut se faire sans l’appui et l’avis d’experts juridiques, dont le travail est de vérifier que les mesures prises sont proportionnées et prises dans le respect des libertés fondamentales des personnes concernées. N’attendons pas la fin de la crise où nos données de santé seront potentiellement exploitées, pour demander le respect de nos droits au respect de la vie privée.

      Oui, pour sauver l’#économie, la tentation est grande de trier la main d’oeuvre selon son statut sérologique afin que soient assurées des tâches indispensables mais aussi la performance de nos fleurons industriels et productifs (airbus, bagnole, logisitique, ...).
      Assignation à résidence et contrôle de la mobilité, en même temps.

      #Travail #contrôle

    • Face au Covid-19, le choix entre santé ou libertés est un faux dilemme, Le Monde, Editorial
      https://www.lemonde.fr/idees/article/2020/03/30/face-au-covid-19-le-choix-entre-sante-ou-libertes-est-un-faux-dilemme_603488

      Lutter contre une pandémie qui détruit des vies humaines et menace la planète de déstabilisation est une priorité absolue. Mais les dispositifs d’exception ne sont acceptables que s’ils sont provisoires.

      Editorial du « Monde ». Confinement généralisé au domicile, rassemblements prohibés, couvre-feux, parcs surveillés par des drones. Jamais en temps de paix les démocraties n’ont enduré pareilles entorses aux principes qui les fondent : les libertés publiques. Qui aurait imaginé, voici quelques semaines encore, que l’Europe serait plongée dans un climat digne de George Orwell, qui plus est très largement accepté ?

      La liberté d’aller et venir, celle de se réunir ont été mises entre parenthèses, les prérogatives des Parlements rognées, les droits des salariés amputés. Des prévenus sont jugés et parfois privés de liberté sans avocat. L’exécutif s’est donné le droit de restreindre des libertés individuelles, prérogative réservée en temps normal aux juges en vertu du principe fondamental de la séparation des pouvoirs.

      Sous l’effet de la sidération et de la peur, des mesures aussi radicales que le confinement général, la fermeture des institutions non vitales et le placement en quarantaine sont largement acceptées et même approuvées. Personne ne peut contester la réalité d’un « état d’urgence sanitaire » et la nécessité de mesures exceptionnelles pour juguler la pandémie. Le débat de l’heure porte plutôt sur le fait de savoir si ces restrictions n’auraient pas dû être imposées plus tôt. Ce qui conduit à interroger les relations complexes entre information scientifique, conscience de l’opinion et décision politique.

      Lutter contre une pandémie qui détruit des vies humaines et menace la planète de déstabilisation est une priorité absolue. Il faut donc approuver sans réserve les mesures sanitaires, promouvoir leur mise en œuvre et accepter les sanctions infligées aux contrevenants. Ne serait-ce que par respect et par soutien aux personnels de santé exténués.

      L’« effet cliquet »

      Cela ne dispense pas de s’interroger sur le monde d’après et le risque d’une banalisation de dispositifs d’exception qui ne sont acceptables que s’ils sont provisoires. Or l’expérience du passé nourrit l’inquiétude. Une fois la contrainte mise en œuvre, il est rare que le législateur revienne à des textes plus libéraux. Adoptée au début de la guerre d’Algérie, la loi de 1955 sur l’état d’urgence a été actualisée et adaptée, jamais abrogée. Les dispositions prises en 2015 face au terrorisme ont été versées dans le droit commun.

      L’état d’urgence sanitaire est une première dans nos démocraties. Mais la menace d’une nouvelle pandémie restera gravée dans les esprits. La tentation sera donc grande pour les gouvernements de transformer le provisoire en définitif. Il faudra se garder d’un tel « effet cliquet », en particulier dans le domaine du #droit_du travail, de la #procédure_pénale et des #libertés_publiques.

      L’urgence sanitaire doit devenir le laboratoire des bonnes méthodes de prévention et de traitement des pandémies, pas celui de mesures liberticides. Le risque s’annonce particulièrement fort en matière de surveillance individuelle. L’utilisation à grande échelle par la Chine des smartphones pour obliger les individus à communiquer leur température, repérer les déplacements des malades et identifier leurs contacts, donne un avant-goût de l’inquiétante évolution que la pandémie peut accélérer.

      Or la banalisation du recueil des données de santé, si elle peut renforcer un régime autoritaire, peut aussi être mise au service de la santé publique, de la connaissance des risques et de la prévention individuelle et collective des maladies. Entre santé et libertés, nous ne sommes pas contraints de choisir. Menace vitale, le Covid-19 défie aussi la démocratie.

  • Confinement : plus d’un million de Franciliens ont quitté la région parisienne en une semaine

    Selon une analyse statistique réalisée par #Orange à partir des données de ses abonnés téléphoniques, 17 % des habitants de la métropole du #Grand_Paris ont quitté la région entre le 13 et le 20 mars.


    https://www.lemonde.fr/pixels/article/2020/03/26/confinement-plus-d-un-million-de-franciliens-ont-quitte-la-region-parisienne
    #Paris #exode #coronavirus #campagnes #France #migrations #téléphone #données_téléphoniques #smartphone #géolocalisation

    ... et ont contaminé la France entière !
    Si on avait fait des tests de dépistages systématiques on aurait pu voir ça, mais sans test............

    ping @reka @fil @simplicissimus

    et ping @etraces vu la manière dont les données ont été récoltées...

    Des données anonymisées

    L’étude a été réalisée par Orange sur la base des données de géolocalisation des téléphones de ses abonnés. Elles ont été compilées et analysées à destination d’acteurs publics, notamment sanitaires. Elles ont été partagées notamment avec les #préfectures en ayant fait la demande, l’Assistance publique-Hôpitaux de Paris (#AP-HP), le #SAMU et l’Institut national de la santé et de la recherche médicale (#Inserm). Certains résultats de cette étude ont été communiqués au Monde. Certains de ces chiffres ont aussi été évoqués jeudi 26 mars par le PDG d’Orange, Stéphane Richard, sur les ondes d’Europe 1.
    Orange assure transmettre à ses partenaires des #agrégats_statistiques et non des #données_individuelles et « identifiantes ». Ils sont compilés à l’échelle de portions du territoire déterminées par l’Insee, qui représentent environ 50 000 personnes.

    Les données transmises par Orange ne permettent pas de localiser des individus, mais simplement de savoir combien de personnes se trouvent dans cette portion de territoire à une date donnée, et ainsi de pouvoir connaître l’évolution de la population, positive ou négative, sur chacune d’entre elles.

    Orange assure ainsi ne pas avoir procédé à un #recensement précis de la localisation des Français, et n’a de visibilité que sur l’activité de ses 24 millions d’utilisateurs quotidiens de ses réseaux. En se fondant sur le nombre d’entre eux s’étant rendu dans chaque zone, l’opérateur assure être capable, compte tenu de son nombre important de clients et au moyen de redressements statistiques, d’obtenir une évolution représentative et fiable de la population.

  • Les personnels et étudiant·e·s de l’Université de Strasbourgs ont-ils mis sous #surveillance ?
    (Communiqué de presse du 20 février 2020)

    Les départements de sûreté intérieure se multiplient dans les #universités, les sociétés de sécurité privées s’établissent sur les #campus, la #surveillance_vidéo se généralise, alors que les franchises universitaires sont régulièrement bafouées par la présence de la #police dans les établissements. L’Université de #Strasbourg, qui s’est singularisée ces dernières années par une anticipation et une application zélée de toutes les réformes, se veut probablement à la pointe des #dispositifs_de_surveillance et d’anticipation des mouvements sociaux. Face à plusieurs dérives qui pourraient remettre en cause nos #libertés_fondamentales, les organisations signataires estiment qu’il est aujourd’hui de leur #responsabilité d’alerter les personnels sur les informations dont elles disposent et sur les démarches qu’elles ont engagées. Dans un courrier du 4 février dernier (à lire et télécharger ICI : https://drive.google.com/file/d/1oLOje91aiU_T1p7VDBMIXSk5oaV4w2eL/view), nos organisations ont interrogé le Président de l’université et le Directeur général des services sur des faits dûment constatés ou méritant d’être vérifiés. Tout d’abord sur des pratiques de la société de #sécurité_privée prestataire de notre établissement. Notre inquiétude portait notamment sur une possible pratique de #fichage d’étudiant·e·s et de #personnels. Nous avons demandé la mise en place de mesures permettant, soit de lever ces suspicions, soit de les confirmer. Nous précisons que si le prestataire de sécurité privée a très récemment changé, les salariés restent, pour beaucoup, les mêmes. Or des comportements similaires ou tout aussi graves, ont été constatés. A titre d’exemple, le jeudi 6 février, plusieurs témoins ont fait état de la présence d’au moins un salarié de la société de sécurité privée aux abords de la manifestation intersyndicale au niveau de la Place de la République. Des étudiant·e·s sont allés à sa rencontre pour savoir s’il était en service, ce qu’il a reconnu avant de justifier sa présence en dehors du campus en disant qu’il avait des ordres. De qui émanaient ces ordres ? Notre courrier s’interrogeait ensuite sur les missions du fonctionnaire-adjoint de sécurité et de défense de notre université, sur la nature des rapports qu’il rédige suite à ses tâches de surveillance des AG ainsi que sur les destinataires de ses rapports. Enfin nous demandions que toute la lumière soit faite sur les décisions et les ordres éventuels qui ont pu mener à de telles dérives, mais aussi sur l’utilisation et le devenir des #données_personnelles collectées par les sociétés de sécurité privées et par le fonctionnaire-adjoint de sécurité et de défense. Le mercredi 12 février, nos organisations ont été destinataires d’un courrier émanant du Directeur Général des Services qui apportait, au nom du président et en son nom propre, des éléments de réponse à nos questions et demandes. Ces réponses, que nous publions avec l’accord des auteurs (à lire ICI : https://drive.google.com/file/d/1TDoB-ln6BX3B8Qm2e1CzcdkK0EnS4ya_/view), nous semblent lacunaires. Nous invitons donc le Président #Michel_Deneken à prendre nos questions avec plus de sérieux et à y répondre publiquement avec précision, afin de rassurer notre communauté de recherche et d’enseignement sur la préservation de nos libertés fondamentales.

    L’intersyndicale de l’Université de Strasbourg,CNT-STP67, DICENSUS, FO-ESR, SNCS-FSU, SNASUB-FSU, SNESUP-FSU, Solidaires Étudiant•e•s Alsace, Sud Éducation Alsace.

    https://fsusupalsace.files.wordpress.com/2020/02/communiquec2b4-intersyndical-sur-la-sec2b4curitec2b4-a
    #vidéosurveillance

    ping @etraces
    #Deneken

  • Les #outils_numériques de l’#humanitaire sont-ils compatibles avec le respect de la #vie_privée des #réfugiés ?

    Pour gérer les opérations humanitaires dans le camp de réfugiés syriens de #Zaatari en #Jordanie, les ONG ont mis en place des outils numériques, mais l’#innovation a un impact sur le personnel humanitaire comme sur les réfugiés. Travailler sur ce camp ouvert en 2012, où vivent 76 000 Syriens et travaillent 42 ONG, permet de s’interroger sur la célébration par le monde humanitaire de l’utilisation de #nouvelles_technologies pour venir en aide à des réfugiés.

    Après plusieurs années d’observation participative en tant que chargée d’évaluation pour une organisations non gouvernementales (ONG), je suis allée plusieurs fois à Amman et dans le camp de Zaatari, en Jordanie, entre 2017 et 2018, pour rencontrer des travailleurs humanitaires de 13 organisations différentes et agences de l’Onu et 10 familles vivant dans le camp, avec l’aide d’un interprète.

    Le camp de Zaatari a été ouvert dès 2012 par le Haut Commissariat aux Réfugiés pour répondre à la fuite des Syriens vers la Jordanie. Prévu comme une « #installation_temporaire », il peut accueillir jusqu’à 120 000 réfugiés. Les ONG et les agences des Nations Unies y distribuent de la nourriture et de l’eau potable, y procurent des soins et proposent un logement dans des caravanes.

    Pour faciliter la #gestion de cet espace de 5,2 km2 qui accueille 76 000 personnes, de très nombreux rapports, cartes et bases de données sont réalisés par les ONG. Les #données_géographiques, particulièrement, sont collectées avec des #smartphones et partagées via des cartes et des #tableaux_de_bord sur des #plateformes_en_ligne, soit internes au camp comme celle du Haut Commissariat des Nations unies pour les réfugiés (HCR), soit ouvertes à tous comme #Open_Street_Map. Ainsi, grâce à des images par satellite, on peut suivre les déplacements des abris des réfugiés dans le camp qui ont souvent lieu la nuit. Ces #mouvements modifient la #géographie_du_camp et la densité de population par zones, obligeant les humanitaires à modifier les services, tel l’apport en eau potable.

    Les réfugiés payent avec leur iris

    Ces outils font partie de ce que j’appelle « l’#humanitaire_numérique_innovant ». Le scan de l’#iris tient une place à part parmi ces outils car il s’intéresse à une partie du #corps du réfugié. Cette donnée biométrique est associée à la technologie de paiement en ligne appelée #blockchain et permet de régler ses achats au #supermarché installé dans le camp par une société jordanienne privée. Avant l’utilisation des #scanners à iris, les réfugiés recevaient une #carte_de_crédit qu’ils pouvaient utiliser dans divers magasins autour du camp, y compris dans des #échoppes appartenant à des réfugiés.

    Ils ne comprennent pas l’utilité pour eux d’avoir changé de système. Nour*, une réfugiée de 30 ans, trouvait que « la #carte_Visa était si facile » et craint de « devenir aveugle si [elle] continue à utiliser [son] iris. Cela prend tellement de temps : “ouvre les yeux”, “regarde à gauche”, etc. ». Payer avec son corps n’a rien d’anecdotique quand on est réfugié dans un camp et donc dépendant d’une assistance mensuelle dont on ne maîtrise pas les modalités. Nisrine, une autre réfugiée, préférait quand « n’importe qui pouvait aller au supermarché [pour quelqu’un d’autre]. Maintenant une [seule] personne doit y aller et c’est plus difficile ». Sans transport en commun dans le camp, se rendre au supermarché est une contrainte physique pour ces femmes.

    Le principal argument des ONG en faveur du développement du scan de l’iris est de réduire le risque de #fraude. Le #Programme_Alimentaire_Mondial (#Pam) contrôle pourtant le genre de denrées qui peuvent être achetées en autorisant ou non leur paiement avec la somme placée sur le compte des réfugiés. C’est le cas par exemple pour des aliments comme les chips, ou encore pour les protections hygiéniques. Pour ces biens-là, les réfugiés doivent compléter en liquide.

    Des interactions qui changent entre le personnel humanitaire et les réfugiés

    Les effets de ces #nouvelles_technologies se font aussi sentir dans les interactions entre le personnel du camp et les réfugiés. Chargés de collecter les #données, certains humanitaires doivent régulièrement interroger des jeunes hommes venant de zones rurales limitrophes (qui forment la majorité des réfugiés) sur leur hygiène ou leurs moyens de subsistance. Cela leur permet de créer des #indicateurs pour classer les réfugiés par catégories de #vulnérabilité et donc de #besoins. Ces interactions sont considérées par les réfugiés comme une intrusion dans leur espace de vie, à cause de la nature des questions posées, et sont pourtant devenues un des rares moments d’échanges entre ceux qui travaillent et vivent dans le camp.

    Le #classement des ménages et des individus doit se faire de manière objective pour savoir qui recevra quoi, mais les données collectées sont composites. Difficile pour les responsables de projets, directement interpellés par des réfugiés dans le camp, d’assumer les choix faits par des logiciels. C’est un exercice mathématique qui décide finalement de l’#allocation de l’aide et la majorité des responsables de programmes que j’ai interrogés ne connaissent pas son fonctionnement. Le processus de décision est retiré des mains du personnel humanitaire.

    Aucune évaluation de la #protection_des_données n’a été réalisée

    La vie privée de cette population qui a fui la guerre et trouvé refuge dans un camp est-elle bien protégée alors que toutes ces #données_personnelles sont récoltées ? Le journal en ligne The New Humanitarian rapportait en 2017 une importante fuite de données de bénéficiaires du Pam en Afrique de l’Ouest, détectée par une entreprise de protection de la donnée (https://www.thenewhumanitarian.org/investigations/2017/11/27/security-lapses-aid-agency-leave-beneficiary-data-risk). En Jordanie, les #données_biométriques de l’iris des réfugiés circulent entre une banque privée et l’entreprise jordanienne qui exploite le supermarché, mais aucune évaluation de la protection des données n’a été réalisée, ni avant ni depuis la mise en œuvre de cette #innovation_technologique. Si la protection des données à caractère personnel est en train de devenir un objet de légalisation dans l’Union européenne (en particulier avec le Règlement Général sur la Protection des Données), elle n’a pas encore été incluse dans le #droit_humanitaire.

    De la collecte de données sur les pratiques d’hygiène à l’utilisation de données biométriques pour la distribution de l’#aide_humanitaire, les outils numériques suivent en continu l’histoire des réfugiés. Non pas à travers des récits personnels, mais sur la base de données chiffrées qui, pense-t-on, ne sauraient mentir. Pour sensibiliser le public à la crise humanitaire, les équipes de communication des agences des Nations Unies et des ONG utilisent pourtant des histoires humaines et non des chiffres.

    Les réfugiés eux-mêmes reçoivent peu d’information, voire aucune, sur ce que deviennent leurs données personnelles, ni sur leurs droits en matière de protection de données privées. La connexion Internet leur est d’ailleurs refusée, de peur qu’ils communiquent avec des membres du groupe État Islamique… La gestion d’un camp aussi vaste que celui de Zaatari bénéficie peut-être de ces technologies, mais peut-on collecter les #traces_numériques des activités quotidiennes des réfugiés sans leur demander ce qu’ils en pensent et sans garantir la protection de leurs données personnelles ?

    http://icmigrations.fr/2020/01/16/defacto-015-01

    #camps_de_réfugiés #numérique #asile #migrations #camps #surveillance #contrôle #biométrie #privatisation

    ping @etraces @reka @karine4 @isskein

  • La Police nationale lorgne sur les « données de réservation » des voyageurs
    https://www.nextinpact.com/news/108540-la-police-nationale-lorgne-sur-donnees-reservation-voyageurs.htm

    Au travers d’un arrêté publié en pleine période de fêtes, le gouvernement a confié à la police nationale le soin d’exploiter les nombreuses « données de voyage » relatives aux trajets effectués en avion, en train, en bus, etc. Ceci pour des finalités potentiellement très larges. Alors que de nombreux voyageurs sont encore pénalisés par les grèves, en cours notamment à la SNCF et à la RATP, l’exécutif s’intéresse à « l’exploitation des données de voyage ». Par le biais d’un arrêté publié samedi au Journal (...)

    #data #surveillance # #PNR #CNIL

    ##_

  • Le gouvernement britannique autorise Amazon à accéder aux données de 40 millions de patients | korii.
    https://korii.slate.fr/tech/gouvernement-britannique-amazon-acces-donnees-medicales-40-millions-pati

    Les données de santé : nouveau secteur de valorisation pour les plateformes. Le guerre est lancée ; les Etats collaborent. Chacun son cheval, Amazon en Grande-Bretagne ; Microsoft en France.

    L’ONG Privacy International dénonce un accord passé entre le fabricant d’Alexa et le ministère de de la Santé qui va au-delà de l’annonce initiale.

    Outre-Manche, l’exécutif dirigé par Boris Jonhson essuie actuellement une pluie de critiques pour avoir validé une autorisation d’accès aux informations médicales stockées sur les serveurs du NHS (National Health Service) et mises à la disposition d’Amazon sans aucune compensation financière et sans l’accord des patient·es.

    En juillet dernier, Matt Hancock, ministre de la Santé et des Affaires Sociales, avait fait part d’un accord conclu avec Amazon pour que le géant américain puisse utiliser un certain nombre de données de santé dans le but d’aider les malades à obtenir de meilleurs conseils médicaux via Alexa. L’idée semblait louable. Cependant, l’accord va bien plus loin que ce qui avait été annoncé initialement.
    À lire aussiLa big data en santé, une mine d’or de 12 milliards d’euros pour la Grande-Bretagne

    Privacy International, une ONG qui milite contre la violation de la vie privée commise par les gouvernements, a révélé, après enquête et publication de l’intégralité du contrat, qu’il incluait « toutes les informations sur les soins de santé, y compris, sans s’y limiter, les symptômes, les causes et les définitions, ainsi que tout le contenu, les données, les informations et autres documents protégés par le droit d’auteur », détenus par le NHS et le ministère de la Santé et des Affaires Sociales. Le mastodonte du e-commerce a par ailleurs reçu un blanc-seing pour utiliser ces données à d’autres fins que de fournir des conseils médicaux.
    Boris Johnson persiste et signe

    En résumé, le gouvernement de Boris Johnson a remis entre les mains d’Amazon les clés du coffre-fort contenant l’intégralité des données de santé sensibles et personnelles de la grande majorité des Britanniques, avec toute latitude pour ce dernier de s’en servir comme il l’entend. L’accord empêche même le ministère de la Santé et des Affaires Sociales « d’émettre toute publicité sans une autorisation préalable écrite d’Amazon ».

    Ces révélations ont provoqué un véritable tollé dans les rangs des travaillistes et au sein de la population, après avoir été rendues publiques il y a quelques jours par Privacy International. Amazon s’est tout de suite défendu en affirmant que les personnes qui utilisent Alexa n’auront en réalité accès qu’à du « contenu général sur la santé ». Pour l’instant, le gouvernement de Boris Johnson n’a pas prévu de faire machine arrière et maintient l’accord dans son intégralité.

    #Amazon #Données_santé #Santé_publique #Vectorialisme

  • Le gouvernement britannique autorise Amazon à accéder aux données de 40 millions de patients
    https://korii.slate.fr/tech/gouvernement-britannique-amazon-acces-donnees-medicales-40-millions-pati

    L’ONG Privacy International dénonce un accord passé entre le fabricant d’Alexa et le ministère de de la Santé qui va au-delà de l’annonce initiale. Outre-Manche, l’exécutif dirigé par Boris Jonhson essuie actuellement une pluie de critiques pour avoir validé une autorisation d’accès aux informations médicales stockées sur les serveurs du NHS (National Health Service) et mises à la disposition d’Amazon sans aucune compensation financière et sans l’accord des patient·es. En juillet dernier, Matt Hancock, (...)

    #Amazon #Alexa #BigData #BigPharma #data #NationalHealthSystem-NHS #santé

    ##santé

  • « L’exploitation de données de santé sur une plate-forme de Microsoft expose à des risques multiples »
    https://www.lemonde.fr/idees/article/2019/12/10/l-exploitation-de-donnees-de-sante-sur-une-plate-forme-de-microsoft-expose-a

    Alors que le gouvernement compte s’appuyer sur le géant américain pour stocker les données de santé, un collectif initié par des professionnels du secteur et de l’informatique médicale s’inquiète, dans une tribune au « Monde », de ce choix du privé. Le gouvernement français propose le déploiement d’une plate-forme nommée Health Data Hub (HDH) pour développer l’intelligence artificielle appliquée à la santé. Le HDH vise à devenir un guichet unique d’accès à l’ensemble des données de santé. Les données (...)

    #Microsoft #HealthDataHub #[fr]Règlement_Général_sur_la_Protection_des_Données_(RGPD)[en]General_Data_Protection_Regulation_(GDPR)[nl]General_Data_Protection_Regulation_(GDPR) #CloudComputing #data (...)

    ##[fr]Règlement_Général_sur_la_Protection_des_Données__RGPD_[en]General_Data_Protection_Regulation__GDPR_[nl]General_Data_Protection_Regulation__GDPR_ ##CNIL

  • Vendre ses données de santé, ça coûte combien ? - CNET France
    https://www.cnetfrance.fr/news/vendre-ses-donnees-de-sante-ca-coute-combien-39895205.htm

    C’est une statistique assez surprenante, pour ne pas dire inquiétante. Selon une enquête de CSA Research pour le laboratoire pharmaceutique Roche, si 78 % des français interrogés estiment que le partage de données de santé (avec des scientifiques) est un acte citoyen qui peut faire progresser la recherche (jusque là, on parle d’open science, donc aucun problème), 20 % sont prêts à aller plus loin que le simple partage, et ne verraient ainsi aucun problème… à les vendre. Chez les 18-24 ans, ils sont même 36 %, « conscients » qu’ils sont de « la valeur » de ces données.

    Oui, leur valeur. Un débat fait rage depuis quelques années autour de la monétisation des données, et leur caractère « patrimonial » ou non. Si vos données personnelles vous appartiennent (et leur valeur aussi) au même titre que votre corps, et si elles ont une valeur importante, pourquoi pas, pensent certaines personnes, accepter sciemment qu’elles soient revendues, contre un petit pécule ? Nous en avons déjà parlé sur CNET France : vos données personnelles en disent beaucoup sur vous, et forcément, pour cette raison, elles ont de la valeur pour de nombreux acteurs, des publicitaires aux assurances, en passant par les chercheurs. Mais seules, isolées, brutes, elles ne valent en fait pas grand chose.

    En novembre 2019, Alphabet a ainsi mis la main sur les données de santé de millions d’Américains, officiellement dans le cadre d’un accord pour « développer de nouvelles technologies dans le domaine de la santé », officieusement dans un but économique. Ainsi, le chercheur en droit et technologie Florian Martin-Bariteau, de l’université d’Ottawa, explique-t-il sur ICI Radio-Canada Première, que « les données de santé sont le nouvel eldorado des compagnies technologiques dans le monde entier ». Car, pense-t-il, sous le manteau, les entreprises qui nouent ce genre de partenariats à priori dans un but noble, pourraient bien être tentées de « se servir de ces informations pour les revendre ». Et d’ajouter qu’on « nous dit pour nous rassurer que Google n’aura pas le droit d’utiliser cet ensemble de données pour les coupler avec les données des consommateurs qu’elle a déjà », mais que « Google est un expert des ’oups’ », et que « ce n’est pas la compagnie qui a la meilleure réputation en gestion des données personnelles et de sécurité des données ».

    Pour éviter ce genre de collecte-revente qui se font (ou se feraient) dans le dos des personnes, sans leur consentement direct, des lois existent, comme le RGPD, effectif en Europe depuis mai 2018. Mais le plus simple ne serait-il pas de laisser les individus vendre eux-mêmes leurs données de santé ? Octroyer un « droit de propriété » aux gens serait ainsi un moyen pour ces derniers, estiment Gaspard Koenig et Jaron lanier, de garder la main sur des données qui ne sont pas comme les autres, car leur valeur ne diminue pas à l’usage.

    Créer un marché qui n’existe pas, c’est l’eldorado des gens sans éthique.

    Sur son site, Embleema publie un « manifeste » intéressant, qui prône une co-construction de la valeur des données de santé, entre les patients et les chercheurs en médecine. Robert Chu et ses associés expliquent que « nos données de santé sont notre actif numérique le plus précieux, car elles peuvent nous sauver la vie dans une situation d’urgence, et fournir des informations critiques pour la prise de décision des prestataires de soins », mais que jusqu’ici, « elles étaient gardées en captivité dans des silos protégés, par crainte de voir nos droits aux soins violés », au grand dam de la « médecine personnalisé, qui perd une mine de données » essentielles.

    Selon la startup, « Blockchain santé » sera l’un des moyens, demain, de redonner « le pouvoir aux patients », de ne plus les obliger à « faire appel à des tiers pour traiter leurs informations les plus sensibles ». Robert Chu explique ainsi « qu’aujourd’hui, les données des patients sont revendues par des sociétés (comme Cegedim en France), qui les achètent à des professionnels de santé comme des hôpitaux, les anonymisent, puis les vendent aux laboratoires pharmaceutiques ». D’après ses estimations, « ce marché, qui avoisine les 200 millions d’euros en France, est capté par ces tiers, et, la source des données, le patient, ne perçoit rien. » Outre Cegedim, notons au passage que d’autres « courtiers de données », comme Sophia Genetics, qui déploie des solutions d’intelligence artificielle en santé, ou OpenHealth Company, effectuent pour des hôpitaux et des médecins le traitement de leurs données, issues de plusieurs centaines de milliers de patients.

    Vendre des données de santé peut coûter cher… à leur propriétaire

    Au fond, revendre vos données de santé ne vous rapporterait donc bien souvent qu’un petit pécule. Mais dans le même temps, estiment les défenseurs de la vie privée et de la protection des données personnelles, cela pourrait vous en coûter, à terme, d’une toute autre façon. Certes, l’idée d’un "droit patrimonial" des données de santé, destiné à contrer la monétisation "sans contrôle" actuelle, est séduisante. Mais une fois les données revendues, celles-ci échappent à leur "propriétaire".

    "Si les données de santé devraient d’abord servir à l’amélioration de la qualité des soins, on ne peut ignorer qu’elles peuvent servir à d’autres finalités, notamment en matière de marketing médical pour les industriels du secteur. À titre d’exemple, connaître la consommation de médicaments par zone de chalandise permet d’organiser les tournées des visiteurs médicaux pour cibler les médecins non-prescripteurs ; ou, à l’instar de n’importe quel secteur commercial, connaître les profils des internautes permet de pousser de la publicité en ligne, toujours plus personnalisée. Les industries de santé consacrent de plus en plus de budget à leur marketing digital, en direction des prescripteurs ou des patients eux-mêmes", observe ainsi Valérie Peugeot, commissaire à la CNIL, en charge du secteur santé.

    En outre, l’anonymisation des données n’est qu’une illusion, d’autant plus que le risque de piratage plane fortement, rappelle cette dernière : "Il se passe rarement plus de quelques jours sans qu’on ne découvre une faille de sécurité sur des logiciels clés ou, plus grave, qu’une fuite de données ne soit révélée. En janvier 2018, ce sont les données de 53 000 patients américains, comprenant entre autres des informations cliniques et des données sur les médicaments prescrits, qui sont parties dans la nature. Mais surtout, plus le nombre de bases de données accessibles est important, plus les croisements entre bases sont possibles, et plus les risques de « réidentification » de données pourtant anonymisées sont grands".

    Ainsi, explique Valérie Peugeot, "il ne suffit pas de décorréler l’information médicale (la pathologie, la prescription...) du nom du patient. Il faut pouvoir s’assurer que d’autres informations associées ne permettront pas de remonter jusqu’à lui. Par exemple, si le patient souffre d’une pathologie lourde et qu’on dispose du nom de la petite commune où il demeure, il est extrêmement simple de l’identifier." Et de citer en exemple la mésaventure du gouvernement australien, qui a mis en 2016 les données de remboursements de dépenses médicales anonymisées de 2,9 millions de personnes en "open data" : la publication scientifique en ligne ScienceX a rapidement démontré que le processus pouvait être inversé, et s’est amusée à réidentifier 7 célébrités australiennes, "dont 3 députés et 1 footballeur".

    La monétisation de nos données de santé serait, redoutent certains, un premier pas vers une marchandisation de soi délétère. “Toute la régulation Informatique et Libertés est opposée à cette approche. Si nous étions dans quelque chose de patrimonial, on pourrait imaginer qu’une fois que vous avez vendu vos données à un service, il pourrait très bien les revendre ensuite à qui il veut sans vous demander votre consentement”, m’expliquait récemment Olivier Desbiey, membre du Laboratoire d’Innovation Numérique (LINC) de l’institution. “En donnant aux données personnelles un caractère patrimonial, on en ferait de simples marchandises, et au-delà, on ferait de l’être humain une marchandise”, concluait-il.

    Plutôt que de revendre nos données, l’idée portée par des penseurs comme Michel Bauwens ou Evgeny Morozov, serait de rendre nos données personnelles “open source”, d’en faire des biens communs, considérées comme une ressource collective - afin de nous redonner à tous la main sur elles. Mais là encore, l’exemple australien cité plus haut par Valérie Peugeot semble rendre cette idée un peu utopique. D’où le retour, peut être, aux fondamentaux : les lois, les réglementations, et le débat, à mêmes de verrouiller et de protéger nos données, y compris de nous-mêmes.

    #Santé_publique #Données_médicales #Données_personnelles #Marchandisation

  • Le « Health Data Hub », big brother des données de santé lancé ce dimanche
    https://www.ouest-france.fr/sante/le-health-data-hub-big-brother-des-donnees-de-sante-lance-ce-dimanche-6

    Je l’épingle, même si j’arrive pas à le lire car ça me donne trop la gerbe, rien que le nom « Health Data Hub » donne l’idée de la monstruosité qui s’avance, la politique de #santé rentrée de force dans un hub de dentifrice ricain. Ça fait des années que quelques associations dénoncent la main mise des industries privées sur les #données_personnelles de santé, pourtant censées être couvertes par le #secret_médical qui appâte les gros poissons repus. Mais résister face à ce fléau et le troupeau bêlant des technophiles qui ânonnent c’est si pratique à la suite des assurances et des banques, est voué à la grosse déprime.
    #dmp

  • How Earnest Research Into Gay Genetics Went Wrong | WIRED
    https://www.wired.com/story/how-earnest-research-into-gay-genetics-went-wrong

    Un excellent article sur les danger éthiques et sociaux de l’usage sans précaution des données génétiques, notamment les données massives obtenues soit par des actes volontaires (recherche d’ancêtres, et autres) soit au fil d’actes médicaux.

    Anonymiser les données ne suffit pas à garantir qu’il n’y aura pas de conséquences fâcheuses pour l’ensemble de la société.

    Un très bon papier.

    In late spring 2017, Andrea Ganna approached his boss, Ben Neale, with a pitch: He wanted to investigate the genetics of sexuality. Neale hesitated. One of the top geneticists in the country, Neale and his colleagues at the Broad Institute, a pioneering biotech hub in Boston, had a decade earlier developed software that made it much easier for scientists to study the vast amounts of genetic data that were beginning to flood in. It was the kind of tool that helped illuminate a person’s risk of developing, say, heart disease or diabetes. And now, as Ganna was proposing, the approach could be applied to the foundations of behavior, personality, and other social traits that in the past had been difficult to study.

    Ganna wanted to pounce on a new opportunity. A giant collection of carefully cataloged genomes, called the UK Biobank, was about to become available to researchers. A scientist could apply and then gain access to data from 500,000 British citizens—the largest public repository of DNA on the planet. To Ganna, the genetic origins of being gay or straight seemed like the kind of blockbuster question that might finally get an answer from a data set of this size.

    Neale wasn’t so sure. As a gay man himself, he worried that such research could be misconstrued or wielded to advance hateful agendas. On the other hand, a better understanding of how genetics influences same-sex attraction could also help destigmatize it.

    Then Ganna mentioned that another group was already pursuing the question using the UK Biobank: a geneticist named Brendan Zietsch, at the University of Queensland, and his colleagues. In 2008, Zietsch published a study suggesting that the genes straight people shared with their gay twins made them more successful at bedding heterosexual partners. Now he was going to further test this “fecundity hypothesis” with a much more powerful data set. He’d also proposed investigating the genetic associations between sexual orientation and mental health. Thinking his lab could add expertise coupled with caution to such a project, Neale agreed they should try to team up with Zietsch.

    “Armed with the knowledge that this research was going to be done, I thought it was important that we try and do it in a way that was responsible and represented a variety of different perspectives,” he says, noting that, because there is so much genetic data to work with these days, collaborations in his field are commonplace “But it was also important to me personally, as a gay man, to get involved.”

    From the outset, Neale expected some pushback and misunderstandings. That’s why he involved LGBTQ+ groups along the way, something not technically required for the kind of research he was doing. But he wasn’t prepared for scientists within his home institution to rise up and challenge the value and ethics of his work. And he was even less prepared for a company to exploit the results of the study—just a few weeks after it was published in the journal Science—to sell an app purporting to predict how attracted someone is to the same sex.

    #Données_génétiques #Big_data #Ethique #Recherche #Hubris #Génomique #Homosexualité #Fausse_science

  • Google collecte les données médicales de millions d’Américains sans qu’ils le sachent
    https://www.lefigaro.fr/secteur/high-tech/google-collecte-les-donnees-medicales-de-millions-d-americains-sans-qu-ils-

    En toute légalité, [...]

    Google Collecting Medical Data on Millions Without Informing Patients or Doctors | naked capitalism
    https://www.nakedcapitalism.com/2019/11/google-collecting-medical-data-on-millions-without-informing-patien

    One Wall Street Journal reader asserted that Google and Ascension are violating HIPAA:

    John Travelstead

    This is a direct violation of HIPAA laws. Google has no legal right to obtain personal health information.

    The Federal government requires Business Associates Agreements for information sharing of personal health information and data between a vendor and covered entity to occur. GOOGLE QUALIFIES FOR NEITHER AND SHOULD BE REPORTED TO FEDERAL AUTHORITIES AT U.S. DEPARTMENT OF HEALTH AND HUMAN SERVICES. PERIOD.

    The wee problem is that even if Mr. Travelstead is correct, HIPAA enforcement appears to be non-existant. The Wall Street Journal reported in 2007 that in a bit over three years, Department of Health and Human Services Office for Civil Rights had received over 23,000 complaints of privacy abuses, yet had taken no action. The only enforcement example listed in Wikipedia is an $885,000 settlement by UCLA over investigation findings that unauthorized employees repeatedly read protected electronic patient health care records.

    However, Journal readers (at least as far as I read, and I got pretty far into the hundreds of comments) were without exception very upset about the prospect of Google having access to their medical data. Given that Big Tech is in the crosshairs of more than a few Congresscritters, one can hope that Google and Ascension officials will soon have to ‘splain themselves.

  • E.P.A. to Limit Science Used to Write Public Health Rules - The New York Times
    https://www.nytimes.com/2019/11/11/climate/epa-science-trump.html

    WASHINGTON — The Trump administration is preparing to significantly limit the scientific and medical research that the government can use to determine public health regulations, overriding protests from scientists and physicians who say the new rule would undermine the scientific underpinnings of government policymaking.

    A new draft of the Environmental Protection Agency proposal, titled Strengthening Transparency in Regulatory Science, would require that scientists disclose all of their raw data, including confidential medical records, before the agency could consider an academic study’s conclusions. E.P.A. officials called the plan a step toward transparency and said the disclosure of raw data would allow conclusions to be verified independently.

    For instance, a groundbreaking 1993 Harvard University project that definitively linked polluted air to premature deaths, currently the foundation of the nation’s air-quality laws, could become inadmissible. When gathering data for their research, known as the Six Cities study, scientists signed confidentiality agreements to track the private medical and occupational histories of more than 22,000 people in six cities. They combined that personal data with home air-quality data to study the link between chronic exposure to air pollution and mortality.

    But the fossil fuel industry and some Republican lawmakers have long criticized the analysis and a similar study by the American Cancer Society, saying the underlying data sets of both were never made public, preventing independent analysis of the conclusions.

    “It was hard to imagine that they could have made this worse, but they did,” said Michael Halpern, deputy director for the Center for Science and Democracy at the Union of Concerned Scientists, a nonprofit advocacy group. He added, “This is a wholesale politicization of the process.”

    Academics are not typically required to turn over private data when submitting studies for peer review by other specialists in the field, or for publication in scientific journals, the traditional ways scientific research is evaluated. If academics were to turn over the raw data to be made available for public review, the E.P.A. would have to spend hundreds of millions of dollars to redact private information, according to one federal estimate.

    #Santé #Données_personnelles #EPA #Politique_scientifique #Data_science #Manipulation