• Le droit à la portabilité en questions | CNIL

    RGPD et portabilité des données : éléments fournis par la CNIL
    Voir aussi :
    – Lignes directrices relatives au droit à la portabilité des données : https://www.cnil.fr/sites/default/files/atoms/files/wp242rev01_fr.pdf
    – Le registre des activités de traitement : https://www.cnil.fr/fr/RGDP-le-registre-des-activites-de-traitement

    #rgpd #portabilité #données_personnelles #cnil

  • Automated suspicion: The EU’s new travel surveillance initiatives

    This report examines how the EU is using new technologies to screen, profile and risk-assess travellers to the Schengen area, and the risks this poses to civil liberties and fundamental rights.

    By developing ‘interoperable’ biometric databases, introducing untested profiling tools, and using new ‘pre-crime’ watchlists, people visiting the EU from all over the world are being placed under a veil of suspicion in the name of enhancing security.

    Watch the animation below for an overview of the report. A laid-out version will be available shortly. You can read the press release here: https://www.statewatch.org/news/2020/july/eu-to-deploy-controversial-technologies-on-holidaymakers-and-business-tr


    Executive summary

    The ongoing coronavirus pandemic has raised the possibility of widespread surveillance and location tracking for the purpose of disease control, setting alarm bells ringing amongst privacy advocates and civil rights campaigners. However, EU institutions and governments have long been set on the path of more intensive personal data processing for the purpose of migration control, and these developments have in some cases passed almost entirely under the radar of the press and civil society organisations.

    This report examines, explains and critiques a number of large-scale EU information systems currently being planned or built that will significantly extend the collection and use of biometric and biographic data taken from visitors to the Schengen area, made up of 26 EU member states as well as Iceland, Liechtenstein, Norway and Switzerland. In particular, it examines new systems being introduced to track, analyse and assess the potential security, immigration or public health risks posed by non-EU citizens who have to apply for either a short-stay visa or a travel authorisation – primarily the #Visa_Information_System (#VIS), which is being upgraded, and the #European_Travel_Information_and_Authorisation_System (#ETIAS), which is currently under construction.

    The visa obligation has existed for years. The forthcoming travel authorisation obligation, which will cover citizens of non-EU states who do not require a visa, is new and will massively expand the amount of data the EU holds on non-citizens. It is the EU’s equivalent of the USA’s ESTA, Canada’s eTA and Australia’s ETA.[1] These schemes represent a form of “government permission to travel,” to borrow the words of Edward Hasbrouck,[2] and they rely on the extensive processing of personal data.

    Data will be gathered on travellers themselves as well as their families, education, occupation and criminal convictions. Fingerprints and photographs will be taken from all travellers, including from millions of children from the age of six onwards. This data will not just be used to assess an individual’s application, but to feed data mining and profiling algorithms. It will be stored in large-scale databases accessible to hundreds of thousands of individuals working for hundreds of different public authorities.

    Much of this data will also be used to feed an enormous new database holding the ‘identity data’ – fingerprints, photographs, names, nationalities and travel document data – of non-EU citizens. This system, the #Common_Identity_Repository (#CIR), is being introduced as part of the EU’s complex ‘interoperability’ initiative and aims to facilitate an increase in police identity checks within the EU. It will only hold the data of non-EU citizens and, with only weak anti-discrimination safeguards in the legislation, raises the risk of further entrenching racial profiling in police work.

    The remote monitoring and control of travellers is also being extended through the VIS upgrade and the introduction of ETIAS. Travel companies are already obliged to check, prior to an individual boarding a plane, coach or train, whether they have the visa required to enter the Schengen area. This obligation will be extended to include travel authorisations, with travel companies able to use the central databases of the VIS and ETIAS to verify whether a person’s paperwork is in order or not. When people arrive at the Schengen border, when they are within the Schengen area and long after they leave, their personal data will remain stored in these systems and be available for a multitude of further uses.

    These new systems and tools have been presented by EU institutions as necessary to keep EU citizens safe. However, the idea that more personal data gathering will automatically lead to greater security is a highly questionable claim, given that the authorities already have problems dealing with the data they hold now.

    Furthermore, a key part of the ‘interoperability’ agenda is the cross-matching and combination of data on tens of millions of people from a host of different databases. Given that the EU’s databases are already-known to be strewn with errors, this massively increases the risks of mistakes in decision making in a policy field – immigration – that already involves a high degree of discretion and which has profound implications for peoples’ lives.

    These new systems have been presented by their proponents as almost-inevitable technological developments. This is a misleading idea which masks the political and ethical judgments that lie behind the introduction of any new technology. It would be fairer to say that EU lawmakers have chosen to introduce unproven, experimental technologies – in particular, automated profiling – for use on non-EU citizens, who have no choice in the matter and are likely to face difficulties in exercising their rights.

    Finally, the introduction of new databases designed to hold data on tens of millions of non-citizens rests on the idea that our public authorities can be trusted to comply with the rules and will not abuse the new troves of data to which they are being given access. Granting access to more data to more people inevitably increases the risk of individual abuses. Furthermore, the last decade has seen numerous states across the EU turn their back on fundamental rights and democratic standards, with migrants frequently used as scapegoats for society’s ills. In a climate of increased xenophobia and social hostility to foreigners, it is extremely dangerous to assert that intrusive data-gathering will counterbalance a supposed threat posed by non-citizens.

    Almost all the legislation governing these systems has now been put in place. What remains is for them to be upgraded or constructed and put into use. Close attention should be paid by lawmakers, journalists, civil society organisations and others to see exactly how this is done. If all non-citizens are to be treated as potential risks and assessed, analysed, monitored and tracked accordingly, it may not be long before citizens come under the same veil of suspicion.



    #suspects #suspicion #frontières #rapport #StateWatch #migrations #asile #réfugiés #EU #UE #Union_européenne
    #surveillance #profiling #database #base_de_données #données_personnelles #empreintes_digitales #enfants #agences_de_voyage #privatisation #interopérabilité

    ping @mobileborders @isskein @etraces @reka

  • Coronavirus en Israël : des milliers de personnes mises en quarantaine sans raison sur la base des données de leur GSM

    Des milliers d’Israéliens ont été placés en quarantaine sans raison apparente, sur la base des données de leur GSM, a admis le ministère de la Santé israélien. Près de 12.000 personnes ont reçu un SMS de la part du Shin Bet, le service de renseignement intérieur israélien, les invitant à se mettre en quarantaine, a déclaré mardi un porte-parole du ministère de l’Intérieur devant une commission parlementaire.

    Le gouvernement israélien utilise son agence de sécurité intérieure pour le traçage des citoyens afin de lutter contre l’augmentation du nombre de cas de Covid-19. Appliqué par le Shin Bet au début de la crise sanitaire, ce programme de surveillance controversé a été bloqué temporairement par la Cour suprême de l’État hébreu fin avril, avant d’être relancé fin juin.

    Selon le journal Times of Israel, des dizaines de milliers d’Israéliens ont reçu, au cours de la première semaine de la reprise du programme, un SMS leur conseillant de se placer en quarantaine en raison d’une potentielle infection à la Covid-19.

    Cent cinquante employés d’une ligne d’écoute ont été chargés de répondre aux questions concernant les SMS. Ils ont reçu plus de 26.000 appels entre le lancement de la ligne et dimanche dernier. Dans 83% des cas, les appels concernaient des protestations contre l’imposition de la quarantaine par voie d’un SMS. Environ 12.000 personnes ont été notifiées qu’elles ne devaient plus rester en quarantaine.

    Ce type de surveillance électronique a jusqu’à présent été utilisé pour lutter contre le terrorisme. L’intention était, au cours de la crise sanitaire, d’utiliser les données de localisation des GSM des personnes infectées pour établir avec qui ces dernières avaient récemment été en contact. Les personnes potentiellement contaminées étaient alors alertées par SMS et priées de se placer en quarantaine.

    #erreur_intentionnelle ? #algorithme foireux ? #vie_privée #surveillance #données #bigdata #privacy #données_personnelles #santé #GSM #géolocalisation #covid-19 #coronavirus #quarantaine #shin_bet

    • La police flamande de Hasselt (NVA) retrouve ses anciennes habitudes, fouiller les greniers afin de rechercher les fêtards, en attendant mieux.

      Coronavirus à Hasselt : il planque les clients de son café dans son grenier à l’arrivée de la police

      Le patron d’un café de Hasselt espérait berner la police lorsque celle-ci s’est présentée aux petites heures à la porte de son établissement. Il venait de couper la musique et de faire passer au grenier 13 fêtards qui espéraient encore danser et chanter quelques heures de plus. Mais les forces de l’ordre ont fini par découvrir la planque.

      Le bourgmestre de Hasselt, Steven Vandepu. - © JORIS VLIEGEN - BELGA

      La police est intervenue vers 02h00 dans la nuit de lundi à mardi après avoir reçu un appel faisant état de nuisances sonores. L’établissement ne respectait en outre pas le couvre-feu imposé à 01h00 du matin en raison du coronavirus.

      Chaque fêtard et le gérant ont reçu un procès-verbal pour ne pas avoir respecté les mesures corona. Le patron a également écopé d’un PV pour avoir autorisé sa clientèle à fumer à l’intérieur du bar. . . . . .

      Pourtant, ce sont les dirigeants belges qui, par leur épouvantable gestion de l’épidémie de #coronavirus ont tué, les vieillards, principalement. Certain.e.s de faim et de soif, témoignages #MSF

      #police #flandres #Belgique #Traditions #violences_policières #surveillance #répression #violence #maintien_de_l'ordre #coronavirus #covid-19 #entrainement #rafles #rafle

    • La Belgique inflige une amende de 600.000 euros à Google pour atteinte à la réputation

      Google Belgium devra s’acquitter d’une amende de 600.000 euros. L’Autorité de protection des données (APD) belge a sanctionné l’entreprise, parce qu’elle a refusé de supprimer des résultats de recherche dommageables.

      L’APD inflige cette amende suite à une plainte déposée par un homme qui voulait voir supprimer quelques résultats du moteur de recherche. Depuis quelques années, les Européens ont le ’droit d’être oubliés’, ce qui leur permet de demander de supprimer certains résultats de recherche. Mais dans un premier temps, Google décide elle-même si une telle demande se justifie.

      L’homme en question n’est pas nommément mentionné, mais il s’agit, selon l’APD, de quelqu’un qui exerce une fonction dans la vie publique. Les résultats qu’il voulait voir enlever, portent sur ses possibles liens avec un parti politique, ce qu’il réfute, et sur une plainte pour brimade à son égard, qui avait été déclarée infondée il y a des années déjà.

      Google n’a pas accepté de supprimer ces deux résultats. La Chambre des litiges de l’APD a donné raison à Google pour la première partie, parce que l’homme joue un rôle dans la vie publique et que ces résultats ont donc un intérêt général.

      Mais pour ce qui est de la plainte pour brimade, l’APD se montre très critique vis-à-vis de Google. Par son refus, l’entreprise s’est montrée négligente, parce qu’elle disposait des preuves que les faits en question étaient ’non pertinents et désuets’. Il s’agit en effet d’une plainte datant de plus de dix ans et portant sur des faits qui n’ont jamais été démontrés.

      Formulaire de demande incorrect
      L’amende de 600.000 euros n’est pas infligée pour ce seul refus. L’APD estime en effet que le formulaire de demande de suppression de résultats n’est pas suffisamment transparent. L’APD invite dès lors Google à adapter ce formulaire à l’Espace Economique Européen.

      Google Belgium botte en touche
      Ce qui est étonnant, c’est que Google Belgium a, dans son argumentation, considéré comme infondée la plainte déposée auprès de l’Autorité de protection des données du fait que le responsable du traitement n’est pas Google Belgium, mais Google LLC, la société mère aux Etats-Unis.

      Ce raisonnement n’a pas été suivi par la Chambre des litiges de l’APD. Pour elle, les deux organisations sont liées de manière indissociable, ce qui fait que c’est la filiale locale belge de Google qui est responsable.

      Il s’agit d’un singulier précédent dans la mesure où les grandes firmes technologiques se réfèrent dans ce genre de situations assez souvent à leur siège central européen ou américain, ce qui fait qu’un jugement prend souvent pas mal de temps et se complexifie. La Chambre des litiges suit cependant Google dans le fait que son siège européen établi en Irlande n’est pas responsable de la suppression des résultats de recherche.

      La plus forte amende à ce jour
      Pour l’Autorité de protection des données belge, il s’agit de la plus forte amende jamais infligée à ce jour. Le précédent record était de 50.000 euros. Pour Google aussi, il est probablement question d’un record dans notre pays. En 2011, l’entreprise avait encore proposé un arrangement d’un montant de 150.000 euros, parce qu’elle avait intercepté https://datanews.knack.be/ict/nieuws/belgische-boete-voor-google/article-normal-280643.html?cookie_check=1594786373 par mégarde avec ses voitures Street View des communications privées.

      Google en appel
      Google annonce qu’elle va en appel de l’amende qui lui est infligée. Celle-ci a été introduite auprès du tribunal des marchés, une composante de la Cour d’Appel de Bruxelles.

      « Depuis 2014, nous avons travaillé dur pour implémenter le droit à l’oubli en Europe et pour trouver un équilibre sensé, basé sur des principes, entre le droit des citoyens à l’accès à l’information et le respect de leur vie privée. Nous estimons que cette affaire ne répond pas aux critères de la Cour européenne de Justice de supprimer des résultats de recherche du contenu journalistique publié. Nous pensons qu’il y va de l’intérêt général que l’article en question puisse encore être recherché. L’Autorité de protection des données n’est pas du même avis. Nous allons donc demander à la Cour de décider », affirme Google dans une réaction à . . . . . .

      Data News.

      #vie_privée #google #internet #données_personnelles #bigdata #données #privacy

  • #IOM using #Facebook #advertisment to reach potential #return_migrants

    Mail received by a friend with Pakistani citizenship:

    “I am adding a screenshot of advertising on Facebook by German government which suggest me to ’ If I would like to return my home country and don’t know how then I can contact there’ Advertising is in Urdu which means they already know who they are showing this advertisement. This is interesting that they use my personal data and target me as a refugee I guess. [...]
    Screenshot is attached and the link where the advertisement leads is below.”


    #Germany #migration #return_migration #explusion #social_media #social_networks #data_privacy

    ping @cdb_77 @rhoumour @deka

  • StopCovid, l’appli qui en savait trop - Page 1 | Mediapart

    Sur le papier, c’est très clair. Si vous avez téléchargé l’application StopCovid, que vous êtes atteint par le virus et que vous le déclarez dans l’appli, alors les données transmises au serveur central seront celles des personnes avec lesquelles vous avez été en contact « à moins d’un mètre pendant au moins 15 minutes », et qui disposent aussi de l’application. Les personnes seront alors prévenues qu’elles ont rencontré quelqu’un susceptible de leur avoir transmis le virus.

    Ce critère de distance et de durée, moins d’un mètre pendant plus d’un quart d’heure, est l’objet unique d’un arrêté du 30 mai 2020, qui lui-même précise le décret du 29 mai relatif à l’application. Le décret encadre le « traitement de données » effectué par l’application. En clair, il constitue l’assise légale de son fonctionnement.

    Gaëtan Leurent est chercheur en cryptographie à l’Inria, l’Institut national de recherche en informatique auquel le gouvernement a confié le pilotage du projet StopCovid. Il est aussi l’un des coauteurs du site risques-traçage.fr, qui a très tôt exposé un à un les dangers d’une application de contact tracing telle que StopCovid sous le titre « Le traçage anonyme, dangereux oxymore ». « Depuis, explique-t-il à Mediapart, on a suivi ce qui se passe avec le déploiement. »

    Deux points connexes l’ont intrigué particulièrement : comment la distance entre deux appareils est-elle calculée, et quelles sont les informations envoyées quand on se déclare malade. Il a donc mené des expériences. En plaçant deux téléphones à une distance de cinq mètres l’un de l’autre, séparés par un mur et pendant seulement quelques secondes, il s’est aperçu que ce « contact » entre les deux appareils, sans intérêt épidémiologique, était pourtant envoyé au serveur central s’il se déclarait porteur du virus.

    Et c’est bien là le hic. Interrogé par Mediapart, le secrétariat d’État au numérique confirme que « StopCovid repose sur la remontée de l’historique de proximité d’un utilisateur diagnostiqué positif : cet historique de proximité est constitué des contacts rencontrés par l’utilisateur positif ». Sous-entendu : tous les contacts, et non pas seulement les plus proches. « Le calcul de l’exposition au risque d’un des contacts de cet historique de proximité est effectué sur le serveur », poursuit le ministère. C’est le serveur qui va déterminer, entre tous les contacts de la personne positive, ceux qui auront été exposés suffisamment près et suffisamment longtemps.

    « Ce qui serait plus respectueux de la vie privée, c’est que le téléphone calcule » lui-même la distance qui le sépare d’un autre repéré par Bluetooth, puis envoie au serveur, le cas échéant, seulement ceux qui seront restés assez près, assez longtemps, estime Gaëtan Leurent. « Ce qui est dommage, c’est que si on envoie tous les contacts, c’est beaucoup plus d’infos que ce qui est utile. Il y a un risque sur la vie privée en cas de réidentification ou de recyclage des infos par malveillance. »

    Pour Baptiste Robert, hacker et chercheur en sécurité informatique qui a participé à la recherche de bugs dans l’application, l’envoi de tous les contacts permet « de voir des récurrences » : chaque jour, « on croise les mêmes personnes, on bosse avec les mêmes personnes ». Ainsi, des acteurs mal intentionnés pourraient « réidentifier la donnée assez rapidement ». Il regrette le choix qui a été fait, car selon lui, « l’appli pourrait trier ce qu’elle envoie ».

    Le stockage et le transfert des contacts brefs est justifié, selon le secrétariat au numérique, par le fait que tous les quarts d’heure, un nouvel identifiant est attribué à chaque appareil. Ainsi, un contact qui ne durerait que 5 minutes pourrait être la suite d’un contact de douze minutes : deux contacts que seul le serveur est capable de relier pour comprendre qu’il s’agit en réalité d’un seul, de 17 minutes, donc à risques.

    Pour remédier à cette difficulté, le chercheur en cryptographie Gaëtan Leurent pense « qu’il y aurait des moyens assez simples de limiter le problème ». Par exemple, « le téléphone pourrait filtrer les données pour ne garder les contacts courts que quand ils sont juste avant ou juste après un changement d’identifiant. Ça éliminerait déjà la majorité des contact courts ».

    #StopCovid #Données_personnelles #Anonymat

  • Les CSP opposés à la fouille des téléphones portables des requérant-e-s d’asile

    Un avant-projet de #révision de la #loi_sur_l’asile a été mis en consultation par la Commission des institutions politiques du Conseil national (https://www.parlament.ch/fr/organe/commissions/commissions-thematiques/commissions-cip/rapports-consultations-cip/consultation-cip-17-423). Il prévoit de laisser la possibilité au Secrétariat d’Etat aux Migrations de fouiller les téléphones portables et autres supports de #données_électroniques détenus par les personnes en demande d’asile, à des fins de procédure.

    Pour les Centres sociaux protestants, cette mesure porte trop durement atteinte au droit fondamental à la vie privée. Donner accès à ses #données_personnelles à une autorité doit par ailleurs faire l’objet d’un #consentement libre et éclairé, ce qui ne sera ici pas le cas, puisque les requérant-e-s d’asile sont contraint-e-s de collaborer avec l’autorité en question sous peine de voir leur demande d’asile être rejetée. Les CSP invitent le Parlement fédéral à rejeter cet avant-projet.

    #fouille #téléphones_portables #smartphone #Suisse #SEM #asile #migrations #réfugiés #procédure_d'asile

    La position détaillée du CSP :

    ping @isskein @karine4 @etraces

  • WhiteHall Analytica : IA, sociétés de surveillance et santé publique – par Nafeez Ahmed

    Source : By Line Times – Nafeez Ahmed Première partie d’une grande enquête du journaliste d’investigation Nafeez Ahmed sur une importance convergence d’hommes, d’intérêts et de fonds autour de la question des données médicales. La crise sanitaire du Covid-19 est en train d’enrichir un réseau de sociétés de surveillance liées à de hauts fonctionnaires du […]

    #Santé #Données_Personnelles #Intelligence_artificielle #Surveillance_de_masse #Santé,_Données_Personnelles,_Intelligence_artificielle,_Surveillance_de_masse

  • Dérogation au secret médical : quelle médecine voulons-nous ?

    Avec l’obligation de déclarer les cas positifs à la CPAM, la crise du Covid-19 abîme la relation de confiance entre médecin et patient. Il y a …

    • Je trouve l’ensemble terriblement mauvais. En gros : de la #moraline dans l’autre sens.

      A ce titre, en termes d’incidence létale, l’épidémie de sida des années 80-90 ne souffre aucune comparaison possible avec l’épidémie de Covid-19. Le mal était nettement plus dangereux, en l’absence de trithérapie, et il a fallu longtemps pour lutter contre les préjugés qui touchaient les victimes de cette maladie, à savoir des attaques en règles contre leurs mœurs et pratiques sexuelles.

      Je suis heureux qu’on ait déjà découvert un traitement contre Covid 19… Covid vient de tuer 30 000 personnes en quelques semaines en France, et on n’a que des estimations de ce que cela aurait donné sans mesures strictes pour limiter sa propagation (estimations généralement catastrophiques).

      Alors toute l’argumentation : « regardez, SIDA était bien pire mais on n’a pas rendu sa déclaration obligatoire par les médecins », déjà ça me semble foireux.

      Sans non plus parler des modes de transmission excessivement différents (on n’attrape pas le SIDA parce qu’on a passé quelques heures assis l’un à côté de l’autre dans un bureau). Je sais bien que ça a pu délirer dans les années 80 (notamment paranoïa homophone), mais quelqu’un de séropositif peut circuler dans la cité, aller au cinéma, prendre les transports en commun, etc. sans jamais contaminer personne. Ce qui n’est pas du tout le cas d’un porteur du coronavirus. C’est tout de même cet aspect qui rend totalement différente la réaction collective aux cas identifiés.

      Ce qui d’ailleurs permet de faire passer une telle énormité :

      Par conséquent, il n’était peut-être pas du ressort de la médecine de ville de participer à la qualification des états de certains, vis-à-vis du Covid-19 – ce n’est pas un dépistage de maladie au sens strict car être porteur de Covid-19 ne veut pas dire être malade.

      Autre difficulté : le SIDA est une maladie chronique quand on survit. Pas Covid. Au bout de quelques semaines, si tu n’es pas dans la petite minorité qui en est décédée, avoir eu Covid n’a aucun impact sur ta vie sociale, professionnelle, amoureuse… (au contraire : tu es peut-être même immunisée). Faire savoir, par le « piratage » ou je ne sais quelle méthode tarabiscotée, que quelqu’un a eu Covid, n’est pas stigmatisant.

      Sinon, parler d’« enquête de mœurs » alors qu’on vient de faire le parallèle avec le SIDA est dangereusement exagéré.

      Autre gros souci : tout le principe de l’article, dès le titre, consiste en la dénonciation d’un changement de paradigme dans la relation patient-médecin. Or les maladies à déclaration obligatoires, ça existe déjà. Je veux bien qu’on pose la question concernant Covid-19, pourquoi les autorités le font sans l’expliciter, qu’est-ce qui serait différent ici, mais pas prétendre qu’on serait en train de changer de modèle de société à cause de ce point précis.

    • Oui les maladies (infectieuses) à déclaration obligatoire existent et aucun médecin n’a remis en cause le principe, je crois que c’est plutôt les nouveautés sur lesquelles cet article n’insiste peut-être pas assez... Je ne les connais pas bien mais il y a entre autres la rémunération à la pièce des médecins pour ces #données_personnelles, l’appli #StopCovid. On va aller creuser très loin sur des personnes ciblées parce qu’on n’a pas les moyens de faire des tests massifs ?

    • aucun médecin n’a remis en cause le principe

      Mais c’est très exactement le fondement de ce billet (par un médecin psychiatre) : exiger des médecins de communiquer les résultats des tests positifs est ici clairement présenté comme un changement de paradigme intolérable (trahison de la relation patient-médecin).

      Sur la rémunération à la pièce, certes. Mais considérer tout de même que si tu imposes un boulot à quelqu’un sans le payer, ça va aussi faire un scandale.

      Et encore une fois : ces considérations partent du principe que le traçage des contacts, dans la cas d’une maladie qui n’est ni sexuelle, ni chronique, serait par principe d’un coût exorbitant pour les individus (comme la séropositivité), et cela sans même considérer le rapport à une nombre de morts énorme, ou au choix d’euthanasier les vieux.

    • J’ai lu des médecins qui rappellent qu’on n’a pas besoin d’inventer de nouveaux process parce qu’ils ont déjà l’obligation de déclarer les maladies infectieuses et que ça ne leur pose pas de problème. Ce qui leur pose problème, c’est la nouveauté du dispositif.

  • Montpellier : après être allée chercher ses masques, une Montpelliéraine reçoit un étrange SMS

    C’est une banale histoire de drague qui dérape. Ce mercredi, une Montpelliéraine âgée de 30 ans se rend à la Maison de la Démocratie pour y récupérer les masques promis par la mairie de Montpellier. C’est alors qu’elle est draguée par l’agent d’accueil. Jusqu’ici rien de condamnable. Sauf que quelques minutes après avoir quitté la Maison de la Démocratie, la jeune femme reçoit un texto surprenant : « Bonjour (…) je vous ai croisé aujourd’hui à l’accueil de la distribution de masque et je dois l’avouer j’ai eu l’envie de vouloir faire votre connaissance…je sais que la démarche est un peu cavalière, ne m’en voulais pas (sic)…. si votre situation le permet j’aimerai vous revoir… »


    Depuis, la jeune femme, victime, s’est retrouvée coupable pour beaucoup d’internautes qui ont découvert son tweet et qui ne voient pas le mal dans l’exploitation de ses données personnelles. Pourtant elle l’assure, il ne s’agissait pas d’un comportement anodin : « il m’a effectivement lourdement draguée sur place mais à aucun moment je n’ai manifesté de réaction positive. Ça aurait donc dû en rester là. Mais quand je suis partie, il m’a suivie dans le couloir jusqu’à la sortie et m’a ensuite épiée un long moment depuis la porte… »

    J’adore le début de l’article : « C’est une banale histoire de drague qui dérape. […] C’est alors qu’elle est draguée par l’agent d’accueil. Jusqu’ici rien de condamnable. » Ben si, déjà, tout de même…

    (Je pense l’avoir déjà raconté, mais Montpellier c’est une ville dont un type de la mairie chargé du tourisme explique à la radio que, parmi les attraits touristiques de la ville, il y a notamment « la beauté de nos femmes ». Et c’est une affirmation apparemment banale ici.)

  • Le Conseil d’Etat suspend l’usage de drones par la préfecture de Paris

    La haute juridiction a sommé l’État, lundi 18 mai, « de cesser, sans délai, de procéder aux mesures de #surveillance par #drone », dans le cadre d’une procédure intentée par La Quadrature du Net et la Ligue des droits de l’homme. Cette suspension est effective jusqu’à la parution d’un arrêté ministériel.

    Les voix métalliques des drones ne se feront plus entendre à Paris : le Conseil d’État vient de les clouer au sol. La haute juridiction a sommé l’État, lundi 18 mai, « de cesser, sans délai, de procéder aux mesures de surveillance par drone », dans le cadre d’une procédure intentée par La Quadrature du Net et la Ligue des droits de l’homme (LDH).

    Les deux associations, dans un recours déposé le 4 mai, avaient estimé que l’utilisation de drones par la préfecture de police de Paris en lien avec les mesures de confinement était attentatoire aux libertés individuelles.

    Selon l’ordonnance du Conseil d’État, cette suspension est effective jusqu’à la parution d’un arrêté ministériel.

    Le 25 avril dernier, Mediapart avait publié un article sur le flou juridique qui entoure le déploiement de ces aéronefs par les forces de l’ordre depuis le début du confinement – plusieurs de ces appareils équipés de caméras orientaient les équipes de policiers au sol vers d’éventuels attroupements.

    Dix jours plus tard, La Quadrature du Net et la LDH déposaient un recours en urgence contre l’utilisation de drones par la préfecture de police de Paris. « Puisqu’ils sont déployés en l’absence de tout cadre légal spécifique et adapté, affirme alors La Quadrature du Net dans un communiqué, ce sont eux qui violent la loi et nos libertés. » D’abord déboutées par le tribunal administratif de Paris, les associations de défense des libertés font appel devant le Conseil d’État, espérant pouvoir tenir « un débat plus constructif ».

    Celui-ci se cristallise autour de deux questions centrales : le traitement des données personnelles recueillies par les drones permet-il d’identifier des individus ? Et comment sont utilisées ces données personnelles ?

    Le 14 mai, la veille de l’audience du Conseil d’État, la préfecture de police prend les devants. Elle communique à la haute juridiction une note, datée du jour même, clarifiant sa doctrine d’emploi des drones dans le cadre d’opérations de respect du confinement.

    Le document précise que les appareils ne seront plus utilisés que pour « informer l’état-major de la préfecture de police afin que puisse être décidé, en temps utile, le déploiement d’une unité d’intervention », et, surtout, qu’ils voleront entre « 80 et 100 mètres de hauteur », filmeront toujours « avec un grand angle » et ne seront pas équipés d’une carte mémoire.

    Avocat de la LDH, Me Patrice Spinosi estime que « voulant éviter une éventuelle censure, le ministère a modifié sa doctrine d’action et a décidé, dans le cadre de cette note, qu’il n’y aurait plus d’enregistrement ». Si le Conseil d’État reconnaît que cette doctrine fixée à partir du 14 mai « n’est pas de nature à porter, par elle-même, une atteinte grave et manifestement illégale aux libertés fondamentales », il considère néanmoins qu’elle n’est pas une garantie suffisante.

    Deux éléments centraux ont amené le Conseil d’État à conclure que le déploiement de ces drones pouvait constituer « un usage contraire aux règles de protection des données personnelles ». Le premier est le modèle des aéronefs, révélé dans l’article de Mediapart : des Mavic Enterprise, un produit du leader mondial du secteur, le chinois DJI. Dotés de « zooms optiques », pouvant voler « à une distance inférieure à celle fixée par la note du 14 mai », les appareils ne présentent, selon le Conseil d’État, « aucun dispositif technique » certifiant que les images collectés ne seront pas utilisables à des fins d’identification.

    La #police nationale et la #gendarmerie étant exemptées du cadre légal d’utilisation des drones – fixé par l’arrêté du 17 décembre 2015 –, du moment que « les circonstances de la mission et les exigences de l’ordre et de la sécurité publique le justifient », le Conseil d’État a également estimé que les drones pouvaient évoluer à des distances permettant une identification des individus. « On ne parle pas de reconnaissance faciale, mais de filmer avec une possibilité d’identifier l’individu par un vêtement ou sa silhouette », clarifie Martin Drago, de La Quadrature du Net.

    « Dans ces conditions, note le Conseil d’État, les données susceptibles d’être collectées par le traitement litigieux doivent être regardées comme revêtant un caractère personnel ». La juridiction exige que l’état cesse « sans délai, de procéder aux mesures de surveillance par drone » tant qu’un texte réglementaire, pris après avis de la Cnil, n’aura pas clarifié leur usage. Le champ d’action de cette décision dépasse le périmètre parisien, puisque tous les usages de drones policiers sont maintenant susceptibles de tomber dans l’illégalité. La LDH de l’Hérault a déjà affirmé avoir entamé des procédures en ce sens.

    « C’est une importante décision de principe, réagit l’avocat de la LDH, Me Spinosi. Le juge a estimé qu’il y avait traitement de données personnelles dans le seul fait de capter des images en temps réel, à partir du moment où l’appareil utilisé a les capacités de le faire. » Pour Martin Drago, cette première victoire n’est qu’un début et ouvre notamment le débat de « [l’]utilisation [des drones] durant les manifestations ».

    De son côté, la Cnil a indiqué dans un communiqué avoir débuté le 23 avril « des contrôles auprès du ministère de l’intérieur concernant l’usage de drones dans plusieurs villes. Ces contrôles visent des services de la police nationale et de la gendarmerie ».

    #surveillance #libertés_individuelles #données_personnelles #identification

  • Migrants sue German state over mobile phone searches

    In Germany, three migrants from Syria, Afghanistan and Cameroon are suing the state for accessing personal data on their mobile phones. A civil rights group taking part in the action says the phone searches are a serious invasion of privacy.

    29-year-old Syrian Mohammad A. was recognized as a refugee in Germany in 2015. Four years later, the German Office for Migration and Refugees (BAMF), reviewed his case – without giving a specific reason. During the review, they carried out an evaluation of his smartphone.

    “Suddenly the #BAMF employee told me to hand over my mobile phone and unlock it,” said Mohammad A. in a statement published by the Berlin-based Society for Civil Rights (GFF). “I didn’t know what was happening. Nothing was explained to me. But I was afraid of being deported. So I gave him the mobile phone. It felt like I was handing over my whole life.”

    Under a law passed in 2017, German authorities can examine the mobile phones of asylum seekers who are unable to present a valid passport on arrival, in order to verify information provided regarding identity. But the GFF, which filed the lawsuits together with the three refugees, says this represents “a particularly serious and extensive encroachment on the privacy of those affected.”

    Law fails to uncover false information

    The law permitting phone searches was meant to prevent “asylum abuse”. As many of those who arrive in Germany after fleeing their home countries cannot present a valid passport, it was seen as an effective way to detect fraudulent claims. However, the GFF says that despite thousands of such mobile phone searches, hardly any have uncovered false information.

    The GFF also argues that asylum authorities do not ensure that core areas of the asylum seekers’ rights are protected. “The BAMF is disregarding the strict constitutional rules by which the state must abide when accessing personal data,” Lea Beckmann from the GFF told Reuters.

    According to the news agency, a spokesman for BAMF said it was aware that checking mobile data was an intrusion and every case was determined by strict rules. “A mobile phone is often the only, or a very important, source to establish the identity and nationality of people entering Germany without a passport or identification documents,” he said.

    Privacy, transparency concerns

    The GFF argues that BAMF should be using mobile phone reading as a last resort, and that there are other, less drastic, means of clarifying doubts about identity. Mobile phone readouts are also extremely error-prone, the organization claims.

    The BAMF has also been criticized over a lack of transparency. For example, according to the GFF, little is known about how the software used to read and analyze the information obtained from phones actually works.
    Similarly, Reuters reports, the World Refugee Council has warned that consent for data collection is rarely sought and refugees often do not know how their data is used.

    Mohammad A.’s case is pending before a local court in the northwestern German city of Hanover. The case of an Afghan woman aged about 37 was lodged in Berlin and that of a 25-year-old woman from Cameroon, in the southwestern city of Stuttgart. The GFF hopes that the cases will lead to a constitutional review of the legal basis for mobile phone data evaluation.


    #smartphone #données #Allemagne #justice #asile #migrations #réfugiés #surveillance #données_personnelles #téléphone_portable #identité #identification #procédure_d'asile #nationalité

    ping @etraces @karine4 @_kg_

  • La Cnil s’inquiète d’un possible transfert de nos données de santé aux Etats-Unis

    Au nom de l’état d’urgence, le gouvernement a accéléré la mise en place du Health Data Hub, une plateforme devant centraliser la quasi-totalité de nos données de santé. Dans un avis, la Cnil relève, notamment, que le contrat « mentionne l’existence de transferts de données en dehors de l’Union européenne ». La directrice du projet, Stéphanie Combes, dément.

    Tandis que tous les yeux sont rivés sur les débats autour de l’application #StopCovid et du dispositif de fichage envisagé dans le cadre des enquêtes épidémiologiques de suivi des personnes infectées, le gouvernement a autorisé, au nom de l’état d’urgence sanitaire, le déploiement anticipé du Health Data Hub, la plateforme devant centraliser l’ensemble de nos données de santé, hébergées par #Microsoft et, s’inquiète la Commission nationale de l’informatique et des libertés (#Cnil), potentiellement transférables aux États-Unis.

    Alors que le projet était encore en cours de déploiement, et que tous les textes d’applications ne sont pas encore prêts, le gouvernement a pris le 21 avril dernier, au nom de l’état d’urgence sanitaire, un arrêté modifiant celui du 23 mars sur l’organisation du système de santé durant l’épidémie. Il autorise le Health Data Hub, ainsi que la Caisse nationale de l’assurance-maladie (Cnam), à collecter, « aux seules fins de faciliter l’utilisation des données de santé pour les besoins de la gestion de l’urgence sanitaire et de l’amélioration des connaissances sur le virus Covid-19 », un nombre considérable de données.

    Seront ainsi intégrées à la plateforme les données du Système national des données de santé (SNDS) qui regroupe lui-même les principales bases de données de santé publique, les « données de pharmacie », les « données de prise en charge en ville telles que des diagnostics ou des données déclaratives de symptômes issues d’applications mobiles de santé et d’outils de télésuivi, télésurveillance ou télémédecine », les données des laboratoires, celles des services d’urgence, « des enquêtes réalisées auprès des personnes pour évaluer leur vécu » ou encore celles issues du pourtant contesté SI-VIC, le système de suivi des victimes lors de catastrophes sanitaires qui, au mois d’avril dernier, avait été utilisé pour ficher des gilets jaunes.

    Le Health Data Hub récupérera aussi des données issues des enquêtes épidémiologiques instaurées par la loi de prolongation de l’état d’urgence sanitaire, dont celles du Système d’information national de dépistage populationnel (SIDEP), un fichier spécialement créé pour centraliser les résultats d’analyses des laboratoires. Comme l’explique un document du ministère de la santé que Mediapart a pu consulter, l’un des buts du SIDEP sera en effet de « permettre un réutilisation des données homogènes et de qualité pour la recherche ». « Dans le cadre du Health Data Hub », cette réutilisation se fera « avec un chaînage avec les autres données du SNDS ».

    Ce fichier « va aider à l’identification des cas car il permet d’avoir une visibilité sur les nombreux cas de contamination testés en dehors de l’hôpital », explique à Mediapart la directrice du Health Data Hub Stéphanie Combes. « Les données seront pseudonymisées », assure-t-elle.

    Autre ajout au Health Data Hub, l’arrêté prévoit une « remontée hebdomadaire » des données du programme de médicalisation des systèmes d’information (PMSI), qui comptabilise les actes médicaux facturés par les hôpitaux dans un but de gestion économique et administrative des établissements. « C’est essentiellement un fichier économique et qui peut avoir ses limites en fonction des usages, détaille Stéphanie Combes. Mais il comporte beaucoup d’informations intéressantes. Il comprend des codes qui permettent de déterminer chaque acte médical, et donc par exemple de savoir si le patient a été en réanimation. Croisées aux données de l’Assurance-maladie, elles permettront par exemple d’évaluer la comorbidité ou les facteurs de risque. »

    À quoi servira une telle concentration de données ? « Les outils numériques peuvent être une aide à la gestion de cette crise sanitaire », assure Stéphanie Combes, qui donne quelques exemples. « Il y a tout d’abord des outils d’aide à la modélisation de l’évolution de l’épidémie, en analysant notamment les passages aux urgences. On pourra également plus facilement évaluer l’efficacité des traitements grâce à ce qu’on appelle des “essais virtuels”, les “données de vie réelle” qui, croisées avec les données pathologiques, permettront de comprendre dans quels cas le virus se développe et donc de mieux suivre les patients à risque. Même si pour l’instant il est un peu trop tôt, on pourra analyser les parcours de soin des personnes ayant été contaminées. Enfin, à plus long terme, ces données permettront d’étudier les conséquences plus générales de cette crise, au-delà du virus lui-même. Je pense par exemple aux conséquences du confinement sur notre système de santé qui a entraîné le report de nombreux actes médicaux. On pourra mieux prévoir et organiser la reprogrammation de ces actes. »

    Pourtant, la publication de cet arrêté accélérant la mise en place du Health Data Hub n’est pas du goût de tout le monde. Lancé au printemps 2018 par Emmanuel Macron dans la foulée du rapport Villani sur l’intelligence artificielle, ce projet est en effet vivement contesté en raison des craintes relatives à la protection de la vie privée des usagers et faisait actuellement l’objet de discussions visant à apaiser les tensions.

    Le Health Data Hub avait été acté par la loi santé du 24 juillet 2019. Son but est de remplacer l’actuel SNDS qui centralise déjà les principaux fichiers de santé, dont celui de l’Assurance-maladie, tout en élargissant considérablement sa portée. À terme, toute donnée collectée dans le cadre d’un acte remboursé par l’Assurance-maladie sera centralisée dans le Health Data Hub, des données des hôpitaux à celles du dossier médical partagé ou celles des logiciels professionnels utilisés par les médecins et les pharmaciens.

    Cette concentration sans précédent de données de santé avait suscité immédiatement de vives inquiétudes, notamment de la Commission nationale de l’informatique et des libertés (Cnil). Dans un avis rendu sur la loi santé, elle soulignait qu’« au-delà d’un simple élargissement, cette évolution change la dimension même du SNDS, qui viserait à contenir ainsi l’ensemble des données médicales donnant lieu à remboursement ». La commission appelait « dès maintenant l’attention sur la problématique majeure du respect, en pratique, des principes de limitation des finalités et de minimisation des données par ces nouveaux traitements, évoluant dans un contexte d’accumulation de données pour alimenter les algorithmes d’intelligence artificielle ».

    De plus, le Health Data Hub est géré par un groupement d’intérêt public (GIP) chargé d’administrer l’ouverture des données à des acteurs extérieurs. Or, comme le soulignait la Cnil, la loi santé a également modifié les textes régissant ces accès afin de permettre leur utilisation par des acteurs privés. Jusqu’alors, les données personnelles de santé ne pouvaient être soumises à un traitement informatique que dans le cadre de « l’accomplissement des missions des services de l’État » ou « à des fins de recherche, d’étude ou d’évaluation » et « répondant à un motif d’intérêt public ». La loi santé a fait disparaître toute référence à une finalité scientifique pour ne conserver que le « motif d’intérêt public ».

    Enfin, et sans doute s’agit-il du point le plus bloquant, l’ensemble de ces données sera hébergé par le géant américain Microsoft.

    Comme le racontait Mediapart, ce projet était confronté à une fronde de plusieurs acteurs du monde médical. Les hôpitaux, notamment, possèdent déjà leurs propres bases de données, stockées dans des « entrepôts », qu’ils exploitent déjà par eux-mêmes. Beaucoup acceptent mal cette obligation de transférer, sans contrepartie, ce véritable patrimoine numérique, qui plus est pour que celui-ci soit centralisé à l’extrême et confié à un acteur soumis à la loi américaine qui peut, en théorie, le contraindre à offrir un accès à ces données aux autorités. Ces craintes avaient été notamment exprimées dans un courrier envoyé par le directeur de l’AP-HP Martin Hirsch au ministère de la santé et que Mediapart avait pu consulter.

    De plus, l’attribution de l’hébergement à Microsoft s’était faite sans appel d’offres, provoquant ainsi la colère d’autres acteurs du numérique français. Au mois de mars dernier, plusieurs d’entre eux avaient écrit au ministère de la santé pour dénoncer un délit de « favoritisme » et demander l’ouverture d’une enquête.

    Dans ce contexte particulièrement tendu, le déploiement du Health Data Hub devait se faire de manière progressive. La loi santé ne faisait que fixer les grands principes de la plateforme. De nombreux points, notamment son architecture, devaient être tranchés en collaboration avec la Cnil et l’Agence nationale de sécurité des systèmes d’informations (Anssi) avant de faire l’objet d’un décret qui n’a toujours pas été pris. Interrogé par Mediapart au mois de novembre, Thomas Dautieu, directeur de la conformité à la Cnil, se voulait pourtant rassurant. « La sécurité informatique est un sujet dont l’importance est bien prise en compte, nous expliquait-il. Nous avons des échanges réguliers et nous travaillons avec le ministère et avec l’Anssi sur ces questions. Il y a également la question des droits des personnes. C’est un aspect important. Nous avions demandé que les missions de la future plateforme incluent la protection des droits des patients, ce qui a été accepté. »

    Stéphanie Combes renvoie à « la page 11 du contrat »

    La mise en place accélérée du Health Data Hub est donc vue par beaucoup comme un passage en force. Et du côté de la Cnil, le ton s’est visiblement durci. Jeudi 23 avril, la commission a rendu un avis pointant de nombreuses inquiétudes, et dévoilant au passage quelques nouvelles informations sur le projet.

    La plus importante est sans doute que, contrairement à ce qui était jusqu’alors affirmé, des données confiées à Microsoft pourront bien être transférées aux États-Unis dans certains cas. Jusqu’à présent, les données devaient être stockées dans des serveurs gérés par le géant américain, mais localisés dans l’Union européenne. Selon la Cnil, qui a pu consulter le contrat liant le Health Data Hub à Microsoft, celui-ci prévoit bien une localisation par défaut des données au sein de l’UE. En revanche, « cette localisation ne s’applique qu’aux données “au repos”, alors même que le contrat mentionne l’existence de transferts de données en dehors de l’Union européenne dans le cadre du fonctionnement courant de la plateforme, notamment pour les opérations de maintenance ou de résolution d’incident ».

    La Cnil poursuit en soulignant que la législation américaine permet aux autorités de contraindre les entreprises à leur fournir leurs données. Elle rappelle « les inquiétudes […] concernant l’accès par les autorités des États-Unis aux données transférées aux États-Unis, plus particulièrement la collecte et l’accès aux données personnelles à des fins de sécurité nationale », notamment dans le cadre de la loi FISA. Elle rappelle que cette question fait d’ailleurs l’objet actuellement d’une procédure « soumises à la Cour de justice de l’Union européenne » et qu’« un arrêt de la Cour dans cette affaire est attendu dans les mois qui viennent ».

    Interrogée sur ce point, Stéphanie Combes dément pourtant les affirmations de la Cnil. « Nous ne sommes pas alignés sur cette phrase de l’avis. Le contrat prévoit en effet que des données peuvent être transférées par l’hébergeur dans certains cas, sauf indication contraire. Or, nous avons bien spécifié que les données ne devaient pas sortir du territoire français », explique-t-elle. La Cnil aurait-elle alors mal lu le contrat ? « Je ne dis pas ça. Mais je trouve que les faits sont un peu détournés. En tout cas, nous avons bien indiqué que les données ne pourront pas être transférées. Je peux même vous dire que c’est à la page 11 du contrat. »

    Peut-être encore plus inquiétant, la Cnil affirme que, même si les données stockées seront bien chiffrées « avec des algorithmes à l’état de l’art à partir de clés générées par les responsables de la plateforme sur un boîtier chiffrant maîtrisé par la plateforme des données de santé », les clefs de déchiffrement seront envoyées à Microsoft. « Elles seront conservées par l’hébergeur au sein d’un boîtier chiffrant, ce qui a pour conséquence de permettre techniquement à ce dernier d’accéder aux données », pointe l’avis de la commission.

    Elle s’inquiète également d’un manque d’encadrement des procédures d’accès des administrateurs de la plateforme. Dans l’étude d’impact du projet, « une fonctionnalité d’autorisation préalable des accès administrateurs » était bien prévue. Mais « la Commission relève que cette fonctionnalité ne semble pas mentionnée dans les contrats fournis. En outre, la Commission s’interroge sur l’effectivité de cette mesure qui ne semble pas couvrir la totalité des accès possibles ».

    Sur ce point, Stéphanie Combes explique qu’en effet les clefs de chiffrements des données seront générées par un « HSM » (Hardware Security Module), un « coffre-fort numérique » et envoyées à la plateforme ainsi qu’à Microsoft. Mais ces clefs « sont utilisées de manière automatique sans intervention humaine ».

    Concernant les accès des administrateurs, la directrice du Health Data Hub explique « qu’il peut y avoir un accès des administrateurs à certaines conditions. Mais pas n’importe lesquelles. Nous contrôlons ces accès et nous nous sommes engagés à refuser toute demande qui ne serait pas légitime. Nous avons totalement sécurisé cet aspect-là », assure-t-elle.

    La Commission remet en cause un autre engagement du Health Data Hub : les données mises à la disposition des porteurs de projets ne devaient pouvoir être utilisées qu’au sein de la plateforme, sans pouvoir les exporter. Si ce principe est maintenu, la Cnil s’interroge désormais dans son avis « sur l’effectivité du blocage de toute possibilité d’exportation » et semble indiquer que celle-ci sera en réalité possible dans certains cas. « En conséquence la Commission appelle le ministère à indiquer explicitement que toutes les fonctionnalités d’exportation des données seront totalement désactivées et inaccessibles aux utilisateurs », recommande l’avis.

    Sur ce point également, Stéphanie Combes dément. « Dans la plateforme, des contrôles tant techniques qu’organisationnels ont été mis en place pour garantir l’impossibilité d’exporter des données brutes. Seuls les résultats des recherches peuvent être exportés après contrôles. Je n’explique pas pourquoi la Cnil exprime des doutes à ce sujet car ce fonctionnement a été présenté dans nos séances de travaux communs et semblait leur convenir », explique-t-elle.

    La directrice du Health Data Hub et la commission sont en revanche d’accord sur un point : la durée de conservation des données. Dans son avis, la Cnil pointe en effet que « le projet ne mentionne pas de durée de conservation précise, s’agissant des données contenues dans l’entrepôt ». Elle « en déduit que les données ne devront être conservées dans celui-ci que pour la durée de l’état d’urgence sanitaire ». Elle précise cependant que celles-ci pourraient être conservées si le décret d’application de la loi santé à venir le prévoit. À condition que celui-ci soit pris avant la fin de l’état d’urgence. La Cnil « considère […] que dans l’hypothèse où l’adoption du cadre juridique de droit commun applicable à la plateforme des données n’aurait pu être finalisé à l’issue de l’état d’urgence sanitaire, l’ensemble des données collectées pendant cette période devra être détruit », indique l’avis.

    « En effet, les données ne sont censées être stockées que durant la période de l’état d’urgence sanitaire, acquiesce Stéphanie Combes. À sa fin, elles devront être détruites, sauf si un autre texte prévoit cette conservation lors de la mise en place finale du Health Data Hub. »

    « On a l’impression que le big data est une réponse magique »

    Sur la forme, la Cnil ne cache pas son étonnement de voir le gouvernement accélérer à ce point la mise en place du Health Data Hub, quitte à donner l’impression d’un passage en force. En effet, non seulement le projet ne dispose pas encore de cadre juridique et technique, mais il faisait en outre actuellement l’objet d’« un plan d’action conséquent de mise en œuvre de mesures de sécurité s’étalant sur une période de plusieurs mois ». « La Commission s’interroge donc sur les conditions de démarrage anticipé de la solution technique dans un contexte où la plateforme de données de santé a dû accomplir en quelques semaines des opérations, dont certaines structurantes, pour garantir la sécurité des données traitées, étaient prévues pour s’étaler sur plusieurs mois », souligne l’avis.

    « Nous avions prévu de mettre en production au début du mois de juin. L’arrêté a été pris fin avril. Cela ne fait que quelques semaines d’avance, plaide Stéphanie Combes. De plus, nous continuons à travailler avec la Commission. Ils étaient d’ailleurs présents à notre dernière réunion d’homologation. Les échanges ne sont pas du tout rompus. Nous allons leur montrer ce que nous avons mis en place. »

    Mais était-il vraiment nécessaire d’utiliser l’état d’urgence pour faire avancer le projet ? « Nous attendons toujours le décret qui va inscrire le Health Data Hub dans notre système santé, répond Stéphanie Combes. Il doit fixer notamment son catalogue, la liste des bases de données qui seront partageables. Pour être totalement transparente, je peux vous dire qu’actuellement, le Health Data Hub ne contient que les données de la base OSCOUR de Santé publique France qui enregistre les passages aux urgences. De plus, les projets qui nous sont présentés doivent respecter toutes les procédures. Il ne peut y avoir d’accès sans cadre clair. C’est pour cela que nous avions besoin d’un texte en attendant que ce décret soit pris. »

    Il n’en reste pas moins que le gouvernement va devoir composer avec les vives résistances que suscite ce projet et que cet arrêté et l’avis de la Cnil ont ravivées. Dès le 10 décembre, une tribune publiée dans Le Monde et signée par plus d’une centaine de personnes, dont de nombreux professionnels de la santé, appelait à « garder la main sur les technologies employées » et à « empêcher la privatisation de la santé » en favorisant des solutions alternatives comme le « partage d’algorithmes et de logiciels transparents et utiles aux patients ».

    Depuis la publication de l’arrêté, le collectif Interhop, composé de professionnels du secteur de la santé et de l’informatique médicale, a publié un nouvel appel. « Contrairement à l’avis de nombreux acteurs – Commission national informatique et des libertés, Ordre national des médecins, Conseil national des barreaux, hôpitaux –, le gouvernement français s’appuie sur le géant américain Microsoft pour stocker l’ensemble des données de santé, affirme-t-il. Nous appelons à la constitution d’un écosystème universitaire, médiatique, juridique, associatif et politique pour réaffirmer les valeurs d’autonomie et des “communs” et, pour faire naître un large débat de société. »

    Les informations de la Cnil selon lesquelles les données pourraient être transférées aux États-Unis par Microsoft, qui, de plus, disposerait des clefs permettant de déchiffrer les données, peuvent, si elles sont avérées, avoir un effet dévastateur sur le projet comme en témoigne cet appel, lancé par un médecin marseillais.


    « Je me souviens que, très tôt, des responsables du Health Data Hub étaient venus nous présenter le projet au CNRS et la question de Microsoft avait été l’une des premières posées », se rappelle Catherine Bourgain, chercheuse en génétique humaine et sociologie des sciences à l’Institut national de la santé et de la recherche médicale (Inserm).

    « Ce projet suscite beaucoup d’oppositions et de freins, poursuit la chercheuse. Les hôpitaux et les chercheurs trouvent exorbitant qu’on leur demande de transférer des données qu’ils ont collectées. J’ai par exemple un collègue de l’Inserm qui est responsable d’une grosse cohorte avec qui je discutais de ce sujet et qui me disait qu’il ne transférerait pas ses données en m’expliquant : “Si nous transférons nos données, c’est également la responsabilité liée à ces données que nous transférons.” Quand un chercheur récolte des données, il y a un contrat moral, et parfois même un contrat tout court, entre lui et la personne qu’il interroge. S’il perd la main sur ses données, comment pourrait-il savoir l’usage qui en sera fait ? »

    Et les autorités auraient tort de sous-estimer le poids de ces résistances, estime Catherine Bourgain : « Il y a le texte et il y a ce qu’en font les acteurs. Penser qu’un arrêté peut changer les pratiques du monde médical, c’est ignorer à quel point celui-ci est structuré par des élites, voire des baronnies, locales ou thématiques, avec une culture très forte de l’opposition. C’est un corps qui ne se laisse pas facilement dicter ce qu’il doit faire. »

    La chercheuse, elle-même, est sceptique sur l’utilité réelle du Health Data Hub. « Il y a une sorte de croyance dans les capacités des traitements algorithmiques, estime-t-elle. Le pari, c’est qu’on va pouvoir croiser des données avec un niveau de quantité très important, même si elles ne sont pas de bonne qualité, pour obtenir quelque chose. Mais beaucoup de spécialistes sont très sceptiques sur cette approche. On a l’impression que le big data est une réponse magique à tous les problèmes, permettant de compenser la qualité par la quantité. Mais cela relève surtout d’un rapport à la construction du savoir très déplacé car ne prenant pas en compte la valeur individuelle des données. »

    Stéphanie Combes, de son côté, reste optimiste. « Les gens du collectif Interhop ne représentent pas tout le monde hospitalier, attaque-t-elle. J’ai encore eu aujourd’hui des réunions avec les initiateurs de trois projets portés par des établissements hospitaliers de l’Est et du Grand-Ouest. Le Health Data Hub ne va pas remplacer les initiatives locales. Nous sommes là pour les favoriser, les aider notamment financièrement en leur proposant des partenariats, car nous avons des financements prévus pour cela. Je suis certaine que les premiers projets vont servir d’exemple et vont réussir à convaincre les autres de suivre. »

    Contactée par Mediapart, la Cnil n’a pas souhaité répondre à nos questions. Mais elle précise qu’elle reviendra « très prochainement » sur le sujet. Selon nos informations, un avis non sollicité par le gouvernement et ne concernant pas le décret doit être adopté jeudi prochain. Parallèlement, Stéphanie Combes sera auditionnée le même jour par la Commission. L’occasion de dissiper les malentendus ou de mettre les points sur les « i ».

    #santé #données_personnelles #big_data #big_pognon #épidémie #traçage

  • Scandaleux : chez Intermarché, pas de carte de fidélité, pas de masque de sécurité ! | L’Humanité

    Ils n’ont pas honte. L’enseigne commerciale Intermarché a réservé la vente de masques de protection... aux titulaires d’une carte de fidélité. De quoi engranger des milliers d’adresses mail et de coordonnées personnelles.

    L’occasion était trop belle. Alors que la grande distribution a mis en vente, ce lundi, des millions de masques de protection, certains ont flairé le bon filon pour capter une clientèle sous pression, inquiète à l’idée de ne pas pouvoir se procurer – par ses propres moyens – ce que l’État devrait mettre gratuitement à disposition de tous. Intermarché n’a pas hésité.

    Le 1er mai, Intermarché diffusait une publicité pour son programme de fidélisation enjoignant les potentiels clients à « créer (votre) carte de fidélité pour réserver (vos) masques ». Et de détailler la procédure pour accéder au précieux sésame : une fois la carte créée, il convient de remplir un formulaire afin de recevoir un bon de retrait pour un lot de « 50 masques à usage unique », vendu 29,54 euros. Trente millions d’unités ont été mises en vente par l’enseigne dès lundi. Et le patron du groupe, Thierry Cotillard, maintient ferme son objectif d’en écouler 90 millions dans les prochains jours. Les clients, eux, oscillent entre indignation et colère. Indignation de voir ainsi les gens « sélectionnés sur critères commerciaux », dénonce un internaute. Colère de ceux qui s’y sont laissés prendre et qui se sont retrouvés face à une fin de non-recevoir : « Nous sommes désolés, réservations complètes pour aujourd’hui, revenez demain », affiche l’écran après des heures d’attente.

    #post-capitalisme ?

  • Le gouvernement veut créer un #fichier pour les malades du coronavirus

    Le projet de loi du gouvernement prévoit la création d’un fichier spécifique rassemblant les noms des #malades du #Covid-19 ainsi que de leurs contacts. Et ce « sans le consentement » des personnes concernées.

    Comment assurer le #suivi des malades du Covid-19 et des personnes qu’ils ont croisées ? C’est pour répondre à cette question que le gouvernement entend créer un nouveau fichier, prévu par le projet de loi prorogeant l’#état_d’urgence_sanitaire, qui devrait être examiné par les parlementaires les 4 et 5 mai.

    L’article 6 du texte prévoit en effet que soient rassemblées dans un même fichier toutes les informations susceptibles d’aider à la reconstitution, par des « #brigades » d’#enquêteurs_épidémiologiques, des #relations de chacun. Le fichier, non anonyme, devrait ainsi contenir l’#identité des malades et les résultats de leurs #examens_biologiques, mais aussi plus largement la liste des personnes croisées au cours des derniers jours – car « présentant un #risque_d’infection » -, leur #adresse et leurs #déplacements. Et ce afin d’opérer, peut-on lire dans le texte du gouvernement une « #surveillance_épidémiologique aux niveaux national et local ».

    Plusieurs administrations auront accès aux données

    Le nouveau fichier, qui n’a aucun lien avec l’application de #traçage #StopCovid, dont Olivier #Véran a annoncé qu’elle ne serait pas prête le 11 mai, abritera ces #informations, d’abord collectées par le #médecin_traitant puis par les « brigades » de l’#Assurance_maladie. Des #données_personnelles extrêmement sensibles qui seront ensuite mises à la disposition non seulement des professionnels de santé en charge du suivi des personnes malades, mais aussi de plusieurs administrations comme le #ministère_de_la_santé, le service de santé des #armées, l’Assurance maladie et les #Agences_régionales_de_santé.

    Le dossier est d’autant plus sensible que les données dont il est question sont en partie couvertes par le #secret_médical. « Comme lorsque nous consultons un confrère à propos d’un patient ou lorsque nous envoyons à l’Assurance maladie les motifs médicaux d’arrêt de travail, nous serons dans le cadre d’un #secret_médical_partagé », assure le docteur Jacques Battistoni, président du premier syndicat de médecins généralistes, #MGFrance. Les #généralistes seront chargés de collecter les premières informations sur le « #premier_cercle » fréquenté par un malade dans le fichier. Ils ont d’ailleurs reçu un courrier en ce sens, jeudi 30 avril, signé par Nicolas Revel, le patron de l’Assurance maladie.

    « Je comprends que ce système puisse impressionner, car il contient des #informations_sensibles et personnelles, mais c’est un moindre mal. Il me semble vraiment indispensable si l’on ne veut pas que l’#épidémie reparte », souligne le docteur Battistoni.

    Une transmission de données « sans le #consentement des personnes »

    Autre question sensible, au cœur de ce nouveau fichier : la #transmission_des_informations qu’il contient sera opérée « sans le consentement des personnes intéressées », peut-on lire dans le projet de loi gouvernemental. Une précision qui inquiète plusieurs observateurs, comme le président de l’#Union_française_pour_une_médecine_libre (#UFML), le docteur Jérôme Marty. « Le consentement est l’un des socles de la médecine. Le fait de ne pas demander le consentement de son patient pour constituer un fichier est sans précédent. La situation d’#urgence ne peut pas tout justifier », alerte-t-il.

    « Imaginez le scandale si nous avions fait ce genre de fichiers pour le sida, poursuit-il. Cela pose un problème #éthique et déontologique important. » Ce praticien réclame l’avis Conseil de l’Ordre sur le sujet, mais aussi celui du Comité national d’éthique, de l’Académie de médecine, de la Cnil et du Conseil constitutionnel.

    « Garde-fous »

    « Que signifie cette absence de consentement ? », interroge quant à lui l’avocat Thierry Vallat. Ce spécialiste des données personnelles estime que des « #garde-fous » devront ainsi être nécessaires. « Il faut définir très précisément qui collectera les informations, la liste des informations précises, qui pourra y avoir accès et surtout pour combien de temps », insiste l’avocat. Sur ce dernier point, le gouvernement prévoit la disparition du fichier « au plus tard » un an après la promulgation de la loi.

    Mais surtout, l’avocat s’inquiète d’éventuelles #fuites de données. « Nous sommes dans un contexte exceptionnel où les services de l’État agissent très rapidement, et risquent de ne pas avoir le temps de sécuriser ce nouveau fichier. Or les données de santé font régulièrement l’objet de fuites, et elles sont extrêmement convoitées », estime-t-il.

    Dans l’ensemble, l’architecture de ce nouveau dispositif demeure assez floue. Et pour cause : il devrait ainsi être précisé, après coup, par un #décret d’application. Ce qui permettra de consulter la Cnil sur ce nouveau fichier. Jusqu’à maintenant, la Commission indépendante n’a en effet pas été sollicitée sur ce dossier sensible.

    #coronavirus #France #loi #déontologie
    ping @etraces @isskein

  • Monitoring being pitched to fight Covid-19 was tested on refugees

    The pandemic has given a boost to controversial data-driven initiatives to track population movements

    In Italy, social media monitoring companies have been scouring Instagram to see who’s breaking the nationwide lockdown. In Israel, the government has made plans to “sift through geolocation data” collected by the Shin Bet intelligence agency and text people who have been in contact with an infected person. And in the UK, the government has asked mobile operators to share phone users’ aggregate location data to “help to predict broadly how the virus might move”.

    These efforts are just the most visible tip of a rapidly evolving industry combining the exploitation of data from the internet and mobile phones and the increasing number of sensors embedded on Earth and in space. Data scientists are intrigued by the new possibilities for behavioural prediction that such data offers. But they are also coming to terms with the complexity of actually using these data sets, and the ethical and practical problems that lurk within them.

    In the wake of the refugee crisis of 2015, tech companies and research consortiums pushed to develop projects using new data sources to predict movements of migrants into Europe. These ranged from broad efforts to extract intelligence from public social media profiles by hand, to more complex automated manipulation of big data sets through image recognition and machine learning. Two recent efforts have just been shut down, however, and others are yet to produce operational results.

    While IT companies and some areas of the humanitarian sector have applauded new possibilities, critics cite human rights concerns, or point to limitations in what such technological solutions can actually achieve.

    In September last year Frontex, the European border security agency, published a tender for “social media analysis services concerning irregular migration trends and forecasts”. The agency was offering the winning bidder up to €400,000 for “improved risk analysis regarding future irregular migratory movements” and support of Frontex’s anti-immigration operations.

    Frontex “wants to embrace” opportunities arising from the rapid growth of social media platforms, a contracting document outlined. The border agency believes that social media interactions drastically change the way people plan their routes, and thus examining would-be migrants’ online behaviour could help it get ahead of the curve, since these interactions typically occur “well before persons reach the external borders of the EU”.

    Frontex asked bidders to develop lists of key words that could be mined from platforms like Twitter, Facebook, Instagram and YouTube. The winning company would produce a monthly report containing “predictive intelligence ... of irregular flows”.

    Early this year, however, Frontex cancelled the opportunity. It followed swiftly on from another shutdown; Frontex’s sister agency, the European Asylum Support Office (EASO), had fallen foul of the European data protection watchdog, the EDPS, for searching social media content from would-be migrants.

    The EASO had been using the data to flag “shifts in asylum and migration routes, smuggling offers and the discourse among social media community users on key issues – flights, human trafficking and asylum systems/processes”. The search covered a broad range of languages, including Arabic, Pashto, Dari, Urdu, Tigrinya, Amharic, Edo, Pidgin English, Russian, Kurmanji Kurdish, Hausa and French.

    Although the EASO’s mission, as its name suggests, is centred around support for the asylum system, its reports were widely circulated, including to organisations that attempt to limit illegal immigration – Europol, Interpol, member states and Frontex itself.

    In shutting down the EASO’s social media monitoring project, the watchdog cited numerous concerns about process, the impact on fundamental rights and the lack of a legal basis for the work.

    “This processing operation concerns a vast number of social media users,” the EDPS pointed out. Because EASO’s reports are read by border security forces, there was a significant risk that data shared by asylum seekers to help others travel safely to Europe could instead be unfairly used against them without their knowledge.

    Social media monitoring “poses high risks to individuals’ rights and freedoms,” the regulator concluded in an assessment it delivered last November. “It involves the use of personal data in a way that goes beyond their initial purpose, their initial context of publication and in ways that individuals could not reasonably anticipate. This may have a chilling effect on people’s ability and willingness to express themselves and form relationships freely.”

    EASO told the Bureau that the ban had “negative consequences” on “the ability of EU member states to adapt the preparedness, and increase the effectiveness, of their asylum systems” and also noted a “potential harmful impact on the safety of migrants and asylum seekers”.

    Frontex said that its social media analysis tender was cancelled after new European border regulations came into force, but added that it was considering modifying the tender in response to these rules.

    Drug shortages put worst-hit Covid-19 patients at risk
    European doctors running low on drugs needed to treat Covid-19 patients
    Big Tobacco criticised for ’coronavirus publicity stunt’ after donating ventilators

    The two shutdowns represented a stumbling block for efforts to track population movements via new technologies and sources of data. But the public health crisis precipitated by the Covid-19 virus has brought such efforts abruptly to wider attention. In doing so it has cast a spotlight on a complex knot of issues. What information is personal, and legally protected? How does that protection work? What do concepts like anonymisation, privacy and consent mean in an age of big data?
    The shape of things to come

    International humanitarian organisations have long been interested in whether they can use nontraditional data sources to help plan disaster responses. As they often operate in inaccessible regions with little available or accurate official data about population sizes and movements, they can benefit from using new big data sources to estimate how many people are moving where. In particular, as well as using social media, recent efforts have sought to combine insights from mobile phones – a vital possession for a refugee or disaster survivor – with images generated by “Earth observation” satellites.

    “Mobiles, satellites and social media are the holy trinity of movement prediction,” said Linnet Taylor, professor at the Tilburg Institute for Law, Technology and Society in the Netherlands, who has been studying the privacy implications of such new data sources. “It’s the shape of things to come.”

    As the devastating impact of the Syrian civil war worsened in 2015, Europe saw itself in crisis. Refugee movements dominated the headlines and while some countries, notably Germany, opened up to more arrivals than usual, others shut down. European agencies and tech companies started to team up with a new offering: a migration hotspot predictor.

    Controversially, they were importing a concept drawn from distant catastrophe zones into decision-making on what should happen within the borders of the EU.

    “Here’s the heart of the matter,” said Nathaniel Raymond, a lecturer at the Yale Jackson Institute for Global Affairs who focuses on the security implications of information communication technologies for vulnerable populations. “In ungoverned frontier cases [European data protection law] doesn’t apply. Use of these technologies might be ethically safer there, and in any case it’s the only thing that is available. When you enter governed space, data volume and ease of manipulation go up. Putting this technology to work in the EU is a total inversion.”
    “Mobiles, satellites and social media are the holy trinity of movement prediction”

    Justin Ginnetti, head of data and analysis at the Internal Displacement Monitoring Centre in Switzerland, made a similar point. His organisation monitors movements to help humanitarian groups provide food, shelter and aid to those forced from their homes, but he casts a skeptical eye on governments using the same technology in the context of migration.

    “Many governments – within the EU and elsewhere – are very interested in these technologies, for reasons that are not the same as ours,” he told the Bureau. He called such technologies “a nuclear fly swatter,” adding: “The key question is: What problem are you really trying to solve with it? For many governments, it’s not preparing to ‘better respond to inflow of people’ – it’s raising red flags, to identify those en route and prevent them from arriving.”
    Eye in the sky

    A key player in marketing this concept was the European Space Agency (ESA) – an organisation based in Paris, with a major spaceport in French Guiana. The ESA’s pitch was to combine its space assets with other people’s data. “Could you be leveraging space technology and data for the benefit of life on Earth?” a recent presentation from the organisation on “disruptive smart technologies” asked. “We’ll work together to make your idea commercially viable.”

    By 2016, technologists at the ESA had spotted an opportunity. “Europe is being confronted with the most significant influxes of migrants and refugees in its history,” a presentation for their Advanced Research in Telecommunications Systems Programme stated. “One burning issue is the lack of timely information on migration trends, flows and rates. Big data applications have been recognised as a potentially powerful tool.” It decided to assess how it could harness such data.

    The ESA reached out to various European agencies, including EASO and Frontex, to offer a stake in what it called “big data applications to boost preparedness and response to migration”. The space agency would fund initial feasibility stages, but wanted any operational work to be jointly funded.

    One such feasibility study was carried out by GMV, a privately owned tech group covering banking, defence, health, telecommunications and satellites. GMV announced in a press release in August 2017 that the study would “assess the added value of big data solutions in the migration sector, namely the reduction of safety risks for migrants, the enhancement of border controls, as well as prevention and response to security issues related with unexpected migration movements”. It would do this by integrating “multiple space assets” with other sources including mobile phones and social media.

    When contacted by the Bureau, a spokeswoman from GMV said that, contrary to the press release, “nothing in the feasibility study related to the enhancement of border controls”.

    In the same year, the technology multinational CGI teamed up with the Dutch Statistics Office to explore similar questions. They started by looking at data around asylum flows from Syria and at how satellite images and social media could indicate changes in migration patterns in Niger, a key route into Europe. Following this experiment, they approached EASO in October 2017. CGI’s presentation of the work noted that at the time EASO was looking for a social media analysis tool that could monitor Facebook groups, predict arrivals of migrants at EU borders, and determine the number of “hotspots” and migrant shelters. CGI pitched a combined project, co-funded by the ESA, to start in 2019 and expand to serve more organisations in 2020.
    The proposal was to identify “hotspot activities”, using phone data to group individuals “according to where they spend the night”

    The idea was called Migration Radar 2.0. The ESA wrote that “analysing social media data allows for better understanding of the behaviour and sentiments of crowds at a particular geographic location and a specific moment in time, which can be indicators of possible migration movements in the immediate future”. Combined with continuous monitoring from space, the result would be an “early warning system” that offered potential future movements and routes, “as well as information about the composition of people in terms of origin, age, gender”.

    Internal notes released by EASO to the Bureau show the sheer range of companies trying to get a slice of the action. The agency had considered offers of services not only from the ESA, GMV, the Dutch Statistics Office and CGI, but also from BIP, a consulting firm, the aerospace group Thales Alenia, the geoinformation specialist EGEOS and Vodafone.

    Some of the pitches were better received than others. An EASO analyst who took notes on the various proposals remarked that “most oversell a bit”. They went on: “Some claimed they could trace GSM [ie mobile networks] but then clarified they could do it for Venezuelans only, and maybe one or two countries in Africa.” Financial implications were not always clearly provided. On the other hand, the official noted, the ESA and its consortium would pay 80% of costs and “we can get collaboration on something we plan to do anyway”.

    The features on offer included automatic alerts, a social media timeline, sentiment analysis, “animated bubbles with asylum applications from countries of origin over time”, the detection and monitoring of smuggling sites, hotspot maps, change detection and border monitoring.

    The document notes a group of services available from Vodafone, for example, in the context of a proposed project to monitor asylum centres in Italy. The proposal was to identify “hotspot activities”, using phone data to group individuals either by nationality or “according to where they spend the night”, and also to test if their movements into the country from abroad could be back-tracked. A tentative estimate for the cost of a pilot project, spread over four municipalities, came to €250,000 – of which an unspecified amount was for “regulatory (privacy) issues”.

    Stumbling blocks

    Elsewhere, efforts to harness social media data for similar purposes were proving problematic. A September 2017 UN study tried to establish whether analysing social media posts, specifically on Twitter, “could provide insights into ... altered routes, or the conversations PoC [“persons of concern”] are having with service providers, including smugglers”. The hypothesis was that this could “better inform the orientation of resource allocations, and advocacy efforts” - but the study was unable to conclude either way, after failing to identify enough relevant data on Twitter.

    The ESA pressed ahead, with four feasibility studies concluding in 2018 and 2019. The Migration Radar project produced a dashboard that showcased the use of satellite imagery for automatically detecting changes in temporary settlement, as well as tools to analyse sentiment on social media. The prototype received positive reviews, its backers wrote, encouraging them to keep developing the product.

    CGI was effusive about the predictive power of its technology, which could automatically detect “groups of people, traces of trucks at unexpected places, tent camps, waste heaps and boats” while offering insight into “the sentiments of migrants at certain moments” and “information that is shared about routes and motives for taking certain routes”. Armed with this data, the company argued that it could create a service which could predict the possible outcomes of migration movements before they happened.

    The ESA’s other “big data applications” study had identified a demand among EU agencies and other potential customers for predictive analyses to ensure “preparedness” and alert systems for migration events. A package of services was proposed, using data drawn from social media and satellites.

    Both projects were slated to evolve into a second, operational phase. But this seems to have never become reality. CGI told the Bureau that “since the completion of the [Migration Radar] project, we have not carried out any extra activities in this domain”.

    The ESA told the Bureau that its studies had “confirmed the usefulness” of combining space technology and big data for monitoring migration movements. The agency added that its corporate partners were working on follow-on projects despite “internal delays”.

    EASO itself told the Bureau that it “took a decision not to get involved” in the various proposals it had received.

    Specialists found a “striking absence” of agreed upon core principles when using the new technologies

    But even as these efforts slowed, others have been pursuing similar goals. The European Commission’s Knowledge Centre on Migration and Demography has proposed a “Big Data for Migration Alliance” to address data access, security and ethics concerns. A new partnership between the ESA and GMV – “Bigmig" – aims to support “migration management and prevention” through a combination of satellite observation and machine-learning techniques (the company emphasised to the Bureau that its focus was humanitarian). And a consortium of universities and private sector partners – GMV among them – has just launched a €3 million EU-funded project, named Hummingbird, to improve predictions of migration patterns, including through analysing phone call records, satellite imagery and social media.

    At a conference in Berlin in October 2019, dozens of specialists from academia, government and the humanitarian sector debated the use of these new technologies for “forecasting human mobility in contexts of crises”. Their conclusions raised numerous red flags. They found a “striking absence” of agreed upon core principles. It was hard to balance the potential good with ethical concerns, because the most useful data tended to be more specific, leading to greater risks of misuse and even, in the worst case scenario, weaponisation of the data. Partnerships with corporations introduced transparency complications. Communication of predictive findings to decision makers, and particularly the “miscommunication of the scope and limitations associated with such findings”, was identified as a particular problem.

    The full consequences of relying on artificial intelligence and “employing large scale, automated, and combined analysis of datasets of different sources” to predict movements in a crisis could not be foreseen, the workshop report concluded. “Humanitarian and political actors who base their decisions on such analytics must therefore carefully reflect on the potential risks.”

    A fresh crisis

    Until recently, discussion of such risks remained mostly confined to scientific papers and NGO workshops. The Covid-19 pandemic has brought it crashing into the mainstream.

    Some see critical advantages to using call data records to trace movements and map the spread of the virus. “Using our mobile technology, we have the potential to build models that help to predict broadly how the virus might move,” an O2 spokesperson said in March. But others believe that it is too late for this to be useful. The UK’s chief scientific officer, Patrick Vallance, told a press conference in March that using this type of data “would have been a good idea in January”.

    Like the 2015 refugee crisis, the global emergency offers an opportunity for industry to get ahead of the curve with innovative uses of big data. At a summit in Downing Street on 11 March, Dominic Cummings asked tech firms “what [they] could bring to the table” to help the fight against Covid-19.

    Human rights advocates worry about the longer term effects of such efforts, however. “Right now, we’re seeing states around the world roll out powerful new surveillance measures and strike up hasty partnerships with tech companies,” Anna Bacciarelli, a technology researcher at Amnesty International, told the Bureau. “While states must act to protect people in this pandemic, it is vital that we ensure that invasive surveillance measures do not become normalised and permanent, beyond their emergency status.”

    More creative methods of surveillance and prediction are not necessarily answering the right question, others warn.

    “The single largest determinant of Covid-19 mortality is healthcare system capacity,” said Sean McDonald, a senior fellow at the Centre for International Governance Innovation, who studied the use of phone data in the west African Ebola outbreak of 2014-5. “But governments are focusing on the pandemic as a problem of people management rather than a problem of building response capacity. More broadly, there is nowhere near enough proof that the science or math underlying the technologies being deployed meaningfully contribute to controlling the virus at all.”

    Legally, this type of data processing raises complicated questions. While European data protection law - the GDPR - generally prohibits processing of “special categories of personal data”, including ethnicity, beliefs, sexual orientation, biometrics and health, it allows such processing in a number of instances (among them public health emergencies). In the case of refugee movement prediction, there are signs that the law is cracking at the seams.
    “There is nowhere near enough proof that the science or math underlying the technologies being deployed meaningfully contribute to controlling the virus at all.”

    Under GDPR, researchers are supposed to make “impact assessments” of how their data processing can affect fundamental rights. If they find potential for concern they should consult their national information commissioner. There is no simple way to know whether such assessments have been produced, however, or whether they were thoroughly carried out.

    Researchers engaged with crunching mobile phone data point to anonymisation and aggregation as effective tools for ensuring privacy is maintained. But the solution is not straightforward, either technically or legally.

    “If telcos are using individual call records or location data to provide intel on the whereabouts, movements or activities of migrants and refugees, they still need a legal basis to use that data for that purpose in the first place – even if the final intelligence report itself does not contain any personal data,” said Ben Hayes, director of AWO, a data rights law firm and consultancy. “The more likely it is that the people concerned may be identified or affected, the more serious this matter becomes.”

    More broadly, experts worry that, faced with the potential of big data technology to illuminate movements of groups of people, the law’s provisions on privacy begin to seem outdated.

    “We’re paying more attention now to privacy under its traditional definition,” Nathaniel Raymond said. “But privacy is not the same as group legibility.” Simply put, while issues around the sensitivity of personal data can be obvious, the combinations of seemingly unrelated data that offer insights about what small groups of people are doing can be hard to foresee, and hard to mitigate. Raymond argues that the concept of privacy as enshrined in the newly minted data protection law is anachronistic. As he puts it, “GDPR is already dead, stuffed and mounted. We’re increasing vulnerability under the colour of law.”

    #cobaye #surveillance #réfugiés #covid-19 #coronavirus #test #smartphone #téléphones_portables #Frontex #frontières #contrôles_frontaliers #Shin_Bet #internet #big_data #droits_humains #réseaux_sociaux #intelligence_prédictive #European_Asylum_Support_Office (#EASO) #EDPS #protection_des_données #humanitaire #images_satellites #technologie #European_Space_Agency (#ESA) #GMV #CGI #Niger #Facebook #Migration_Radar_2.0 #early_warning_system #BIP #Thales_Alenia #EGEOS #complexe_militaro-industriel #Vodafone #GSM #Italie #twitter #détection #routes_migratoires #systèmes_d'alerte #satellites #Knowledge_Centre_on_Migration_and_Demography #Big_Data for_Migration_Alliance #Bigmig #machine-learning #Hummingbird #weaponisation_of_the_data #IA #intelligence_artificielle #données_personnelles

    ping @etraces @isskein @karine4 @reka

    signalé ici par @sinehebdo :

  • Que penser du protocole de traçage des GAFAM ?

    .spacemargin-bottom : 1em ; Tribune de Guinness, doctorante en informatique et membre de La Quadrature du Net À l’heure où toutes les puissances de la planète se mettent à réfléchir à des solutions de traçage de contact (contact tracing),…

    #Données_personnelles #Surveillance

  • Un masque à Nice contre tes #données_personnelles


    Le 16 mars 2020 le maire de Nice C. #Estrosi annonce qu’il a été testé positif. Certains peuvent se passer de masques pour aller en EHPAD et ont le privilège de passer des tests. Les autres, vous aurez droit à un masque si vous acceptez de remplir le questionnaire.

  • Contenir la pandémie sans confinement ? COVID 2 - YouTube

    Dans cette vidéo, on explore les différentes options pour réduire le taux de reproduction effectif Rt. En dehors d’un confinement généralisé, il semble indispensable d’exploiter des solutions comme le contact tracing électronique. Cependant, celui-ci ne sera efficace que si une large proportion de la population l’utilise (l’effet est quadratique). Sa promotion massive semble donc critique.

    NB : Après la mise en ligne de cette vidéo, j’ai découvert ces deux autres publications qui estiment elles aussi que la fraction des contaminations pré-symptomatiques semblent ~50%. Voilà qui confirme l’importance du contact tracing pour réduire le taux de reproduction effectif.

    Lancez vos simulations épidémiologiques à la 3Blue1Brown :

    #COVID19 #coronavirus #simulations

    • Je vais essayer d’être diplomate (même si c’est pas gagné) car je comprends qu’avec l’inquiétude actuelle et l’impuissance dans laquelle nous sommes isolés, certaines personnes soient tentées de trouver dans le contact tracing une solution à étudier attentivement.
      Se consacrer à cela n’est-il pas un moyen efficace de se détourner de la réalité de la maladie et de ses effets de bord sociaux et politiques déjà à l’œuvre ?
      Pouvons nous essayé de prendre un peu de distance au lieu de rêver à un miracle technologique (que certain·es nomment le #bluff_technologique) pour analyser factuellement les proratas médicaux (tests/masques/soins hospitaliers), puis si il le faut vraiment creuser l’application du contact tracing d’un point de vue uniquement technique (comment marche le bluetooth et avec qui).
      Faire cela avant même d’activement se remémorer l’histoire de la mise en place exponentielle des moyens de surveillance globale de la population appuyés sur la peur et la précipitation depuis 25 ans ? avant même de penser qu’un tel basculement ne peut nous mener qu’à la mise en danger de la démocratie ?


    • De toute manière, sur une bonne partie de la population, ça ne marchera pas plus qu’un numéro vert pour un problème de société.

      1⃣ Il faut des téléphoner compatibles (et beaucoup de gens préfèrent des téléphones qui ne font qui téléphoner).
      2⃣ Il faut savoir les utiliser → on est toujours pas certains d’avoir réussi à expliquer à ma belle-mère comment avoir une téléconsultation avec sa psy.
      3⃣ ceux qui réunissent les 2 premières conditions sont les + susceptibles de savoir aussi contourner le dispositif au besoin.

      Donc, on arrête de perdre du temps sur des doudous stupides et on doit juste repenser toute l’organisation sociale…

    • C’est le problème rencontré en sécurité informatique où sur l’usage d’outils que nous pensons basiques, le dysfonctionnement est d’abord entre la chaise et l’écran.

      Un exemple aussi d’une grand-maman bien connue de mes services bisoux virtuels à qui j’ai envoyé un lien à cliquer pour pouvoir échanger par visio sur jitsi. Une heure au téléphone pour lui demander de cliquer sur le lien qu’elle avait reçu sur sa tablette (oui, la famille lui a offert une tablette second prix l’année dernière pour qu’elle reçoive de leurs nouvelles). Elle a abandonné, on devait se voir depuis Noël, on repoussait notre venue, voila, on ne se verra pas, même pas en visio.

      Cette dame de 83 ans sait toutefois se servir des textos, au grand dam de ses petits enfants qui reçoivent des SMS de trois mots quand ils se sont fendus d’un long texte bien écrit en beau français :)

    • D’autres points à considérer :

      – les outils technologiques de surveillance de masse existent déjà, qu’on le veuille ou non ; si les services de renseignement veulent tracer où tu as été et qui tu as fréquenté, c’est déjà faisable, et sans doute déjà fait dans de nombreux pays, comme l’a montré Snowden ;

      – Facebook, c’est 37 millions d’utilisateurs actifs chaque mois en France. Prétendre que les gens ne sont pas équipés, ne savent faire, ou qu’ils ne veulent pas se faire fliquer, c’est une vue de l’esprit ; il y a de nombreuses difficultés avec les logiciels « privacy first », mais l’aspect diffusion/acceptabilité ne me semble pas le plus complexe ;

      – une question qui se pose de manière extrêmement urgente, c’est de savoir si les États vont utiliser cet épisode pour officialiser les outils les plus intrusifs et répressifs, où si l’on peut refuser l’officialisation des outils tels qu’ils sont ouvertement utilisés dans l’autres pays, et pousser pour aller vers les outils conçus par des spécialistes du « privacy-first » plutôt que par Palantir et avec une absence à peu près totale de contrôle démocratiqu ;

      Dit autrement : les outils de surveillance de masse existent déjà, mais leur valeur répressive est relativement limitée, parce que leur utilisation n’est pas officielle (c’est du domaine du renseignement, qui est certes très problématique, mais qui est plus ou moins limité). Si on officialise ces outils dans le cadre de l’épidémie, on change d’échelle, et leur valeur répressive restera, parce qu’on aura accepté ça cette fois. Une fois qu’on aura officialisé l’idée qu’un outil à la Palantir est utile en étant accessible aux flics « de terrain » et peut être utilisé dans une procédure juridique (démontrer que tu n’as pas respecté le confinement plusieurs fois de suite), ça restera si on invoque le terrorisme, les black blocks, les néonazis, les violeurs pédophiles ou je ne sais quoi. L’alternative envisagée, c’est donc de proposer l’utilisation d’outils conçus pour ne pas pouvoir être utilisés de manière répressive (parce que sans moyens d’identification) mais qui rempliront le même but (limiter la propagation de l’épidémie), retirant ainsi la « justification » de l’utilisation de moyens intrusifs.

      – le grand risque, c’est que le déconfinement soit suivi, moins d’un mois après, par une hausse brutale des contaminations et l’imposition dans l’urgence d’un second confinement ; s’il y a échec du déconfinement (et ça nous semble à tous très probable), la question des libertés publiques deviendra tellement accessoire qu’on va pleurer. Si l’État se retrouve avec un second confinement et absolument tout le monde qui exige de lui de trouver immédiatement une solution (Saint Raoult priez pour nous), je n’ai rigoureusement aucune doute, mais alors aucun, que les méthodes instaurées seront d’une violence que l’on pense aujourd’hui impossible. Croire qu’on échappera alors à Palantir et à la surveillance électronique renforcée (tout ça sera de toute façon réclamé par la population), ça me semble dangereusement naïf. On prendra le logiciel et les méthodes de flicage sud-coréens, au mieux, et on les appliquera à la Lallement, et ce ne sera plus du tout discutable.

      – dans l’immédiat, on n’a pas le droit de sortir de chez nous, si on le fait c’est avec la crainte de tomber sur des flics, on n’a pas le droit de se rencontrer, on n’a pas le droit de manifester, on n’a pas le droit d’aller voter, l’effondrement économique a aussi pour conséquence qu’on a de moins en moins la possibilité de subvenir aux besoins de sa famille (je ne suis pas pour le « tout économique », mais tout de même), ce sont les plus faibles socialement et physiquement qui en prennent plein la gueule les premiers, etc. On n’est pas dans une situation où il y aurait des choix parfaits, et où l’on peut considèrer des absolus quant à nos libertés. Parce que pour l’instant et pour une période dangereusement longue, notre libertés fondamentales sont déjà abolies (aller et venir, rassemblement, démocratie, éducation…).

      – l’autre grosse alternative, et c’est certainement la solution qui se met en place sans le dire explicitement, c’est l’immunité de groupe (malgré les doutes sur l’immunité). Le confinement ne sert dans cette optique qu’à atteindre un niveau d’acceptabilité, dans nos démocraties, au fait qu’on va laisser crever une partie de notre population. Le coût d’un second confinement serait tellement intolérable que la population acceptera ce choix, initialement indéfendable. Depuis une semaine, on a d’ailleurs en France toute une littérature qui fleurit allant dans ce sens.

      Du coup, dans cette logique (et dans un sens donc contraire aux considérations précédentes), on peut suspecter que l’annonce du logiciel soit, justement, une sorte de gri-gri destiné à calmer l’opinion et justifier le déconfinement, et pouvoir dire, s’il y a trop de morts, que vous voyez bien, on avait tout mis en place, mais les gens n’ont pas voulu utiliser l’outil qu’on leur avait proposé. (Donc c’est la faute aux gens.)

    • Tout comme Arno, je pense que la plupart des gens vont installer l’appli sans sourciller, tout comme ils utilisent Facebook et tous les services de Google... Il n’y a qu’à voir aussi comment en ce moment tout le monde se rue sur Zoom malgré tous les articles et avertissements qu’on peut lire partout, alors que des alternatives tout aussi pratiques (voire mieux) et open-source existent, comme jitsi. La question est donc d’exiger une appli qui ne fera que du tracking anonyme et rien d’autre. J’y crois moyen et en même temps j’ai une petite lueur d’espoir depuis que j’ai vu que le code de leur formulaire d’attestation dérogatoire était publié sur Github (même si on peut toujours penser que le code effectivement mis en œuvre n’est pas tout à fait celui qui nous est présenté).

    • – les outils technologiques de surveillance de masse existent déjà, qu’on le veuille ou non ; si les services de renseignement veulent tracer où tu as été et qui tu as fréquenté, c’est déjà faisable, et sans doute déjà fait dans de nombreux pays, comme l’a montré Snowden ;

      Tu fais des suppositions non démontrées et en avançant ainsi tu considères que personne n’y peut rien et tu invites à renoncer à dénoncer les différents procédés de surveillance et de suivi. L’argument du on le sait déjà n’est pas recevable, parce qu’il tient du fantasme paranoïaque, ça ne veut pas dire que c’est faux, mais qu’il y a certaines formes de surveillance. Heureusement qu’il existe encore des moyens d’y échapper.

      – Facebook, c’est 37 millions d’utilisateurs actifs chaque mois en France. Prétendre que les gens ne sont pas équipés, ne savent faire, ou qu’ils ne veulent pas se faire fliquer, c’est une vue de l’esprit ; il y a de nombreuses difficultés avec les logiciels « privacy first », mais l’aspect diffusion/acceptabilité ne me semble pas le plus complexe ;

      Merci de citer tes sources. 37 millions de comptes actifs, ce n’est pas 37 millions de personnes. Ce n’est pas une vue de l’esprit de se rendre compte que les personnes les plus exposées sont des personnes qui ne sont pas équipées en smartphone. On ne parle pas d’un ordinateur à la maison.

      – une question qui se pose de manière extrêmement urgente, c’est de savoir si les États vont utiliser cet épisode pour officialiser les outils les plus intrusifs et répressifs, où si l’on peut refuser l’officialisation des outils tels qu’ils sont ouvertement utilisés dans l’autres pays, et pousser pour aller vers les outils conçus par des spécialistes du « privacy-first » plutôt que par Palantir et avec une absence à peu près totale de contrôle démocratique ;

      Il y a urgence de masques et de tests, de lits d’hopitaux mais certainement pas urgence de la mise en place d’une surveillance sociale de masse électronique telle qu’elle voudrait s’imposer actuellement. N’oublions pas le contexte politique, voir la différence de gestion sanitaire en Allemagne et en France, on parle bien d’un but sanitaire et tout concoure à montrer le contraire. Je continue de dire que nous nous épuisons dans un débat technologique qui ne devrait pas avoir lieu et qui est une façon de nous détourner des réalités catastrophiques.

      Je peux malheureusement répondre oui à la première question, parce que cela se vérifie à chaque crise depuis 25 ans, les libertés se réduisent aux profits d’un Etat sécuritaire, toute occasion est bonne et les tenants de la surveillance électronique, du croisement de fichiers et du traçage sont des lobbyistes très actifs, de type Babinet (video youtube du 1er avril), qui n’ont aucune limite ni scrupule politique à t’exposer que les mails sont une source à prendre en compte dans le dossier médical multidatas qu’ils promeuvent et qui rêvent de fermer la CNIL déjà réduite à rien. Concernant Palentir, c’est une boite américaine qui analyse pour la DGSE et autres services secrets français les résultats des données collectées en france. Ça me laisse toujours pontoise de réaliser que les français sont carrement naïfs ou que nous sommes simplement toujours dans les mains des mêmes industriels du complexe militaro industriel depuis 1941 qui font croire à une guerre économique entre pays alors qu’elle est entre classes dominantes et les 99% qui subissent leurs incompétences délirantes et leurs fantasmes de contrôle total. Mais oui, je pense que ce sera Palantir et Consorts et même pire.

      Pour revenir à la croyance en des alternatives de traçage, à partir du moment où les principes démocratiques sont baffoués parce qu’il y aura violation de la vie privé via une technique de suivi personnalisé (sous des prétextes fallacieux car je répète que l’efficience sanitaire du traçage est loin d’être prouvée), qu’elle soit anonyme ou pas ne change rien (il n’y a pas d’anonymat dans du traçage), ni de garanti par un encadrement de la CNIL qui a appris à aplatir ses prérogatives chaque fois qu’un échelon supplémentaire est franchi.

      Je vois plutôt se profiler une surveillance de multiples sources justifiée par une meilleure efficience et surtout pour notre bien sanitaire. FB+internet+conversations filtrées+Géolocalisation+traçage+biométrie+rfid+ saupoudrage d’un peu d’alternatifs pour faire plaisir aux geeks qui rêvent d’un monde libre informatisé et faire croire que tout est sous contrôle démocratique.

      Nos avis démocratiques ne pèseront pas grand chose face aux milliards de $ que pèsent les données de santé et de profilage, surtout pour sauver des vies dont ils se foutent totalement. Ce qui m’intéresse à regarder actuellement c’est la méthode de persuasion qui va être utilisée. Ça suit son cours et la diversion fonctionne à merveille …

      Dit autrement : les outils de surveillance de masse existent déjà, mais leur valeur répressive est relativement limitée, parce que leur utilisation n’est pas officielle (c’est du domaine du renseignement, qui est certes très problématique, mais qui est plus ou moins limité). Si on officialise ces outils dans le cadre de l’épidémie, on change d’échelle, et leur valeur répressive restera, parce qu’on aura accepté ça cette fois. Une fois qu’on aura officialisé l’idée qu’un outil à la Palantir est utile en étant accessible aux flics « de terrain » et peut être utilisé dans une procédure juridique (démontrer que tu n’as pas respecté le confinement plusieurs fois de suite), ça restera si on invoque le terrorisme, les black blocks, les néonazis, les violeurs pédophiles ou je ne sais quoi. L’alternative envisagée, c’est donc de proposer l’utilisation d’outils conçus pour ne pas pouvoir être utilisés de manière répressive (parce que sans moyens d’identification) mais qui rempliront le même but (limiter la propagation de l’épidémie), retirant ainsi la « justification » de l’utilisation de moyens intrusifs.

      Prends juste l’exemple de Tarnac, avec Coupat qui est soupçonné parce qu’il n’a pas de téléphone portable, la répression est déjà là et n’a pas besoin de notre accord pour se déployer. La technique le permet, la répression suit, l’accompagne. Ce n’est pas de quelle manière cela va se déployer, ni si il y a anonymat ni si les intentions sont louables, mais si nous savons faire bloc contre cette hallucination collective pro technosurveillance. Je préfère me battre contre toutes les prisons car il n’y a pas de prison alternative.

      – le grand risque, c’est que le déconfinement soit suivi, moins d’un mois après, par une hausse brutale des contaminations et l’imposition dans l’urgence d’un second confinement ; s’il y a échec du déconfinement (et ça nous semble à tous très probable), la question des libertés publiques deviendra tellement accessoire qu’on va pleurer. Si l’État se retrouve avec un second confinement et absolument tout le monde qui exige de lui de trouver immédiatement une solution (Saint Raoult priez pour nous), je n’ai rigoureusement aucune doute, mais alors aucun, que les méthodes instaurées seront d’une violence que l’on pense aujourd’hui impossible. Croire qu’on échappera alors à Palantir et à la surveillance électronique renforcée (tout ça sera de toute façon réclamé par la population), ça me semble dangereusement naïf. On prendra le logiciel et les méthodes de flicage sud-coréens, au mieux, et on les appliquera à la Lallement, et ce ne sera plus du tout discutable.

      Depuis le début du covid le gvt nous mène en bateau, je n’ai aucun doute qu’on arrivera à palentir par un chemin ou un autre et en plus avec l’assentiment de la population et le chemin le plus court trouvé pour le moment c’est de laisser travailler les « alternatifs » dessus, histoire que la gauche technophile se foute bien sur la gueule.

      – dans l’immédiat, on n’a pas le droit de sortir de chez nous, si on le fait c’est avec la crainte de tomber sur des flics, on n’a pas le droit de se rencontrer, on n’a pas le droit de manifester, on n’a pas le droit d’aller voter, l’effondrement économique a aussi pour conséquence qu’on a de moins en moins la possibilité de subvenir aux besoins de sa famille (je ne suis pas pour le « tout économique », mais tout de même), ce sont les plus faibles socialement et physiquement qui en prennent plein la gueule les premiers, etc. On n’est pas dans une situation où il y aurait des choix parfaits, et où l’on peut considèrer des absolus quant à nos libertés. Parce que pour l’instant et pour une période dangereusement longue, notre libertés fondamentales sont déjà abolies (aller et venir, rassemblement, démocratie, éducation…).

      C’est assez bien vendu en effet mais je n’achète pas.

      – l’autre grosse alternative, et c’est certainement la solution qui se met en place sans le dire explicitement, c’est l’immunité de groupe (malgré les doutes sur l’immunité). Le confinement ne sert dans cette optique qu’à atteindre un niveau d’acceptabilité, dans nos démocraties, au fait qu’on va laisser crever une partie de notre population. Le coût d’un second confinement serait tellement intolérable que la population acceptera ce choix, initialement indéfendable. Depuis une semaine, on a d’ailleurs en France toute une littérature qui fleurit allant dans ce sens.

      Disons que laisser mourir des personnes et même les euthanasier sans leur accord ni celui de leurs familles sous prétexte qu’ils auraient peut-être le covid et qu’il n’y a pas assez de lits en réanimation c’est aujourd’hui et maintenant en france. Ça me suffit pour voir que ce gouvernement n’en a absolument rien à foutre de sa population et que s’il faut s’allier aux pires des américains pour réaliser le grand panoptique de surveillance cette crise servira comme excellent prétexte et au lieu de tests et de masques et de lits d’hopitaux, tout le monde demandera des drones et du traçage et de la répression bien entendu.

      Du coup, dans cette logique (et dans un sens donc contraire aux considérations précédentes), on peut suspecter que l’annonce du logiciel soit, justement, une sorte de gri-gri destiné à calmer l’opinion et justifier le déconfinement, et pouvoir dire, s’il y a trop de morts, que vous voyez bien, on avait tout mis en place, mais les gens n’ont pas voulu utiliser l’outil qu’on leur avait proposé. (Donc c’est la faute aux gens.)

      Oui, parfaitement d’accord, c’est la méthode de persuasion qui sera probablement utilisée, le #bluff_technologique, one more time.

    • Pour poursuivre mes propos, voila comment avec #stopcovid les bonimenteurs du traçage numérique des #données_personnelles sensibles commes les #données_de_santé peuvent enfin placer leurs discours : ici le babinet national, qui refuse de dire pour quelles entreprises il travaille (YT V4yf3HOEHPk) mais dispose de sa place en tant que #digital-champion (sic) français (groupe des conseillers au numérique européen). Souvenez-vous, c’est lui qui voulait fermer la CNIL et sert ici de conseil au smartank de l’#institut_Montaigne (Bébéar), ne vous méprenez pas sur le style alternatif cool sympa qu’il se donne, ce qu’il propose est bien une #société_de_contrôle totalitaire avec profilage médical de chacun·e basé sur l’aspiration de données provenant de sources diverses comme les données d’alimentation ou la lecture des emails …
      extrait de la vidéo

      1er avril 2020

      Comment ça, vous ne saviez pas à quoi vous attendre avec la république numérique de Macron ?

      Friday, 20 March

      In his address to the IIEA, Gilles Babinet will offer his perspective on the future of innovation in Europe and discuss the French Government’s work on innovation and startups (Visa Tech, Next40). He will comment on the implications of europeanisation as French efforts increasingly focus on French champions. Gilles Babinet will also discuss issues such as 5G, connected objects, the need for an overarching ecosystem and how to prepare for it.

    • De Moreno à #Babinet, vive la France. Merci @touti.
      Des notes partielles et hachetagueuses dont vous pouvez vous passer car elles sont peu utilisables (à l’envers de seenthis, je le crains).
      #biopolitique et #biopouvoir se cuisinent en public sur FB dans une ambiance de coolitude concentrée, Kuhn, Vermer et tant d’autres à la rescousse. Bracelet brésilien, faut voir la tronche du type et entendre son phrasé, dans une micro Station F humanisée par des plantes, il regarde dans sa pensée et l’avenir, et pas la caméra, mais au dessus d’elle, en contre plongée façon Mussolini 2.0 ou Psychose d’Hitchcock, c’est comme à Paris, on ne reconnait plus bien bien les fascisants, et les nombreux bourges qui se la jouent n’importe qui (camouflage social et politique : il y aurait donc une guerre quand même ?).

      #bio-statistique #économie_comportementale #paradigme (changement voire rupture de), des #données_structurées à la #règle_des_trois_V : #volume #vélocité #variété ce qui donne accès et lisibilité à des #données_non_structurées : #compte_rendu_médicaux #dossiers_patients #données_cohorte
      et une foule d’autres (voir capture d’écran dans le seen de Touti) après avoir été limité par une #malédiction_dimensionnelle qui contraignait à des #extractions, celle-ci cède le pas avec l’#IA et le # machine_learning, #_google_flew_ « a été critiqué » mais montrait le chemin #géolocalisation #mels #données_Gafam #données_privées, tout doit y passer car rien de ce qui est humain ne nous est étranger.
      oui, oui, oui, « on conçoit qu’il y a des risques #privacy »
      santé, « il n’y a jamais eu de réduction de l’investissement » (tour de passe-passe quantitativiste qui ne dit rien des usages de l’argent, de leurs implication ou de la qualité de soin), ce qui domine c’est la « dépense hospitalière plus que la médecine de ville dans ce modèle », là on s’approche d’un os, puis d’un autre : « #prévention moins financée qu’ailleurs » (intégration et renversement de la critique).
      La #santé_algorithmique bouleverse l’#épidémiologie. Il s’agit de #détecter_en_amont (ce que fait une partie de « l’Asie ou la concentration de population fait tourner le dos au modèle européen »), de pratiquer une #épidémiologie_prédictive (et avant non ? la rétrospection était pas destinée à prévoir ?)
      « #tranversalisation, plutôt que bureaucratie et ses silos » (là aussi reprise de la critique de la segmentation/séparation, à ses propres fins : des solutions pour #money_makers).
      #épidémiologie_de_masse (pléonasme, l’épidémiologie taffe sur la population) : « regarder comment les gens se déplacent, par grappe ou de façon individuelle »
      #hôpital_de_ville #back_tracking #contrôle_de_la_quarantaine
      En #Estonie, c’est remarquable (Demain tous estoniens, livre) : « on voit quand un fonctionnaire regarde ses données, si ce n’est pas justifié, on peut gagner son procès », « obtenir des sanctions » (jusqu’à la prison pour un fonctionnaire, on a pas dit un patron de labo ou un ministre mais quand même, c’est beau comme la démocratie), ça nécessite un #parquet_indépendant (...) et la réduction du #pouvoir_administratif.
      #épidémiologues_2.0 « capables de se mettre à la hauteur d’une vison politique » (de politiques qui se foutent de l’épidémiologie, à voir les deux mois qui viennent de passer ? ça risque pas de faire dégringoler encore l’épidémiologie ? Il ya une épidémiologie à détruire pour en imposer une autre ?)
      #États et #plate_forme ? Il faut un #État_plateforme pour une société inclusive ! Un État autonome du privé (...), de l’#empowerment ( sic ) du #citoyen (...), « faire du #réveil_de_la_société_civile un levier ». Fonder la politique menée sur la liberté des sujets pour faire marcher la société de concurrence, adopter un néolibéralisme authentique plutôt que de jouer Clémenceau et autres « pères de la Nation », Macron en tombe par terre.
      Avec la révolution numérique, on a une #technologie_de_l'aplatissement (Stallman avec nous !), avec ses travers, dont les #Gafam (...), faut jouer à plein cette #révolution_numérique contre le pli du #colbertisme, ce mal français qui est une qualité du « communisme » chinois selon nombre des coreligionnaires de Balbinet (nombreuses sont les demeures dans la maison du père, et chez maman cybernétique, c’est pareil, comme dirait Brigitte Fontaine).
      Là, « la collaboration Gafam/États avance grâce à l’urgence, par exemple les fake-news sur les gestes barrière sont retirées. » Reste que les flutes incohérentes de Trump, Bolsonaro, Johnson, Macron, quelques collègues à eux et leurs cliques respectives, et malheureusement les Gafam y peuvent rien, Twitter bloque pas Trump et pis c’est la faute à LCI. Si ces Gafam « c’est pas forcément de l’abus de position dominante mais il faudrait de l’anti-trust... les démanteler, les granulariser pour plus de #darwinisme », le #bien_commun étant représenté par les États (mais oui mais oui).
      L’#Europe, ça pourrait être une chance, « on a le plus grand nombre de publications_scientifiques », on peut jouer un rôle mondial : si #prise_de_température_dans_les-Aéroports et que ça monte au dessus de la moyenne, hop !
      « Dommage qu’il y eu le scandale #Cambridge_Analytica ça a freiné, arrêté ; les opérateurs télécoms ont fermés l’accès aux données de traces. »
      #RGPD préservation des données individuelles, ça a « valeur constitutionnelle, c’est bien. Mais c’est compliqué. Ça empêche l’expérimentation. »
      "Je milite pour un #Numérique_inclusif " (tu m’étonnes !).
      Le #privacy_by_design, ça existe, c’est bien, les infos remontent pas vers un sytème central (exemplairement à Singapour lors de Covid-19) « mais si vous voulez un #governement_by_the_plattform, c’est tout autre chose et il faut des contre pouvoir ».
      « J’ai travaillé sur la carte vitale en 1991, il y avait les fonctionnalités du #DMP dedans, le système c’est enrayé. Là il y un regain volontariste : DMP et #Health_data_hub » pour centraliser tout type de données.
      Les DMP dans le monde ont essuyé des échecs (G-B par exemple). « Forts de ces échecs ont a des garde fous. Il a déjà 5 millions de personnes qui ont ouvert un DMP en France, c’est pas mal. »

      #Afrique, il y a de quoi s’inquiéter, faut espérer que la pandémie arrive plus tard là-bas vu l’absence de système de santé, ça va être dur, très dur, mais « le Nigéria et l’Angola avec leur expérience ébola ont monté des équipes extra, j’espère qu’on va pouvoir leur chiper des méthodes. » "Ce qui compte c’est qu’il y ait le moins de morts possibles."

      Argument sanitaire ? Je dirais zéro, si ce n’est la promesse de prédire (une vraie science de la vie de troupeau).
      C’est la société de contrôle qui mute : il faut trouver d’autres moyen de faire produire les données existantes, toues nos traces de vie, en faite des expressions lisibles pour la gouvernance.
      La Boétie, revient ! ton meilleur pote est ressuscité, il est plus le même du tout, celui que tu as connu se haïrait, il a besoin de toi.


  • Les personnels et étudiant·e·s de l’Université de Strasbourgs ont-ils mis sous #surveillance ?
    (Communiqué de presse du 20 février 2020)

    Les départements de sûreté intérieure se multiplient dans les #universités, les sociétés de sécurité privées s’établissent sur les #campus, la #surveillance_vidéo se généralise, alors que les franchises universitaires sont régulièrement bafouées par la présence de la #police dans les établissements. L’Université de #Strasbourg, qui s’est singularisée ces dernières années par une anticipation et une application zélée de toutes les réformes, se veut probablement à la pointe des #dispositifs_de_surveillance et d’anticipation des mouvements sociaux. Face à plusieurs dérives qui pourraient remettre en cause nos #libertés_fondamentales, les organisations signataires estiment qu’il est aujourd’hui de leur #responsabilité d’alerter les personnels sur les informations dont elles disposent et sur les démarches qu’elles ont engagées. Dans un courrier du 4 février dernier (à lire et télécharger ICI : https://drive.google.com/file/d/1oLOje91aiU_T1p7VDBMIXSk5oaV4w2eL/view), nos organisations ont interrogé le Président de l’université et le Directeur général des services sur des faits dûment constatés ou méritant d’être vérifiés. Tout d’abord sur des pratiques de la société de #sécurité_privée prestataire de notre établissement. Notre inquiétude portait notamment sur une possible pratique de #fichage d’étudiant·e·s et de #personnels. Nous avons demandé la mise en place de mesures permettant, soit de lever ces suspicions, soit de les confirmer. Nous précisons que si le prestataire de sécurité privée a très récemment changé, les salariés restent, pour beaucoup, les mêmes. Or des comportements similaires ou tout aussi graves, ont été constatés. A titre d’exemple, le jeudi 6 février, plusieurs témoins ont fait état de la présence d’au moins un salarié de la société de sécurité privée aux abords de la manifestation intersyndicale au niveau de la Place de la République. Des étudiant·e·s sont allés à sa rencontre pour savoir s’il était en service, ce qu’il a reconnu avant de justifier sa présence en dehors du campus en disant qu’il avait des ordres. De qui émanaient ces ordres ? Notre courrier s’interrogeait ensuite sur les missions du fonctionnaire-adjoint de sécurité et de défense de notre université, sur la nature des rapports qu’il rédige suite à ses tâches de surveillance des AG ainsi que sur les destinataires de ses rapports. Enfin nous demandions que toute la lumière soit faite sur les décisions et les ordres éventuels qui ont pu mener à de telles dérives, mais aussi sur l’utilisation et le devenir des #données_personnelles collectées par les sociétés de sécurité privées et par le fonctionnaire-adjoint de sécurité et de défense. Le mercredi 12 février, nos organisations ont été destinataires d’un courrier émanant du Directeur Général des Services qui apportait, au nom du président et en son nom propre, des éléments de réponse à nos questions et demandes. Ces réponses, que nous publions avec l’accord des auteurs (à lire ICI : https://drive.google.com/file/d/1TDoB-ln6BX3B8Qm2e1CzcdkK0EnS4ya_/view), nous semblent lacunaires. Nous invitons donc le Président #Michel_Deneken à prendre nos questions avec plus de sérieux et à y répondre publiquement avec précision, afin de rassurer notre communauté de recherche et d’enseignement sur la préservation de nos libertés fondamentales.

    L’intersyndicale de l’Université de Strasbourg,CNT-STP67, DICENSUS, FO-ESR, SNCS-FSU, SNASUB-FSU, SNESUP-FSU, Solidaires Étudiant•e•s Alsace, Sud Éducation Alsace.


    ping @etraces

  • Les #outils_numériques de l’#humanitaire sont-ils compatibles avec le respect de la #vie_privée des #réfugiés ?

    Pour gérer les opérations humanitaires dans le camp de réfugiés syriens de #Zaatari en #Jordanie, les ONG ont mis en place des outils numériques, mais l’#innovation a un impact sur le personnel humanitaire comme sur les réfugiés. Travailler sur ce camp ouvert en 2012, où vivent 76 000 Syriens et travaillent 42 ONG, permet de s’interroger sur la célébration par le monde humanitaire de l’utilisation de #nouvelles_technologies pour venir en aide à des réfugiés.

    Après plusieurs années d’observation participative en tant que chargée d’évaluation pour une organisations non gouvernementales (ONG), je suis allée plusieurs fois à Amman et dans le camp de Zaatari, en Jordanie, entre 2017 et 2018, pour rencontrer des travailleurs humanitaires de 13 organisations différentes et agences de l’Onu et 10 familles vivant dans le camp, avec l’aide d’un interprète.

    Le camp de Zaatari a été ouvert dès 2012 par le Haut Commissariat aux Réfugiés pour répondre à la fuite des Syriens vers la Jordanie. Prévu comme une « #installation_temporaire », il peut accueillir jusqu’à 120 000 réfugiés. Les ONG et les agences des Nations Unies y distribuent de la nourriture et de l’eau potable, y procurent des soins et proposent un logement dans des caravanes.

    Pour faciliter la #gestion de cet espace de 5,2 km2 qui accueille 76 000 personnes, de très nombreux rapports, cartes et bases de données sont réalisés par les ONG. Les #données_géographiques, particulièrement, sont collectées avec des #smartphones et partagées via des cartes et des #tableaux_de_bord sur des #plateformes_en_ligne, soit internes au camp comme celle du Haut Commissariat des Nations unies pour les réfugiés (HCR), soit ouvertes à tous comme #Open_Street_Map. Ainsi, grâce à des images par satellite, on peut suivre les déplacements des abris des réfugiés dans le camp qui ont souvent lieu la nuit. Ces #mouvements modifient la #géographie_du_camp et la densité de population par zones, obligeant les humanitaires à modifier les services, tel l’apport en eau potable.

    Les réfugiés payent avec leur iris

    Ces outils font partie de ce que j’appelle « l’#humanitaire_numérique_innovant ». Le scan de l’#iris tient une place à part parmi ces outils car il s’intéresse à une partie du #corps du réfugié. Cette donnée biométrique est associée à la technologie de paiement en ligne appelée #blockchain et permet de régler ses achats au #supermarché installé dans le camp par une société jordanienne privée. Avant l’utilisation des #scanners à iris, les réfugiés recevaient une #carte_de_crédit qu’ils pouvaient utiliser dans divers magasins autour du camp, y compris dans des #échoppes appartenant à des réfugiés.

    Ils ne comprennent pas l’utilité pour eux d’avoir changé de système. Nour*, une réfugiée de 30 ans, trouvait que « la #carte_Visa était si facile » et craint de « devenir aveugle si [elle] continue à utiliser [son] iris. Cela prend tellement de temps : “ouvre les yeux”, “regarde à gauche”, etc. ». Payer avec son corps n’a rien d’anecdotique quand on est réfugié dans un camp et donc dépendant d’une assistance mensuelle dont on ne maîtrise pas les modalités. Nisrine, une autre réfugiée, préférait quand « n’importe qui pouvait aller au supermarché [pour quelqu’un d’autre]. Maintenant une [seule] personne doit y aller et c’est plus difficile ». Sans transport en commun dans le camp, se rendre au supermarché est une contrainte physique pour ces femmes.

    Le principal argument des ONG en faveur du développement du scan de l’iris est de réduire le risque de #fraude. Le #Programme_Alimentaire_Mondial (#Pam) contrôle pourtant le genre de denrées qui peuvent être achetées en autorisant ou non leur paiement avec la somme placée sur le compte des réfugiés. C’est le cas par exemple pour des aliments comme les chips, ou encore pour les protections hygiéniques. Pour ces biens-là, les réfugiés doivent compléter en liquide.

    Des interactions qui changent entre le personnel humanitaire et les réfugiés

    Les effets de ces #nouvelles_technologies se font aussi sentir dans les interactions entre le personnel du camp et les réfugiés. Chargés de collecter les #données, certains humanitaires doivent régulièrement interroger des jeunes hommes venant de zones rurales limitrophes (qui forment la majorité des réfugiés) sur leur hygiène ou leurs moyens de subsistance. Cela leur permet de créer des #indicateurs pour classer les réfugiés par catégories de #vulnérabilité et donc de #besoins. Ces interactions sont considérées par les réfugiés comme une intrusion dans leur espace de vie, à cause de la nature des questions posées, et sont pourtant devenues un des rares moments d’échanges entre ceux qui travaillent et vivent dans le camp.

    Le #classement des ménages et des individus doit se faire de manière objective pour savoir qui recevra quoi, mais les données collectées sont composites. Difficile pour les responsables de projets, directement interpellés par des réfugiés dans le camp, d’assumer les choix faits par des logiciels. C’est un exercice mathématique qui décide finalement de l’#allocation de l’aide et la majorité des responsables de programmes que j’ai interrogés ne connaissent pas son fonctionnement. Le processus de décision est retiré des mains du personnel humanitaire.

    Aucune évaluation de la #protection_des_données n’a été réalisée

    La vie privée de cette population qui a fui la guerre et trouvé refuge dans un camp est-elle bien protégée alors que toutes ces #données_personnelles sont récoltées ? Le journal en ligne The New Humanitarian rapportait en 2017 une importante fuite de données de bénéficiaires du Pam en Afrique de l’Ouest, détectée par une entreprise de protection de la donnée (https://www.thenewhumanitarian.org/investigations/2017/11/27/security-lapses-aid-agency-leave-beneficiary-data-risk). En Jordanie, les #données_biométriques de l’iris des réfugiés circulent entre une banque privée et l’entreprise jordanienne qui exploite le supermarché, mais aucune évaluation de la protection des données n’a été réalisée, ni avant ni depuis la mise en œuvre de cette #innovation_technologique. Si la protection des données à caractère personnel est en train de devenir un objet de légalisation dans l’Union européenne (en particulier avec le Règlement Général sur la Protection des Données), elle n’a pas encore été incluse dans le #droit_humanitaire.

    De la collecte de données sur les pratiques d’hygiène à l’utilisation de données biométriques pour la distribution de l’#aide_humanitaire, les outils numériques suivent en continu l’histoire des réfugiés. Non pas à travers des récits personnels, mais sur la base de données chiffrées qui, pense-t-on, ne sauraient mentir. Pour sensibiliser le public à la crise humanitaire, les équipes de communication des agences des Nations Unies et des ONG utilisent pourtant des histoires humaines et non des chiffres.

    Les réfugiés eux-mêmes reçoivent peu d’information, voire aucune, sur ce que deviennent leurs données personnelles, ni sur leurs droits en matière de protection de données privées. La connexion Internet leur est d’ailleurs refusée, de peur qu’ils communiquent avec des membres du groupe État Islamique… La gestion d’un camp aussi vaste que celui de Zaatari bénéficie peut-être de ces technologies, mais peut-on collecter les #traces_numériques des activités quotidiennes des réfugiés sans leur demander ce qu’ils en pensent et sans garantir la protection de leurs données personnelles ?


    #camps_de_réfugiés #numérique #asile #migrations #camps #surveillance #contrôle #biométrie #privatisation

    ping @etraces @reka @karine4 @isskein

  • La Police nationale lorgne sur les « données de réservation » des voyageurs

    Au travers d’un arrêté publié en pleine période de fêtes, le gouvernement a confié à la police nationale le soin d’exploiter les nombreuses « données de voyage » relatives aux trajets effectués en avion, en train, en bus, etc. Ceci pour des finalités potentiellement très larges. Alors que de nombreux voyageurs sont encore pénalisés par les grèves, en cours notamment à la SNCF et à la RATP, l’exécutif s’intéresse à « l’exploitation des données de voyage ». Par le biais d’un arrêté publié samedi au Journal (...)

    #data #surveillance # #PNR #CNIL