• Contenir la pandémie sans confinement ? COVID 2 - YouTube
    https://www.youtube.com/watch?v=e3WXfTOw7xY

    Dans cette vidéo, on explore les différentes options pour réduire le taux de reproduction effectif Rt. En dehors d’un confinement généralisé, il semble indispensable d’exploiter des solutions comme le contact tracing électronique. Cependant, celui-ci ne sera efficace que si une large proportion de la population l’utilise (l’effet est quadratique). Sa promotion massive semble donc critique.

    NB : Après la mise en ligne de cette vidéo, j’ai découvert ces deux autres publications qui estiment elles aussi que la fraction des contaminations pré-symptomatiques semblent ~50%. Voilà qui confirme l’importance du contact tracing pour réduire le taux de reproduction effectif.
    https://www.medrxiv.org/content/10.1101/2020.03.05.20031815v1
    https://wellcomeopenresearch.org/articles/5-58

    Lancez vos simulations épidémiologiques à la 3Blue1Brown :
    https://prajwalsouza.github.io/Experiments/Epidemic-Simulation.html

    #COVID19 #coronavirus #simulations

    • Je vais essayer d’être diplomate (même si c’est pas gagné) car je comprends qu’avec l’inquiétude actuelle et l’impuissance dans laquelle nous sommes isolés, certaines personnes soient tentées de trouver dans le contact tracing une solution à étudier attentivement.
      Se consacrer à cela n’est-il pas un moyen efficace de se détourner de la réalité de la maladie et de ses effets de bord sociaux et politiques déjà à l’œuvre ?
      Pouvons nous essayé de prendre un peu de distance au lieu de rêver à un miracle technologique (que certain·es nomment le #bluff_technologique) pour analyser factuellement les proratas médicaux (tests/masques/soins hospitaliers), puis si il le faut vraiment creuser l’application du contact tracing d’un point de vue uniquement technique (comment marche le bluetooth et avec qui).
      Faire cela avant même d’activement se remémorer l’histoire de la mise en place exponentielle des moyens de surveillance globale de la population appuyés sur la peur et la précipitation depuis 25 ans ? avant même de penser qu’un tel basculement ne peut nous mener qu’à la mise en danger de la démocratie ?

      https://seenthis.net/messages/844226

    • De toute manière, sur une bonne partie de la population, ça ne marchera pas plus qu’un numéro vert pour un problème de société.

      1⃣ Il faut des téléphoner compatibles (et beaucoup de gens préfèrent des téléphones qui ne font qui téléphoner).
      2⃣ Il faut savoir les utiliser → on est toujours pas certains d’avoir réussi à expliquer à ma belle-mère comment avoir une téléconsultation avec sa psy.
      3⃣ ceux qui réunissent les 2 premières conditions sont les + susceptibles de savoir aussi contourner le dispositif au besoin.

      Donc, on arrête de perdre du temps sur des doudous stupides et on doit juste repenser toute l’organisation sociale…

    • C’est le problème rencontré en sécurité informatique où sur l’usage d’outils que nous pensons basiques, le dysfonctionnement est d’abord entre la chaise et l’écran.

      Un exemple aussi d’une grand-maman bien connue de mes services bisoux virtuels à qui j’ai envoyé un lien à cliquer pour pouvoir échanger par visio sur jitsi. Une heure au téléphone pour lui demander de cliquer sur le lien qu’elle avait reçu sur sa tablette (oui, la famille lui a offert une tablette second prix l’année dernière pour qu’elle reçoive de leurs nouvelles). Elle a abandonné, on devait se voir depuis Noël, on repoussait notre venue, voila, on ne se verra pas, même pas en visio.

      Cette dame de 83 ans sait toutefois se servir des textos, au grand dam de ses petits enfants qui reçoivent des SMS de trois mots quand ils se sont fendus d’un long texte bien écrit en beau français :)

    • D’autres points à considérer :

      – les outils technologiques de surveillance de masse existent déjà, qu’on le veuille ou non ; si les services de renseignement veulent tracer où tu as été et qui tu as fréquenté, c’est déjà faisable, et sans doute déjà fait dans de nombreux pays, comme l’a montré Snowden ;

      – Facebook, c’est 37 millions d’utilisateurs actifs chaque mois en France. Prétendre que les gens ne sont pas équipés, ne savent faire, ou qu’ils ne veulent pas se faire fliquer, c’est une vue de l’esprit ; il y a de nombreuses difficultés avec les logiciels « privacy first », mais l’aspect diffusion/acceptabilité ne me semble pas le plus complexe ;

      – une question qui se pose de manière extrêmement urgente, c’est de savoir si les États vont utiliser cet épisode pour officialiser les outils les plus intrusifs et répressifs, où si l’on peut refuser l’officialisation des outils tels qu’ils sont ouvertement utilisés dans l’autres pays, et pousser pour aller vers les outils conçus par des spécialistes du « privacy-first » plutôt que par Palantir et avec une absence à peu près totale de contrôle démocratiqu ;

      Dit autrement : les outils de surveillance de masse existent déjà, mais leur valeur répressive est relativement limitée, parce que leur utilisation n’est pas officielle (c’est du domaine du renseignement, qui est certes très problématique, mais qui est plus ou moins limité). Si on officialise ces outils dans le cadre de l’épidémie, on change d’échelle, et leur valeur répressive restera, parce qu’on aura accepté ça cette fois. Une fois qu’on aura officialisé l’idée qu’un outil à la Palantir est utile en étant accessible aux flics « de terrain » et peut être utilisé dans une procédure juridique (démontrer que tu n’as pas respecté le confinement plusieurs fois de suite), ça restera si on invoque le terrorisme, les black blocks, les néonazis, les violeurs pédophiles ou je ne sais quoi. L’alternative envisagée, c’est donc de proposer l’utilisation d’outils conçus pour ne pas pouvoir être utilisés de manière répressive (parce que sans moyens d’identification) mais qui rempliront le même but (limiter la propagation de l’épidémie), retirant ainsi la « justification » de l’utilisation de moyens intrusifs.

      – le grand risque, c’est que le déconfinement soit suivi, moins d’un mois après, par une hausse brutale des contaminations et l’imposition dans l’urgence d’un second confinement ; s’il y a échec du déconfinement (et ça nous semble à tous très probable), la question des libertés publiques deviendra tellement accessoire qu’on va pleurer. Si l’État se retrouve avec un second confinement et absolument tout le monde qui exige de lui de trouver immédiatement une solution (Saint Raoult priez pour nous), je n’ai rigoureusement aucune doute, mais alors aucun, que les méthodes instaurées seront d’une violence que l’on pense aujourd’hui impossible. Croire qu’on échappera alors à Palantir et à la surveillance électronique renforcée (tout ça sera de toute façon réclamé par la population), ça me semble dangereusement naïf. On prendra le logiciel et les méthodes de flicage sud-coréens, au mieux, et on les appliquera à la Lallement, et ce ne sera plus du tout discutable.

      – dans l’immédiat, on n’a pas le droit de sortir de chez nous, si on le fait c’est avec la crainte de tomber sur des flics, on n’a pas le droit de se rencontrer, on n’a pas le droit de manifester, on n’a pas le droit d’aller voter, l’effondrement économique a aussi pour conséquence qu’on a de moins en moins la possibilité de subvenir aux besoins de sa famille (je ne suis pas pour le « tout économique », mais tout de même), ce sont les plus faibles socialement et physiquement qui en prennent plein la gueule les premiers, etc. On n’est pas dans une situation où il y aurait des choix parfaits, et où l’on peut considèrer des absolus quant à nos libertés. Parce que pour l’instant et pour une période dangereusement longue, notre libertés fondamentales sont déjà abolies (aller et venir, rassemblement, démocratie, éducation…).

      – l’autre grosse alternative, et c’est certainement la solution qui se met en place sans le dire explicitement, c’est l’immunité de groupe (malgré les doutes sur l’immunité). Le confinement ne sert dans cette optique qu’à atteindre un niveau d’acceptabilité, dans nos démocraties, au fait qu’on va laisser crever une partie de notre population. Le coût d’un second confinement serait tellement intolérable que la population acceptera ce choix, initialement indéfendable. Depuis une semaine, on a d’ailleurs en France toute une littérature qui fleurit allant dans ce sens.

      Du coup, dans cette logique (et dans un sens donc contraire aux considérations précédentes), on peut suspecter que l’annonce du logiciel soit, justement, une sorte de gri-gri destiné à calmer l’opinion et justifier le déconfinement, et pouvoir dire, s’il y a trop de morts, que vous voyez bien, on avait tout mis en place, mais les gens n’ont pas voulu utiliser l’outil qu’on leur avait proposé. (Donc c’est la faute aux gens.)

    • Tout comme Arno, je pense que la plupart des gens vont installer l’appli sans sourciller, tout comme ils utilisent Facebook et tous les services de Google... Il n’y a qu’à voir aussi comment en ce moment tout le monde se rue sur Zoom malgré tous les articles et avertissements qu’on peut lire partout, alors que des alternatives tout aussi pratiques (voire mieux) et open-source existent, comme jitsi. La question est donc d’exiger une appli qui ne fera que du tracking anonyme et rien d’autre. J’y crois moyen et en même temps j’ai une petite lueur d’espoir depuis que j’ai vu que le code de leur formulaire d’attestation dérogatoire était publié sur Github (même si on peut toujours penser que le code effectivement mis en œuvre n’est pas tout à fait celui qui nous est présenté).

    • – les outils technologiques de surveillance de masse existent déjà, qu’on le veuille ou non ; si les services de renseignement veulent tracer où tu as été et qui tu as fréquenté, c’est déjà faisable, et sans doute déjà fait dans de nombreux pays, comme l’a montré Snowden ;

      Tu fais des suppositions non démontrées et en avançant ainsi tu considères que personne n’y peut rien et tu invites à renoncer à dénoncer les différents procédés de surveillance et de suivi. L’argument du on le sait déjà n’est pas recevable, parce qu’il tient du fantasme paranoïaque, ça ne veut pas dire que c’est faux, mais qu’il y a certaines formes de surveillance. Heureusement qu’il existe encore des moyens d’y échapper.

      – Facebook, c’est 37 millions d’utilisateurs actifs chaque mois en France. Prétendre que les gens ne sont pas équipés, ne savent faire, ou qu’ils ne veulent pas se faire fliquer, c’est une vue de l’esprit ; il y a de nombreuses difficultés avec les logiciels « privacy first », mais l’aspect diffusion/acceptabilité ne me semble pas le plus complexe ;

      Merci de citer tes sources. 37 millions de comptes actifs, ce n’est pas 37 millions de personnes. Ce n’est pas une vue de l’esprit de se rendre compte que les personnes les plus exposées sont des personnes qui ne sont pas équipées en smartphone. On ne parle pas d’un ordinateur à la maison.

      – une question qui se pose de manière extrêmement urgente, c’est de savoir si les États vont utiliser cet épisode pour officialiser les outils les plus intrusifs et répressifs, où si l’on peut refuser l’officialisation des outils tels qu’ils sont ouvertement utilisés dans l’autres pays, et pousser pour aller vers les outils conçus par des spécialistes du « privacy-first » plutôt que par Palantir et avec une absence à peu près totale de contrôle démocratique ;

      Il y a urgence de masques et de tests, de lits d’hopitaux mais certainement pas urgence de la mise en place d’une surveillance sociale de masse électronique telle qu’elle voudrait s’imposer actuellement. N’oublions pas le contexte politique, voir la différence de gestion sanitaire en Allemagne et en France, on parle bien d’un but sanitaire et tout concoure à montrer le contraire. Je continue de dire que nous nous épuisons dans un débat technologique qui ne devrait pas avoir lieu et qui est une façon de nous détourner des réalités catastrophiques.

      Je peux malheureusement répondre oui à la première question, parce que cela se vérifie à chaque crise depuis 25 ans, les libertés se réduisent aux profits d’un Etat sécuritaire, toute occasion est bonne et les tenants de la surveillance électronique, du croisement de fichiers et du traçage sont des lobbyistes très actifs, de type Babinet (video youtube du 1er avril), qui n’ont aucune limite ni scrupule politique à t’exposer que les mails sont une source à prendre en compte dans le dossier médical multidatas qu’ils promeuvent et qui rêvent de fermer la CNIL déjà réduite à rien. Concernant Palentir, c’est une boite américaine qui analyse pour la DGSE et autres services secrets français les résultats des données collectées en france. Ça me laisse toujours pontoise de réaliser que les français sont carrement naïfs ou que nous sommes simplement toujours dans les mains des mêmes industriels du complexe militaro industriel depuis 1941 qui font croire à une guerre économique entre pays alors qu’elle est entre classes dominantes et les 99% qui subissent leurs incompétences délirantes et leurs fantasmes de contrôle total. Mais oui, je pense que ce sera Palantir et Consorts et même pire.

      Pour revenir à la croyance en des alternatives de traçage, à partir du moment où les principes démocratiques sont baffoués parce qu’il y aura violation de la vie privé via une technique de suivi personnalisé (sous des prétextes fallacieux car je répète que l’efficience sanitaire du traçage est loin d’être prouvée), qu’elle soit anonyme ou pas ne change rien (il n’y a pas d’anonymat dans du traçage), ni de garanti par un encadrement de la CNIL qui a appris à aplatir ses prérogatives chaque fois qu’un échelon supplémentaire est franchi.

      Je vois plutôt se profiler une surveillance de multiples sources justifiée par une meilleure efficience et surtout pour notre bien sanitaire. FB+internet+conversations filtrées+Géolocalisation+traçage+biométrie+rfid+ saupoudrage d’un peu d’alternatifs pour faire plaisir aux geeks qui rêvent d’un monde libre informatisé et faire croire que tout est sous contrôle démocratique.

      Nos avis démocratiques ne pèseront pas grand chose face aux milliards de $ que pèsent les données de santé et de profilage, surtout pour sauver des vies dont ils se foutent totalement. Ce qui m’intéresse à regarder actuellement c’est la méthode de persuasion qui va être utilisée. Ça suit son cours et la diversion fonctionne à merveille …

      Dit autrement : les outils de surveillance de masse existent déjà, mais leur valeur répressive est relativement limitée, parce que leur utilisation n’est pas officielle (c’est du domaine du renseignement, qui est certes très problématique, mais qui est plus ou moins limité). Si on officialise ces outils dans le cadre de l’épidémie, on change d’échelle, et leur valeur répressive restera, parce qu’on aura accepté ça cette fois. Une fois qu’on aura officialisé l’idée qu’un outil à la Palantir est utile en étant accessible aux flics « de terrain » et peut être utilisé dans une procédure juridique (démontrer que tu n’as pas respecté le confinement plusieurs fois de suite), ça restera si on invoque le terrorisme, les black blocks, les néonazis, les violeurs pédophiles ou je ne sais quoi. L’alternative envisagée, c’est donc de proposer l’utilisation d’outils conçus pour ne pas pouvoir être utilisés de manière répressive (parce que sans moyens d’identification) mais qui rempliront le même but (limiter la propagation de l’épidémie), retirant ainsi la « justification » de l’utilisation de moyens intrusifs.

      Prends juste l’exemple de Tarnac, avec Coupat qui est soupçonné parce qu’il n’a pas de téléphone portable, la répression est déjà là et n’a pas besoin de notre accord pour se déployer. La technique le permet, la répression suit, l’accompagne. Ce n’est pas de quelle manière cela va se déployer, ni si il y a anonymat ni si les intentions sont louables, mais si nous savons faire bloc contre cette hallucination collective pro technosurveillance. Je préfère me battre contre toutes les prisons car il n’y a pas de prison alternative.

      – le grand risque, c’est que le déconfinement soit suivi, moins d’un mois après, par une hausse brutale des contaminations et l’imposition dans l’urgence d’un second confinement ; s’il y a échec du déconfinement (et ça nous semble à tous très probable), la question des libertés publiques deviendra tellement accessoire qu’on va pleurer. Si l’État se retrouve avec un second confinement et absolument tout le monde qui exige de lui de trouver immédiatement une solution (Saint Raoult priez pour nous), je n’ai rigoureusement aucune doute, mais alors aucun, que les méthodes instaurées seront d’une violence que l’on pense aujourd’hui impossible. Croire qu’on échappera alors à Palantir et à la surveillance électronique renforcée (tout ça sera de toute façon réclamé par la population), ça me semble dangereusement naïf. On prendra le logiciel et les méthodes de flicage sud-coréens, au mieux, et on les appliquera à la Lallement, et ce ne sera plus du tout discutable.

      Depuis le début du covid le gvt nous mène en bateau, je n’ai aucun doute qu’on arrivera à palentir par un chemin ou un autre et en plus avec l’assentiment de la population et le chemin le plus court trouvé pour le moment c’est de laisser travailler les « alternatifs » dessus, histoire que la gauche technophile se foute bien sur la gueule.

      – dans l’immédiat, on n’a pas le droit de sortir de chez nous, si on le fait c’est avec la crainte de tomber sur des flics, on n’a pas le droit de se rencontrer, on n’a pas le droit de manifester, on n’a pas le droit d’aller voter, l’effondrement économique a aussi pour conséquence qu’on a de moins en moins la possibilité de subvenir aux besoins de sa famille (je ne suis pas pour le « tout économique », mais tout de même), ce sont les plus faibles socialement et physiquement qui en prennent plein la gueule les premiers, etc. On n’est pas dans une situation où il y aurait des choix parfaits, et où l’on peut considèrer des absolus quant à nos libertés. Parce que pour l’instant et pour une période dangereusement longue, notre libertés fondamentales sont déjà abolies (aller et venir, rassemblement, démocratie, éducation…).

      C’est assez bien vendu en effet mais je n’achète pas.

      – l’autre grosse alternative, et c’est certainement la solution qui se met en place sans le dire explicitement, c’est l’immunité de groupe (malgré les doutes sur l’immunité). Le confinement ne sert dans cette optique qu’à atteindre un niveau d’acceptabilité, dans nos démocraties, au fait qu’on va laisser crever une partie de notre population. Le coût d’un second confinement serait tellement intolérable que la population acceptera ce choix, initialement indéfendable. Depuis une semaine, on a d’ailleurs en France toute une littérature qui fleurit allant dans ce sens.

      Disons que laisser mourir des personnes et même les euthanasier sans leur accord ni celui de leurs familles sous prétexte qu’ils auraient peut-être le covid et qu’il n’y a pas assez de lits en réanimation c’est aujourd’hui et maintenant en france. Ça me suffit pour voir que ce gouvernement n’en a absolument rien à foutre de sa population et que s’il faut s’allier aux pires des américains pour réaliser le grand panoptique de surveillance cette crise servira comme excellent prétexte et au lieu de tests et de masques et de lits d’hopitaux, tout le monde demandera des drones et du traçage et de la répression bien entendu.

      Du coup, dans cette logique (et dans un sens donc contraire aux considérations précédentes), on peut suspecter que l’annonce du logiciel soit, justement, une sorte de gri-gri destiné à calmer l’opinion et justifier le déconfinement, et pouvoir dire, s’il y a trop de morts, que vous voyez bien, on avait tout mis en place, mais les gens n’ont pas voulu utiliser l’outil qu’on leur avait proposé. (Donc c’est la faute aux gens.)

      Oui, parfaitement d’accord, c’est la méthode de persuasion qui sera probablement utilisée, le #bluff_technologique, one more time.

    • Pour poursuivre mes propos, voila comment avec #stopcovid les bonimenteurs du traçage numérique des #données_personnelles sensibles commes les #données_de_santé peuvent enfin placer leurs discours : ici le babinet national, qui refuse de dire pour quelles entreprises il travaille (YT V4yf3HOEHPk) mais dispose de sa place en tant que #digital-champion (sic) français (groupe des conseillers au numérique européen). Souvenez-vous, c’est lui qui voulait fermer la CNIL et sert ici de conseil au smartank de l’#institut_Montaigne (Bébéar), ne vous méprenez pas sur le style alternatif cool sympa qu’il se donne, ce qu’il propose est bien une #société_de_contrôle totalitaire avec profilage médical de chacun·e basé sur l’aspiration de données provenant de sources diverses comme les données d’alimentation ou la lecture des emails …
      extrait de la vidéo

      1er avril 2020
      https://www.youtube.com/watch?v=Rxt-8Z1dQHg?t=471

      Comment ça, vous ne saviez pas à quoi vous attendre avec la république numérique de Macron ?

      #future-of-innovation-in-europe
      Friday, 20 March
      https://www.iiea.com/event/france-and-the-future-of-innovation-in-europe

      In his address to the IIEA, Gilles Babinet will offer his perspective on the future of innovation in Europe and discuss the French Government’s work on innovation and startups (Visa Tech, Next40). He will comment on the implications of europeanisation as French efforts increasingly focus on French champions. Gilles Babinet will also discuss issues such as 5G, connected objects, the need for an overarching ecosystem and how to prepare for it.

      #babinet

  • Les personnels et étudiant·e·s de l’Université de Strasbourgs ont-ils mis sous #surveillance ?
    (Communiqué de presse du 20 février 2020)

    Les départements de sûreté intérieure se multiplient dans les #universités, les sociétés de sécurité privées s’établissent sur les #campus, la #surveillance_vidéo se généralise, alors que les franchises universitaires sont régulièrement bafouées par la présence de la #police dans les établissements. L’Université de #Strasbourg, qui s’est singularisée ces dernières années par une anticipation et une application zélée de toutes les réformes, se veut probablement à la pointe des #dispositifs_de_surveillance et d’anticipation des mouvements sociaux. Face à plusieurs dérives qui pourraient remettre en cause nos #libertés_fondamentales, les organisations signataires estiment qu’il est aujourd’hui de leur #responsabilité d’alerter les personnels sur les informations dont elles disposent et sur les démarches qu’elles ont engagées. Dans un courrier du 4 février dernier (à lire et télécharger ICI : https://drive.google.com/file/d/1oLOje91aiU_T1p7VDBMIXSk5oaV4w2eL/view), nos organisations ont interrogé le Président de l’université et le Directeur général des services sur des faits dûment constatés ou méritant d’être vérifiés. Tout d’abord sur des pratiques de la société de #sécurité_privée prestataire de notre établissement. Notre inquiétude portait notamment sur une possible pratique de #fichage d’étudiant·e·s et de #personnels. Nous avons demandé la mise en place de mesures permettant, soit de lever ces suspicions, soit de les confirmer. Nous précisons que si le prestataire de sécurité privée a très récemment changé, les salariés restent, pour beaucoup, les mêmes. Or des comportements similaires ou tout aussi graves, ont été constatés. A titre d’exemple, le jeudi 6 février, plusieurs témoins ont fait état de la présence d’au moins un salarié de la société de sécurité privée aux abords de la manifestation intersyndicale au niveau de la Place de la République. Des étudiant·e·s sont allés à sa rencontre pour savoir s’il était en service, ce qu’il a reconnu avant de justifier sa présence en dehors du campus en disant qu’il avait des ordres. De qui émanaient ces ordres ? Notre courrier s’interrogeait ensuite sur les missions du fonctionnaire-adjoint de sécurité et de défense de notre université, sur la nature des rapports qu’il rédige suite à ses tâches de surveillance des AG ainsi que sur les destinataires de ses rapports. Enfin nous demandions que toute la lumière soit faite sur les décisions et les ordres éventuels qui ont pu mener à de telles dérives, mais aussi sur l’utilisation et le devenir des #données_personnelles collectées par les sociétés de sécurité privées et par le fonctionnaire-adjoint de sécurité et de défense. Le mercredi 12 février, nos organisations ont été destinataires d’un courrier émanant du Directeur Général des Services qui apportait, au nom du président et en son nom propre, des éléments de réponse à nos questions et demandes. Ces réponses, que nous publions avec l’accord des auteurs (à lire ICI : https://drive.google.com/file/d/1TDoB-ln6BX3B8Qm2e1CzcdkK0EnS4ya_/view), nous semblent lacunaires. Nous invitons donc le Président #Michel_Deneken à prendre nos questions avec plus de sérieux et à y répondre publiquement avec précision, afin de rassurer notre communauté de recherche et d’enseignement sur la préservation de nos libertés fondamentales.

    L’intersyndicale de l’Université de Strasbourg,CNT-STP67, DICENSUS, FO-ESR, SNCS-FSU, SNASUB-FSU, SNESUP-FSU, Solidaires Étudiant•e•s Alsace, Sud Éducation Alsace.

    https://fsusupalsace.files.wordpress.com/2020/02/communiquec2b4-intersyndical-sur-la-sec2b4curitec2b4-a
    #vidéosurveillance

    ping @etraces
    #Deneken

  • Les #outils_numériques de l’#humanitaire sont-ils compatibles avec le respect de la #vie_privée des #réfugiés ?

    Pour gérer les opérations humanitaires dans le camp de réfugiés syriens de #Zaatari en #Jordanie, les ONG ont mis en place des outils numériques, mais l’#innovation a un impact sur le personnel humanitaire comme sur les réfugiés. Travailler sur ce camp ouvert en 2012, où vivent 76 000 Syriens et travaillent 42 ONG, permet de s’interroger sur la célébration par le monde humanitaire de l’utilisation de #nouvelles_technologies pour venir en aide à des réfugiés.

    Après plusieurs années d’observation participative en tant que chargée d’évaluation pour une organisations non gouvernementales (ONG), je suis allée plusieurs fois à Amman et dans le camp de Zaatari, en Jordanie, entre 2017 et 2018, pour rencontrer des travailleurs humanitaires de 13 organisations différentes et agences de l’Onu et 10 familles vivant dans le camp, avec l’aide d’un interprète.

    Le camp de Zaatari a été ouvert dès 2012 par le Haut Commissariat aux Réfugiés pour répondre à la fuite des Syriens vers la Jordanie. Prévu comme une « #installation_temporaire », il peut accueillir jusqu’à 120 000 réfugiés. Les ONG et les agences des Nations Unies y distribuent de la nourriture et de l’eau potable, y procurent des soins et proposent un logement dans des caravanes.

    Pour faciliter la #gestion de cet espace de 5,2 km2 qui accueille 76 000 personnes, de très nombreux rapports, cartes et bases de données sont réalisés par les ONG. Les #données_géographiques, particulièrement, sont collectées avec des #smartphones et partagées via des cartes et des #tableaux_de_bord sur des #plateformes_en_ligne, soit internes au camp comme celle du Haut Commissariat des Nations unies pour les réfugiés (HCR), soit ouvertes à tous comme #Open_Street_Map. Ainsi, grâce à des images par satellite, on peut suivre les déplacements des abris des réfugiés dans le camp qui ont souvent lieu la nuit. Ces #mouvements modifient la #géographie_du_camp et la densité de population par zones, obligeant les humanitaires à modifier les services, tel l’apport en eau potable.

    Les réfugiés payent avec leur iris

    Ces outils font partie de ce que j’appelle « l’#humanitaire_numérique_innovant ». Le scan de l’#iris tient une place à part parmi ces outils car il s’intéresse à une partie du #corps du réfugié. Cette donnée biométrique est associée à la technologie de paiement en ligne appelée #blockchain et permet de régler ses achats au #supermarché installé dans le camp par une société jordanienne privée. Avant l’utilisation des #scanners à iris, les réfugiés recevaient une #carte_de_crédit qu’ils pouvaient utiliser dans divers magasins autour du camp, y compris dans des #échoppes appartenant à des réfugiés.

    Ils ne comprennent pas l’utilité pour eux d’avoir changé de système. Nour*, une réfugiée de 30 ans, trouvait que « la #carte_Visa était si facile » et craint de « devenir aveugle si [elle] continue à utiliser [son] iris. Cela prend tellement de temps : “ouvre les yeux”, “regarde à gauche”, etc. ». Payer avec son corps n’a rien d’anecdotique quand on est réfugié dans un camp et donc dépendant d’une assistance mensuelle dont on ne maîtrise pas les modalités. Nisrine, une autre réfugiée, préférait quand « n’importe qui pouvait aller au supermarché [pour quelqu’un d’autre]. Maintenant une [seule] personne doit y aller et c’est plus difficile ». Sans transport en commun dans le camp, se rendre au supermarché est une contrainte physique pour ces femmes.

    Le principal argument des ONG en faveur du développement du scan de l’iris est de réduire le risque de #fraude. Le #Programme_Alimentaire_Mondial (#Pam) contrôle pourtant le genre de denrées qui peuvent être achetées en autorisant ou non leur paiement avec la somme placée sur le compte des réfugiés. C’est le cas par exemple pour des aliments comme les chips, ou encore pour les protections hygiéniques. Pour ces biens-là, les réfugiés doivent compléter en liquide.

    Des interactions qui changent entre le personnel humanitaire et les réfugiés

    Les effets de ces #nouvelles_technologies se font aussi sentir dans les interactions entre le personnel du camp et les réfugiés. Chargés de collecter les #données, certains humanitaires doivent régulièrement interroger des jeunes hommes venant de zones rurales limitrophes (qui forment la majorité des réfugiés) sur leur hygiène ou leurs moyens de subsistance. Cela leur permet de créer des #indicateurs pour classer les réfugiés par catégories de #vulnérabilité et donc de #besoins. Ces interactions sont considérées par les réfugiés comme une intrusion dans leur espace de vie, à cause de la nature des questions posées, et sont pourtant devenues un des rares moments d’échanges entre ceux qui travaillent et vivent dans le camp.

    Le #classement des ménages et des individus doit se faire de manière objective pour savoir qui recevra quoi, mais les données collectées sont composites. Difficile pour les responsables de projets, directement interpellés par des réfugiés dans le camp, d’assumer les choix faits par des logiciels. C’est un exercice mathématique qui décide finalement de l’#allocation de l’aide et la majorité des responsables de programmes que j’ai interrogés ne connaissent pas son fonctionnement. Le processus de décision est retiré des mains du personnel humanitaire.

    Aucune évaluation de la #protection_des_données n’a été réalisée

    La vie privée de cette population qui a fui la guerre et trouvé refuge dans un camp est-elle bien protégée alors que toutes ces #données_personnelles sont récoltées ? Le journal en ligne The New Humanitarian rapportait en 2017 une importante fuite de données de bénéficiaires du Pam en Afrique de l’Ouest, détectée par une entreprise de protection de la donnée (https://www.thenewhumanitarian.org/investigations/2017/11/27/security-lapses-aid-agency-leave-beneficiary-data-risk). En Jordanie, les #données_biométriques de l’iris des réfugiés circulent entre une banque privée et l’entreprise jordanienne qui exploite le supermarché, mais aucune évaluation de la protection des données n’a été réalisée, ni avant ni depuis la mise en œuvre de cette #innovation_technologique. Si la protection des données à caractère personnel est en train de devenir un objet de légalisation dans l’Union européenne (en particulier avec le Règlement Général sur la Protection des Données), elle n’a pas encore été incluse dans le #droit_humanitaire.

    De la collecte de données sur les pratiques d’hygiène à l’utilisation de données biométriques pour la distribution de l’#aide_humanitaire, les outils numériques suivent en continu l’histoire des réfugiés. Non pas à travers des récits personnels, mais sur la base de données chiffrées qui, pense-t-on, ne sauraient mentir. Pour sensibiliser le public à la crise humanitaire, les équipes de communication des agences des Nations Unies et des ONG utilisent pourtant des histoires humaines et non des chiffres.

    Les réfugiés eux-mêmes reçoivent peu d’information, voire aucune, sur ce que deviennent leurs données personnelles, ni sur leurs droits en matière de protection de données privées. La connexion Internet leur est d’ailleurs refusée, de peur qu’ils communiquent avec des membres du groupe État Islamique… La gestion d’un camp aussi vaste que celui de Zaatari bénéficie peut-être de ces technologies, mais peut-on collecter les #traces_numériques des activités quotidiennes des réfugiés sans leur demander ce qu’ils en pensent et sans garantir la protection de leurs données personnelles ?

    http://icmigrations.fr/2020/01/16/defacto-015-01

    #camps_de_réfugiés #numérique #asile #migrations #camps #surveillance #contrôle #biométrie #privatisation

    ping @etraces @reka @karine4 @isskein

  • La Police nationale lorgne sur les « données de réservation » des voyageurs
    https://www.nextinpact.com/news/108540-la-police-nationale-lorgne-sur-donnees-reservation-voyageurs.htm

    Au travers d’un arrêté publié en pleine période de fêtes, le gouvernement a confié à la police nationale le soin d’exploiter les nombreuses « données de voyage » relatives aux trajets effectués en avion, en train, en bus, etc. Ceci pour des finalités potentiellement très larges. Alors que de nombreux voyageurs sont encore pénalisés par les grèves, en cours notamment à la SNCF et à la RATP, l’exécutif s’intéresse à « l’exploitation des données de voyage ». Par le biais d’un arrêté publié samedi au Journal (...)

    #data #surveillance # #PNR #CNIL

    ##_

  • Le gouvernement britannique autorise Amazon à accéder aux données de 40 millions de patients
    https://korii.slate.fr/tech/gouvernement-britannique-amazon-acces-donnees-medicales-40-millions-pati

    L’ONG Privacy International dénonce un accord passé entre le fabricant d’Alexa et le ministère de de la Santé qui va au-delà de l’annonce initiale. Outre-Manche, l’exécutif dirigé par Boris Jonhson essuie actuellement une pluie de critiques pour avoir validé une autorisation d’accès aux informations médicales stockées sur les serveurs du NHS (National Health Service) et mises à la disposition d’Amazon sans aucune compensation financière et sans l’accord des patient·es. En juillet dernier, Matt Hancock, (...)

    #Amazon #Alexa #BigData #BigPharma #data #NationalHealthSystem-NHS #santé

    ##santé

  • Vendre ses données de santé, ça coûte combien ? - CNET France
    https://www.cnetfrance.fr/news/vendre-ses-donnees-de-sante-ca-coute-combien-39895205.htm

    C’est une statistique assez surprenante, pour ne pas dire inquiétante. Selon une enquête de CSA Research pour le laboratoire pharmaceutique Roche, si 78 % des français interrogés estiment que le partage de données de santé (avec des scientifiques) est un acte citoyen qui peut faire progresser la recherche (jusque là, on parle d’open science, donc aucun problème), 20 % sont prêts à aller plus loin que le simple partage, et ne verraient ainsi aucun problème… à les vendre. Chez les 18-24 ans, ils sont même 36 %, « conscients » qu’ils sont de « la valeur » de ces données.

    Oui, leur valeur. Un débat fait rage depuis quelques années autour de la monétisation des données, et leur caractère « patrimonial » ou non. Si vos données personnelles vous appartiennent (et leur valeur aussi) au même titre que votre corps, et si elles ont une valeur importante, pourquoi pas, pensent certaines personnes, accepter sciemment qu’elles soient revendues, contre un petit pécule ? Nous en avons déjà parlé sur CNET France : vos données personnelles en disent beaucoup sur vous, et forcément, pour cette raison, elles ont de la valeur pour de nombreux acteurs, des publicitaires aux assurances, en passant par les chercheurs. Mais seules, isolées, brutes, elles ne valent en fait pas grand chose.

    En novembre 2019, Alphabet a ainsi mis la main sur les données de santé de millions d’Américains, officiellement dans le cadre d’un accord pour « développer de nouvelles technologies dans le domaine de la santé », officieusement dans un but économique. Ainsi, le chercheur en droit et technologie Florian Martin-Bariteau, de l’université d’Ottawa, explique-t-il sur ICI Radio-Canada Première, que « les données de santé sont le nouvel eldorado des compagnies technologiques dans le monde entier ». Car, pense-t-il, sous le manteau, les entreprises qui nouent ce genre de partenariats à priori dans un but noble, pourraient bien être tentées de « se servir de ces informations pour les revendre ». Et d’ajouter qu’on « nous dit pour nous rassurer que Google n’aura pas le droit d’utiliser cet ensemble de données pour les coupler avec les données des consommateurs qu’elle a déjà », mais que « Google est un expert des ’oups’ », et que « ce n’est pas la compagnie qui a la meilleure réputation en gestion des données personnelles et de sécurité des données ».

    Pour éviter ce genre de collecte-revente qui se font (ou se feraient) dans le dos des personnes, sans leur consentement direct, des lois existent, comme le RGPD, effectif en Europe depuis mai 2018. Mais le plus simple ne serait-il pas de laisser les individus vendre eux-mêmes leurs données de santé ? Octroyer un « droit de propriété » aux gens serait ainsi un moyen pour ces derniers, estiment Gaspard Koenig et Jaron lanier, de garder la main sur des données qui ne sont pas comme les autres, car leur valeur ne diminue pas à l’usage.

    Créer un marché qui n’existe pas, c’est l’eldorado des gens sans éthique.

    Sur son site, Embleema publie un « manifeste » intéressant, qui prône une co-construction de la valeur des données de santé, entre les patients et les chercheurs en médecine. Robert Chu et ses associés expliquent que « nos données de santé sont notre actif numérique le plus précieux, car elles peuvent nous sauver la vie dans une situation d’urgence, et fournir des informations critiques pour la prise de décision des prestataires de soins », mais que jusqu’ici, « elles étaient gardées en captivité dans des silos protégés, par crainte de voir nos droits aux soins violés », au grand dam de la « médecine personnalisé, qui perd une mine de données » essentielles.

    Selon la startup, « Blockchain santé » sera l’un des moyens, demain, de redonner « le pouvoir aux patients », de ne plus les obliger à « faire appel à des tiers pour traiter leurs informations les plus sensibles ». Robert Chu explique ainsi « qu’aujourd’hui, les données des patients sont revendues par des sociétés (comme Cegedim en France), qui les achètent à des professionnels de santé comme des hôpitaux, les anonymisent, puis les vendent aux laboratoires pharmaceutiques ». D’après ses estimations, « ce marché, qui avoisine les 200 millions d’euros en France, est capté par ces tiers, et, la source des données, le patient, ne perçoit rien. » Outre Cegedim, notons au passage que d’autres « courtiers de données », comme Sophia Genetics, qui déploie des solutions d’intelligence artificielle en santé, ou OpenHealth Company, effectuent pour des hôpitaux et des médecins le traitement de leurs données, issues de plusieurs centaines de milliers de patients.

    Vendre des données de santé peut coûter cher… à leur propriétaire

    Au fond, revendre vos données de santé ne vous rapporterait donc bien souvent qu’un petit pécule. Mais dans le même temps, estiment les défenseurs de la vie privée et de la protection des données personnelles, cela pourrait vous en coûter, à terme, d’une toute autre façon. Certes, l’idée d’un "droit patrimonial" des données de santé, destiné à contrer la monétisation "sans contrôle" actuelle, est séduisante. Mais une fois les données revendues, celles-ci échappent à leur "propriétaire".

    "Si les données de santé devraient d’abord servir à l’amélioration de la qualité des soins, on ne peut ignorer qu’elles peuvent servir à d’autres finalités, notamment en matière de marketing médical pour les industriels du secteur. À titre d’exemple, connaître la consommation de médicaments par zone de chalandise permet d’organiser les tournées des visiteurs médicaux pour cibler les médecins non-prescripteurs ; ou, à l’instar de n’importe quel secteur commercial, connaître les profils des internautes permet de pousser de la publicité en ligne, toujours plus personnalisée. Les industries de santé consacrent de plus en plus de budget à leur marketing digital, en direction des prescripteurs ou des patients eux-mêmes", observe ainsi Valérie Peugeot, commissaire à la CNIL, en charge du secteur santé.

    En outre, l’anonymisation des données n’est qu’une illusion, d’autant plus que le risque de piratage plane fortement, rappelle cette dernière : "Il se passe rarement plus de quelques jours sans qu’on ne découvre une faille de sécurité sur des logiciels clés ou, plus grave, qu’une fuite de données ne soit révélée. En janvier 2018, ce sont les données de 53 000 patients américains, comprenant entre autres des informations cliniques et des données sur les médicaments prescrits, qui sont parties dans la nature. Mais surtout, plus le nombre de bases de données accessibles est important, plus les croisements entre bases sont possibles, et plus les risques de « réidentification » de données pourtant anonymisées sont grands".

    Ainsi, explique Valérie Peugeot, "il ne suffit pas de décorréler l’information médicale (la pathologie, la prescription...) du nom du patient. Il faut pouvoir s’assurer que d’autres informations associées ne permettront pas de remonter jusqu’à lui. Par exemple, si le patient souffre d’une pathologie lourde et qu’on dispose du nom de la petite commune où il demeure, il est extrêmement simple de l’identifier." Et de citer en exemple la mésaventure du gouvernement australien, qui a mis en 2016 les données de remboursements de dépenses médicales anonymisées de 2,9 millions de personnes en "open data" : la publication scientifique en ligne ScienceX a rapidement démontré que le processus pouvait être inversé, et s’est amusée à réidentifier 7 célébrités australiennes, "dont 3 députés et 1 footballeur".

    La monétisation de nos données de santé serait, redoutent certains, un premier pas vers une marchandisation de soi délétère. “Toute la régulation Informatique et Libertés est opposée à cette approche. Si nous étions dans quelque chose de patrimonial, on pourrait imaginer qu’une fois que vous avez vendu vos données à un service, il pourrait très bien les revendre ensuite à qui il veut sans vous demander votre consentement”, m’expliquait récemment Olivier Desbiey, membre du Laboratoire d’Innovation Numérique (LINC) de l’institution. “En donnant aux données personnelles un caractère patrimonial, on en ferait de simples marchandises, et au-delà, on ferait de l’être humain une marchandise”, concluait-il.

    Plutôt que de revendre nos données, l’idée portée par des penseurs comme Michel Bauwens ou Evgeny Morozov, serait de rendre nos données personnelles “open source”, d’en faire des biens communs, considérées comme une ressource collective - afin de nous redonner à tous la main sur elles. Mais là encore, l’exemple australien cité plus haut par Valérie Peugeot semble rendre cette idée un peu utopique. D’où le retour, peut être, aux fondamentaux : les lois, les réglementations, et le débat, à mêmes de verrouiller et de protéger nos données, y compris de nous-mêmes.

    #Santé_publique #Données_médicales #Données_personnelles #Marchandisation

  • Le « Health Data Hub », big brother des données de santé lancé ce dimanche
    https://www.ouest-france.fr/sante/le-health-data-hub-big-brother-des-donnees-de-sante-lance-ce-dimanche-6

    Je l’épingle, même si j’arrive pas à le lire car ça me donne trop la gerbe, rien que le nom « Health Data Hub » donne l’idée de la monstruosité qui s’avance, la politique de #santé rentrée de force dans un hub de dentifrice ricain. Ça fait des années que quelques associations dénoncent la main mise des industries privées sur les #données_personnelles de santé, pourtant censées être couvertes par le #secret_médical qui appâte les gros poissons repus. Mais résister face à ce fléau et le troupeau bêlant des technophiles qui ânonnent c’est si pratique à la suite des assurances et des banques, est voué à la grosse déprime.
    #dmp

  • E.P.A. to Limit Science Used to Write Public Health Rules - The New York Times
    https://www.nytimes.com/2019/11/11/climate/epa-science-trump.html

    WASHINGTON — The Trump administration is preparing to significantly limit the scientific and medical research that the government can use to determine public health regulations, overriding protests from scientists and physicians who say the new rule would undermine the scientific underpinnings of government policymaking.

    A new draft of the Environmental Protection Agency proposal, titled Strengthening Transparency in Regulatory Science, would require that scientists disclose all of their raw data, including confidential medical records, before the agency could consider an academic study’s conclusions. E.P.A. officials called the plan a step toward transparency and said the disclosure of raw data would allow conclusions to be verified independently.

    For instance, a groundbreaking 1993 Harvard University project that definitively linked polluted air to premature deaths, currently the foundation of the nation’s air-quality laws, could become inadmissible. When gathering data for their research, known as the Six Cities study, scientists signed confidentiality agreements to track the private medical and occupational histories of more than 22,000 people in six cities. They combined that personal data with home air-quality data to study the link between chronic exposure to air pollution and mortality.

    But the fossil fuel industry and some Republican lawmakers have long criticized the analysis and a similar study by the American Cancer Society, saying the underlying data sets of both were never made public, preventing independent analysis of the conclusions.

    “It was hard to imagine that they could have made this worse, but they did,” said Michael Halpern, deputy director for the Center for Science and Democracy at the Union of Concerned Scientists, a nonprofit advocacy group. He added, “This is a wholesale politicization of the process.”

    Academics are not typically required to turn over private data when submitting studies for peer review by other specialists in the field, or for publication in scientific journals, the traditional ways scientific research is evaluated. If academics were to turn over the raw data to be made available for public review, the E.P.A. would have to spend hundreds of millions of dollars to redact private information, according to one federal estimate.

    #Santé #Données_personnelles #EPA #Politique_scientifique #Data_science #Manipulation

  • Google to Store and Analyze Millions of Health Records - The New York Times
    https://www.nytimes.com/2019/11/11/business/google-ascension-health-data.html

    In a sign of Google’s major ambitions in the health care industry, the search giant is working with the country’s second-largest hospital system to store and analyze the data of millions of patients in an effort to improve medical services, the two organizations announced on Monday.

    The partnership between Google and the medical system, Ascension, could have huge reach. Ascension operates 150 hospitals in 20 states and the District of Columbia. Under the arrangement, the data of all Ascension patients could eventually be uploaded to Google’s cloud computing platform.

    Google is teaming up with Ascension, a nonprofit, as American consumer tech giants like Amazon, Apple, Google and Microsoft jockey to gain a bigger share of the huge health care market. Apple has expanded into virtual medical research using its iPhone and Apple Watch. Microsoft has introduced cloud-based tools to help health systems share medical data. Last year, Amazon joined JPMorgan Chase and Berkshire Hathaway in a venture to try to improve care and reduce costs for their employees in the United States.

    Google’s health efforts include a push to use artificial intelligence to read electronic health records and then try to predict or more quickly identify medical conditions.

    In its announcement on Monday, Ascension said the deal complied with the law and followed the organization’s “strict requirements for data handling.” In a follow-up email, the health system said that its patient data was stored in a private space within Google’s cloud platform and that Google could not use it for any purpose other than providing tools for Ascension medical providers.

    #Google #Santé #Données_personnelles

  • Google reportedly collects health data on millions of Americans without informing patients - CNET
    https://www.cnet.com/news/google-reportedly-collecting-health-data-on-millions-of-americans-without-info

    fter the Journal report was published, Ascension issued a press release announcing the partnership. Ascension said the deal involves its infrastructure being moved onto Google’s cloud platform, as well as the company adopting Google’s G Suite productivity tools. The company said the deal is compliant with HIPAA, the federal law regulating the security and privacy of certain medical information.

    “As the health care environment continues to rapidly evolve, we must transform to better meet the needs and expectations of those we serve as well as our own caregivers and health care providers,” said Eduardo Conrado, Ascension’s executive vice president of strategy and innovations.

    Google also released a statement late Monday, calling the agreement with Ascension “standard practice in health care .”

    “To be clear: under this arrangement, Ascension’s data cannot be used for any other purpose than for providing these services we’re offering under the agreement,” Tariq Shaukat, president of Google Cloud, said in a blog post. “And patient data cannot and will not be combined with any Google consumer data.”

    “By working in partnership with leading health care systems like Ascension, we hope to transform the delivery of health care through the power of the cloud, data analytics, machine learning, and modern productivity tools ,” Shaukat said.

    The project announcement comes as Google makes a bigger push into health care. Earlier this month, the search giant said it’s buying Fitbit, a fitness tracker company, for $2.1 billion, signaling a deeper investment in health services.

    On Monday, news of Project Nightingale riled up lawmakers. “Blatant disregard for privacy, public well-being, & basic norms is now core to Google’s business model,” Sen. Richard Blumenthal, a Democrat from Connecticut, said in a tweet. “This abuse is beyond shameful.”

    #Google #Santé #Données_personnelles

  • Google is to get access to millions of Americans’ personal health data - MIT Technology Review
    https://www.technologyreview.com/f/614705/google-is-to-get-access-to-millions-of-americans-personal-health-d

    The news: Google has signed a deal with Ascension, the second-largest hospital system in the US, to collect and analyze millions of Americans’ personal health data, according to the Wall Street Journal. Ascension operates in 150 hospitals in 21 states.

    “Project Nightingale”: Eventually, data from all of the company’s patients (birth dates, lab results, diagnoses, and hospitalization records, for example) could be uploaded to Google’s cloud computing systems, with a view to using artificial intelligence to scan electronic records, or diagnose or identify medical conditions. The project, code-named Project Nightingale, began in secret last year, the WSJ reports. Neither patients nor doctors have been notified.

    A touchy topic: Inevitably, there are worries. The company took control of the health division of its AI unit, DeepMind, back in November 2018, and people at the time warned it could pave the way for Google to access people’s private, identifiable health data. Ascension employees have raised concerns about how the data will be collected and shared, both technologically and ethically, the WSJ reports.

    A competitive field: Amazon, Uber, and Apple are all pitching themselves as players in the lucrative health-care world too. However, Ascension is Google’s biggest cloud computing customer in health care so far, and this deal will put them ahead of the pack.

    #Google #Santé #Données_personnelles

  • Google’s ‘Project Nightingale’ Gathers Personal Health Data on Millions of Americans - WSJ
    https://www.wsj.com/articles/google-s-secret-project-nightingale-gathers-personal-health-data-on-millions-of

    Search giant is amassing health records from Ascension facilities in 21 states; patients not yet informed

    Google is engaged with one of the country’s largest health-care systems to collect and crunch the detailed personal health information of millions of Americans across 21 states.

    The initiative, code-named “Project Nightingale,” appears to be the largest in a series of efforts by Silicon Valley giants to gain access to personal health data and establish a toehold in the massive health-care industry.

  • I tracked everything my baby did until nothing made sense any more | WIRED UK
    https://www.wired.co.uk/article/quantified-baby

    “And don’t forget to download our app!” the lady on reception told my partner and I as we dropped our baby off at nursery for the first time. I nodded obligingly as we walked out the door. Minutes later, both our phones pinged informing us that we had been given access to parental accounts that would allow us to monitor our baby. So began a daily ritual of checking in on how many times said baby had pooped.

    This, right here, is technological progress. We can, with just a couple of taps, check how many bowel movements our baby has had and at what time, find out how much of their lunch they have eaten and when and for how long they have napped. There’s even a chart for tracking the length of their naps over time. It’s both glorious and terrifying.

    The app in question, Famly, is the work of an eponymous Copenhagen-based startup, which has to date raised more than £322,000 in seed funding. Famly sits at the more sensible end of an ever-growing industry of products and services that aim to quantify our babies. By 2024, the global interactive baby monitor market is expected to top $2.5 billion (£1.93bn). And today, nobody stops with the purchase of a rudimentary baby monitor.

    The idea of the quantified baby isn’t new. But the number of products and services on offer is currently going through a boom phase. When a baby is born, it seems perfectly normal to start inputting data about them into a range of apps. It’s a way of rationalising something that is, in all its smelly, sleep-deprived brilliance, utterly irrational. At first, it’s reassuring, a crutch to aid with the confusion. My partner and I had both become so used to diligently inputting data about our own lives – both personal and professional – that it seemed a logical thing to do. But, after months of using an app to track when our baby napped, we came to realise that all that data we were collecting – the length of nap, how easy our baby found it to get to sleep, where they slept, what mood they were in when they woke up – was utterly meaningless.

    But what about a company that likes aggregating such data to better personalise its products and services? Step forward Google. The company’s life sciences sister company, Verily, has partnered with Procter & Gamble’s Pampers to embed sensors in nappies that track when an infant sleeps, wees or poos. Lumi, which will be available in the US in the coming months, will keep individual data private, but aggregated data will be used to improve the product. Right now, Google’s nascent interest in tracking your newborn’s bowel movements is a relative footnote. Soon, it could be the whole story.

    Or, to put it another way, Google and Pampers will soon have access to, in aggregate, data on how huge numbers of babies sleep and potentially be able to offer advice on how they might sleep better. When it comes to selling that data back to exhausted parents, you can pretty much name your price.

    #Quantified_Baby #Données_personnelles #Bébés #App #Normes_sociales #Inquiétude #Marché_danger

  • Roger McNamee : « personne ne devrait être autorisé à vous suivre sur #INTERNET »
    https://www.mediapart.fr/journal/economie/290919/roger-mcnamee-personne-ne-devrait-etre-autorise-vous-suivre-sur-internet

    Investisseur de la première heure dans le réseau social de Mark Zuckerberg, Roger McNamee fait désormais entendre sa voix contre Facebook. Son ouvrage, qui vient de paraître en français, évoque « la catastrophe » en cours selon lui, mais aussi la montée des résistances contre les géants du numérique. Rencontre avec un actionnaire lucide devenu témoin en colère.

    #données_personnelles,_Facebook,_Google,_McNamee,_Amazon

  • Mes Datas et Moi. Reprenez en main votre identité numérique !
    https://www.mesdatasetmoi.fr

    Un portail thématique sur les données personnelles...
    ...pas super convaincant quand on s’aperçoit qu’il n’y a pas de paramétrage possible des cookies déposés par ce site ("j’accepte" et rien d’autre) et que les outils/sous-sites associés ("une journée de données", application mobile...) commencent par demander tout un tas d’infos persos (âge, code postal...)

    #vie_privée #big_data #données_personnelles

  • Données personnelles : une étude enterre (définitivement) l’anonymat
    https://usbeketrica.com/article/donnees-personnelles-etude-enterre-anonymat

    Mais toutes ces précautions pour protéger l’anonymat sont vaines, affirment des chercheurs de l’Université catholique de Louvain et de l’Imperial College de Londres, dans une étude publiée dans Nature le 23 juillet. Ils ne sont pas les premiers à exposer les failles de l’anonymisation des données, déjà mises en avant dans des études de l’Université de Princeton (2014), de Cornell (2017) ou encore dans une enquête du Guardian (2017). Mais cette fois-ci, les chercheurs ont évalué la probabilité exacte d’identifier une personne à partir d’un ensemble de données dites « anonymisées ». Ils ont pour cela développé un algorithme de machine learning, capable d’identifier quels critères peuvent rendre une personne unique dans un groupe donné.

    Selon eux, 83% des Américains peuvent être ré-identifiés à partir des trois critères que sont le genre, la date de naissance et le code postal. Et ce chiffre monte à 99,98% à partir de 15 critères démographiques (âge, genre, lieu, métier, etc.). « Beaucoup de personnes vivant à New York sont des hommes et ont la trentaine. Parmi eux, beaucoup moins sont également nés le 5 janvier, conduisent une voiture de sport rouge, ont deux enfants et un chien », explique un des chercheurs dans un communiqué de presse. Or, de telles informations sont souvent demandées par les entreprises pour cibler leurs publicités.

    Les chercheurs ont mis en ligne le code source de leur algorithme afin de pouvoir reproduire l’expérience. Leur site permet également de calculer, grâce à ce modèle, la probabilité pour un individu d’être identifié en fonction de sa date de naissance, de son genre et de son code postal.

    Mais là où les données sont particulièrement sensibles, c’est dans le domaine de la santé, alors que plus de 26 millions de personnes ont déjà fait un test ADN en vente libre. Le secteur bancaire est également à risque, surtout depuis le lancement du Libra, la cryptomonnaie de Facebook, pour laquelle se pose la question de la délimitation entre données personnelles et données financières.

    #Données_personnelles #Anonymat

  • Dans le ventilateur à données de l’appli Météo-France | Mediapart
    https://www.mediapart.fr/journal/economie/250719/dans-le-ventilateur-donnees-de-l-appli-meteo-france?onglet=full

    our regarder la météo sur son smartphone, et tenter par exemple d’anticiper la canicule, il est tentant de se géolocaliser, et de laisser l’application trouver où l’on est. En attendant les prévisions, il faudra toutefois subir une première et agaçante conséquence, dont témoignent de nombreux commentaires : « Appli incontournable mais pub vraiment envahissante. » « Les publicités sonores type GIFI sont insupportables, d’autant que le son est extrêmement fort. ET surtout on ne peut pas les fermer immédiatement comme d’autres pub. » « Insupportable, on arrive toujours à charger la pub [...], en revanche, souvent impossible de charger ensuite la page des prévisions, et si on relance, re-pub et toujours pas de météo… »

    Du soleil, un Perrier… L’appli Météo-France, mardi 23 juillet 2019. © Météo-France Du soleil, un Perrier… L’appli Météo-France, mardi 23 juillet 2019. © Météo-France
    Dans la boutique d’applications pour les téléphones Android, les critiques pleuvent sur la page de l’appli Météo-France. « Un établissement public n’est peut-être pas obligé de mettre une pub en grand écran avec 5 sec obligatoire à chaque démarrage de l’application », dit poliment un internaute.

    Derrière ces publicités bien visibles, envahissantes, voire insupportables, se cache toute une industrie, celle du ciblage publicitaire individualisé, généralement en temps réel, réalisé grâce à la collecte de données personnelles. Un marché estimé à un milliard d’euros en France en 2018, sur mobiles et ordinateurs, et mollement surveillé par la Commission nationale de l’informatique et des libertés (Cnil) dans un plan d’action 2019-2020.

    Dans ses toutes nouvelles « lignes directrices », la Cnil rappelle aux acteurs de ce marché publicitaire que « les opérateurs doivent respecter le caractère préalable du consentement au dépôt de traceurs. Ils doivent laisser la possibilité d’accéder au service même en cas de refus de consentir. Ils doivent fournir un dispositif de retrait du consentement facile d’accès et d’usage ». Elle leur laisse encore un délai de plusieurs mois pour se mettre en conformité avec les règles du RGPD, au grand dam de la Quadrature du Net, l’association en pointe dans la lutte pour la protection des données personnelles, qui déplore un « mépris total du droit européen ».

    Embarqués dans les applications, les « traceurs », « pisteurs », ou encore « SDK » (software development kit) publicitaires sont aux applis mobiles ce que les cookies sont aux sites web : des machines à récupérer des données. À très, très grande échelle : « plus de 42 934 160 identifiants publicitaires et les données de géolocalisation correspondantes à partir de plus de 32 708 applications » ont par exemple été récupérés par la seule société française Vectaury.

    Présenté le 27 juin 2019 devant la FTC (Federal Trade Commission), le gendarme américain du commerce, un article intitulé 50 Ways to Leak Your Data : An Exploration of Apps’ Circumvention of the Android Permissions System (50 façons d’aspirer vos données : une exploration du contournement des autorisations Android par les applications) a révélé les méthodes au moyen desquelles les applications contournent les refus de partage de données des utilisateurs. Ces résultats ont été obtenus par l’équipe d’AppCensus, qui travaille pour différents régulateurs et entreprises privées et examine la face cachée des applications. Les applications concernées seront présentées le 15 août.

    À la fin du formulaire relatif aux données de l’application Météo-France. À la fin du formulaire relatif aux données de l’application Météo-France.
    Pour Mediapart, l’un des membres d’AppCensus, Joel Reardon, de l’université de Calgary (Canada), a testé l’application Météo-France. Dans trois configurations différentes : « Tout accepter », « Je valide mes choix » (avec le choix de tout désactiver) et enfin « Tout refuser ». Pendant 10 minutes chaque fois, le test a consisté à surveiller la transmission de quatre informations sensibles : l’identifiant publicitaire du téléphone ; l’identifiant Android ou Android ID ; la géolocalisation ; et l’adresse MAC du téléphone – à laquelle « on ne devrait plus pouvoir accéder du tout », estime le chercheur, à l’unisson de ses confrères. Android ID ou adresse MAC : pour Arthur Messaud, de la Quadrature du Net, « sans l’identifiant unique » d’un terminal, il n’y a pas de « croisement publicitaire possible ».

    Le tableau ci-dessous récapitule les données transmises avec la troisième option, « Je refuse tout ».

    Dans le débat sur les données personnelles, quelques voix s’élèvent régulièrement pour suggérer que leurs détenteurs, considérés comme légitimes propriétaires, puissent les vendre eux-mêmes, ou au moins en tirer un revenu. Quel est le donc le prix de ces données… données à Météo-France, dont l’appli est utilisée par des millions de personnes ?

    « Aucun revenu direct » n’est produit par les données en elles-mêmes, précise Météo-France. « En revanche », souligne l’établissement public, elles « permettent indirectement d’augmenter le niveau des recettes publicitaires générées par la commercialisation des espaces », en optimisant « le prix des publicités vendues ». De combien ? On ne le saura pas : « En l’état, il ne nous est pas possible quantitativement de connaître précisément l’apport de l’utilisation des données pour améliorer les prix de vente », reconnaît Météo-France.

    L’établissement météorologique, dont les comptes sont auscultés chaque année à l’occasion de l’examen, au Parlement, des projets de loi de finances (voir ici et là), a transmis à Mediapart ses résultats pour le premier semestre 2019 : « Entre le 1er janvier 2019 et le 30 juin 2019, les recettes publicitaires générées par les applications mobiles de Météo-France (application grand public et application Météo Ski) se montent à 1 194 184,79 € hors commission. »

    1,2 million d’euros sur six mois : tel est le prix des données personnelles cédées. « Pour l’exercice 2018 », ajoute Météo-France, les revenus générés par les applications mobiles « ont représenté 7,64 % des recettes commerciales totales (soit 0,6 % des ressources budgétaires de l’établissement) ».

    Mais si les informations météorologiques ont perdu leur valeur marchande, ce n’est pas le cas des données personnelles, et ce sont celles-ci, qui ne lui appartiennent pas et qu’il ne produit pas, que Météo-France met donc en vente. Un phénomène de vases communicants, en quelque sorte. Au détriment du public, et pour des sommes dérisoires.

    #Météo_France #Données_personnelles #traçage #Publicité

  • Interviews fictives entre les personnages du défi babelio ado

    https://www.pedagogie.ac-nice.fr/docazur/index.php/traam/1576-traam-emi-interviews-fictives-entre-les-personnages-du-defi-b

    «  Etre capable de prélever des informations à partir d’un document créé par un camarade et d’en faire une interview fictive en situant les personnages en fonction du contexte de l’ouvrage de fiction.
    Etre capable de mettre en scène le texte préalablement rédigé
    Etre capable de travailler en groupe
    Etre capable de donner une identité numérique à des personnages de fiction »

    #séance #EMI #babelio #Identité_Numérique #Données_Personnelles

  • #Doctolib : un géant de la #santé qui commence à inquiéter
    https://www.francetvinfo.fr/sante/professions-medicales/doctolib-un-geant-de-la-sante-qui-commence-a-inquieter_3447979.html

    Succès fulgurant pour la #start-up de prise de rendez-vous médicaux : en cinq ans, la société affiche une valorisation de plus d’un milliard d’euros. Mais cette réussite pose la question de l’impact que peut avoir un tel acteur, devenu incontournable.

    #numérique #ap-hp #concurrence #RGPD #données_personnelles #monopole #médecine #secrétariat_médical

  • Why Is Border Patrol Planning to DNA Test Asylum Seekers ? - Pacific Standard
    https://psmag.com/news/why-is-border-patrol-planning-to-dna-test-asylum-seekers

    Next week, at two locations along the United States’ southern border, authorities will begin swabbing the cheeks of migrants and asylum seekers traveling as families to complete DNA tests. The new pilot program, first reported by CNN, seeks to identify what the Department of Homeland Security calls “fraudulent families.” The DNA tests can provide results in as little as 90 minutes.

    For months, the Trump administration has claimed that some asylum seekers arriving on the border with children are not actually families, but rather adults traveling with unrelated children. The administration argues that these people hope to take advantage of laws that limit the amount of time children and families can remain in detention.

    Why Civil Rights Advocates Are Worried

    Some advocates are suspicious of the administration’s motives. In the past, immigration authorities have made fraud claims and separated legitimate parents from their children. Others say that the administration is exaggerating the scale of the problem: According to BuzzFeed News, immigration officials say they have identified 3,100 fraudulent families in the last year—but that represents less than 1 percent of the 256,821 family units apprehended. Some say the number should be even lower, because officials consider a family fraudulent if they believe that a child is not actually under 18 years old. (In the past, immigration authorities have been accused of ignoring evidence that people in adult detention facilities are actually minors.)

    Arguing that the DNA tests are unnecessary, the American Civil Liberties Union says the new plan represents another attempt by the administration to “intimidate and deter” asylum seekers. “Forced DNA collection is coercive and intrusive, and it raises serious privacy and civil liberties concerns,” Vera Eidelman, staff attorney with the ACLU’s Speech, Privacy, and Technology Project, writes in a statement sent to Pacific Standard.

    Why Civil Rights Advocates Are Worried

    Some advocates are suspicious of the administration’s motives. In the past, immigration authorities have made fraud claims and separated legitimate parents from their children. Others say that the administration is exaggerating the scale of the problem: According to BuzzFeed News, immigration officials say they have identified 3,100 fraudulent families in the last year—but that represents less than 1 percent of the 256,821 family units apprehended. Some say the number should be even lower, because officials consider a family fraudulent if they believe that a child is not actually under 18 years old. (In the past, immigration authorities have been accused of ignoring evidence that people in adult detention facilities are actually minors.)

    Arguing that the DNA tests are unnecessary, the American Civil Liberties Union says the new plan represents another attempt by the administration to “intimidate and deter” asylum seekers. “Forced DNA collection is coercive and intrusive, and it raises serious privacy and civil liberties concerns,” Vera Eidelman, staff attorney with the ACLU’s Speech, Privacy, and Technology Project, writes in a statement sent to Pacific Standard.

    #ADN #Vie_Privée #Société_contrôle #Données_personnelles

  • Du panneau #publicitaire au crime #humanitaire en passant par les #smartcities de nos maires :

    Au départ je voulais juste vous transmettre cette petite action #antipub sympatoche :
    Résistance à l’Agression Publicitaire
    [1 CLIC QUI RÉSISTE] « On a installé une page spéciale sur notre serveur. Cliquer sur le lien pour supprimer une adresse MAC aléatoire des nouveaux capteurs d’audience de la RATP et SNCF (et rafraîchir la page pour en supprimer d’autres) :-D »
    –-> https://antipub.org/retency.html

    Cette action fait suite à l’expérimentation lancée gare Saint Lazare en vue d’utiliser les panneaux publicitaires sous forme d’écrans à des fins de comptage des passants via des capteurs détectant les adresses MAC de leurs smartphones.
    Article ici : http://maisouvaleweb.fr/face-aux-panneaux-publicitaires-numeriques-devons-affirmer-dimension-c

    Dans un commentaire une personne souligne, qu’une adresse MAC n’est pas « juste » un simple numéro. Elle peut donner accès à énormément de données personnelles. La réponse qui lui est faite développe un aspect que je ne connaissais pas : la (non) position de la CNIL sur le sujet :

    L’analyse juridique proposée dans la première partie de l’article est incomplète et pourrait conduire à une conclusion erronée, comme quoi la collecte d’adresse MAC sans consentement serait conforme au droit dès lors que cette adresse serait anonymisée à court délai et que les personnes concernées pourraient s’opposer à cette collecte.

    Cette erreur de l’auteur semble s’expliquer du fait qu’il a pris pour argent comptant les interprétations du droit données par la CNIL dans ses décisions, comme si la CNIL était neutre et seule bouche de la loi.

    Or, la CNIL n’est pas du tout neutre, et notamment pas sur cette question où elle a une position singulière, critiquable d’un point de vue tant politique que juridique.

    Le traitement d’adresses MAC est encadré juridiquement par le RGPD mais aussi, depuis plus longue date, par la directive 2002/58 (liens en bas de commentaire). Or, cette directive n’a été que très mal transposée en France, comme un peu partout ailleurs dans l’UE. Du coup, la CNIL est depuis très mal à l’aise à l’idée d’appliquer cette directive, car elle ne sait pas jusqu’où elle peut l’interpréter pour se donner davantage de pouvoir. Or, de façon classique, la CNIL étant terrorisée à l’idée d’être sanctionnée par le Conseil d’Etat si elle abuse de ses pouvoirs, elle préfère ne rien faire, lâchement.

    La suite du commentaire et ses réponses sont tout aussi intéressantes : http://maisouvaleweb.fr/face-aux-panneaux-publicitaires-numeriques-devons-affirmer-dimension-collective-donnees-personnelles/#comment-55246

    Résistance à l’agression Publicitaire avait fait un dossier inquiet en 2014 : « Les caméras publicitaires, pur fantasme ?  »
    https://antipub.org/dossier-les-cameras-publicitaires-pur-fantasme

    Reporterre a aussi fait un article sur le sujet des panneaux publicitaires : https://reporterre.net/Les-panneaux-publicitaires-numeriques-envahissent-l-espace-public-et-nos

    Il se trouve que c’est justement par ce biais, de la récupération des données en toute « politesse » (je te ponctionne un peu d’identité contre un peu de réseau) que sont actuellement conçues les villes du futur, les #smartcities et que des décideurs politiques font des choix sans anticiper le moins du monde (ou parfois si, à des fins policière) ce que cela induit pour les populations qui seront concernées...

    Horreur. Le temps d’aller vérifier une donnée, je tombe sur cette info relevée par Olivier Tesquet sur twitter :

    L’entreprise israélienne Cellebrite, spécialisée dans l’extraction de données (ils auraient aidé Apple à déverrouiller l’iPhone de l’auteur de l’attentat de San Bernardino en 2016) a identifié un nouveau marché porteur : les demandeurs d’asile.
    Selon un slide de Cellebrite présenté au Maroc, 77% des réfugiés arrivent à destination sans papiers d’identité... mais 43% d’entre eux possèdent un smartphone. Pourquoi la police aux frontières n’aurait-elle pas toute latitude pour fouiller dedans ?

    Source : https://privacyinternational.org/feature/2776/surveillance-company-cellebrite-finds-new-exploit-spying-asylu
    Suite du thread : https://twitter.com/oliviertesquet/status/1113816301435224064

    #publicité #data #données_personnelles #big_brother #traçabilité #identité #numérique

  • 30e anniversaire : Le père du Web appelle à un « contrôle complet des données » par les utilisateurs
    https://www.20minutes.fr/high-tech/2470435-20190312-30e-anniversaire-web-tim-berners-lee-souhaite-controle-co

    Trois lettres qui ont changé le monde. Le 12 mars 1989, Tim Berners-Lee soumet à son patron du Cern de Genève une proposition de « système de gestion décentralisée de l’information ». « Vague mais excitant », répond son supérieur. La proposition deviendra l’« Hypertext project » puis le « WorldWideWeb », l’année suivante, avec une première page accessible de l’extérieur le 6 août 1991. Alors que l’utopie des débuts a laissé place à un contrôle presque absolu de quelques géants, le père du Web a lancé un appel, lundi à Genève, à un « contrôle complet de leurs données » par ses usagers.

    #worldwide_web #hypertext_transfert_protocol #données_personnelles (protections des)

    Voir aussi : https://seenthis.net/messages/766657

  • Solidarité avec les profs de Paris 13 remplacés par Google
    https://www.laquadrature.net/2019/02/28/solidarite-avec-les-profs-de-paris-13-remplaces-par-google

    Lundi matin, La Quadrature du Net est intervenue aux côtés d’enseignants de l’université de Paris 13 pour interrompre une dizaine de minutes la formation de 4 jours donnée par Google à une centaine d’étudiant·es en…

    #Données_personnelles

  • « Le Comité européen de la protection des données a récemment adopté une note d’information sur l’éventualité d’un Brexit sans accord à l’attention des organismes dans l’Union qui transmettent des données personnelles vers le Royaume-Uni.

    La CNIL précise, dans une série de questions-réponses, les recommandations et étapes à suivre pour se préparer au scénario du "No-deal Brexit" [brexit sans accord]. »

    https://www.cnil.fr/fr/se-preparer-un-brexit-sans-accord-quelles-questions-quels-conseils-de-la-cnil

    #brexit #CNIL #données_personnelles