• Les personnels et étudiant·e·s de l’Université de Strasbourgs ont-ils mis sous #surveillance ?
    (Communiqué de presse du 20 février 2020)

    Les départements de sûreté intérieure se multiplient dans les #universités, les sociétés de sécurité privées s’établissent sur les #campus, la #surveillance_vidéo se généralise, alors que les franchises universitaires sont régulièrement bafouées par la présence de la #police dans les établissements. L’Université de #Strasbourg, qui s’est singularisée ces dernières années par une anticipation et une application zélée de toutes les réformes, se veut probablement à la pointe des #dispositifs_de_surveillance et d’anticipation des mouvements sociaux. Face à plusieurs dérives qui pourraient remettre en cause nos #libertés_fondamentales, les organisations signataires estiment qu’il est aujourd’hui de leur #responsabilité d’alerter les personnels sur les informations dont elles disposent et sur les démarches qu’elles ont engagées. Dans un courrier du 4 février dernier (à lire et télécharger ICI : https://drive.google.com/file/d/1oLOje91aiU_T1p7VDBMIXSk5oaV4w2eL/view), nos organisations ont interrogé le Président de l’université et le Directeur général des services sur des faits dûment constatés ou méritant d’être vérifiés. Tout d’abord sur des pratiques de la société de #sécurité_privée prestataire de notre établissement. Notre inquiétude portait notamment sur une possible pratique de #fichage d’étudiant·e·s et de #personnels. Nous avons demandé la mise en place de mesures permettant, soit de lever ces suspicions, soit de les confirmer. Nous précisons que si le prestataire de sécurité privée a très récemment changé, les salariés restent, pour beaucoup, les mêmes. Or des comportements similaires ou tout aussi graves, ont été constatés. A titre d’exemple, le jeudi 6 février, plusieurs témoins ont fait état de la présence d’au moins un salarié de la société de sécurité privée aux abords de la manifestation intersyndicale au niveau de la Place de la République. Des étudiant·e·s sont allés à sa rencontre pour savoir s’il était en service, ce qu’il a reconnu avant de justifier sa présence en dehors du campus en disant qu’il avait des ordres. De qui émanaient ces ordres ? Notre courrier s’interrogeait ensuite sur les missions du fonctionnaire-adjoint de sécurité et de défense de notre université, sur la nature des rapports qu’il rédige suite à ses tâches de surveillance des AG ainsi que sur les destinataires de ses rapports. Enfin nous demandions que toute la lumière soit faite sur les décisions et les ordres éventuels qui ont pu mener à de telles dérives, mais aussi sur l’utilisation et le devenir des #données_personnelles collectées par les sociétés de sécurité privées et par le fonctionnaire-adjoint de sécurité et de défense. Le mercredi 12 février, nos organisations ont été destinataires d’un courrier émanant du Directeur Général des Services qui apportait, au nom du président et en son nom propre, des éléments de réponse à nos questions et demandes. Ces réponses, que nous publions avec l’accord des auteurs (à lire ICI : https://drive.google.com/file/d/1TDoB-ln6BX3B8Qm2e1CzcdkK0EnS4ya_/view), nous semblent lacunaires. Nous invitons donc le Président #Michel_Deneken à prendre nos questions avec plus de sérieux et à y répondre publiquement avec précision, afin de rassurer notre communauté de recherche et d’enseignement sur la préservation de nos libertés fondamentales.

    L’intersyndicale de l’Université de Strasbourg,CNT-STP67, DICENSUS, FO-ESR, SNCS-FSU, SNASUB-FSU, SNESUP-FSU, Solidaires Étudiant•e•s Alsace, Sud Éducation Alsace.

    https://fsusupalsace.files.wordpress.com/2020/02/communiquec2b4-intersyndical-sur-la-sec2b4curitec2b4-a
    #vidéosurveillance

    ping @etraces
    #Deneken

  • Les #outils_numériques de l’#humanitaire sont-ils compatibles avec le respect de la #vie_privée des #réfugiés ?

    Pour gérer les opérations humanitaires dans le camp de réfugiés syriens de #Zaatari en #Jordanie, les ONG ont mis en place des outils numériques, mais l’#innovation a un impact sur le personnel humanitaire comme sur les réfugiés. Travailler sur ce camp ouvert en 2012, où vivent 76 000 Syriens et travaillent 42 ONG, permet de s’interroger sur la célébration par le monde humanitaire de l’utilisation de #nouvelles_technologies pour venir en aide à des réfugiés.

    Après plusieurs années d’observation participative en tant que chargée d’évaluation pour une organisations non gouvernementales (ONG), je suis allée plusieurs fois à Amman et dans le camp de Zaatari, en Jordanie, entre 2017 et 2018, pour rencontrer des travailleurs humanitaires de 13 organisations différentes et agences de l’Onu et 10 familles vivant dans le camp, avec l’aide d’un interprète.

    Le camp de Zaatari a été ouvert dès 2012 par le Haut Commissariat aux Réfugiés pour répondre à la fuite des Syriens vers la Jordanie. Prévu comme une « #installation_temporaire », il peut accueillir jusqu’à 120 000 réfugiés. Les ONG et les agences des Nations Unies y distribuent de la nourriture et de l’eau potable, y procurent des soins et proposent un logement dans des caravanes.

    Pour faciliter la #gestion de cet espace de 5,2 km2 qui accueille 76 000 personnes, de très nombreux rapports, cartes et bases de données sont réalisés par les ONG. Les #données_géographiques, particulièrement, sont collectées avec des #smartphones et partagées via des cartes et des #tableaux_de_bord sur des #plateformes_en_ligne, soit internes au camp comme celle du Haut Commissariat des Nations unies pour les réfugiés (HCR), soit ouvertes à tous comme #Open_Street_Map. Ainsi, grâce à des images par satellite, on peut suivre les déplacements des abris des réfugiés dans le camp qui ont souvent lieu la nuit. Ces #mouvements modifient la #géographie_du_camp et la densité de population par zones, obligeant les humanitaires à modifier les services, tel l’apport en eau potable.

    Les réfugiés payent avec leur iris

    Ces outils font partie de ce que j’appelle « l’#humanitaire_numérique_innovant ». Le scan de l’#iris tient une place à part parmi ces outils car il s’intéresse à une partie du #corps du réfugié. Cette donnée biométrique est associée à la technologie de paiement en ligne appelée #blockchain et permet de régler ses achats au #supermarché installé dans le camp par une société jordanienne privée. Avant l’utilisation des #scanners à iris, les réfugiés recevaient une #carte_de_crédit qu’ils pouvaient utiliser dans divers magasins autour du camp, y compris dans des #échoppes appartenant à des réfugiés.

    Ils ne comprennent pas l’utilité pour eux d’avoir changé de système. Nour*, une réfugiée de 30 ans, trouvait que « la #carte_Visa était si facile » et craint de « devenir aveugle si [elle] continue à utiliser [son] iris. Cela prend tellement de temps : “ouvre les yeux”, “regarde à gauche”, etc. ». Payer avec son corps n’a rien d’anecdotique quand on est réfugié dans un camp et donc dépendant d’une assistance mensuelle dont on ne maîtrise pas les modalités. Nisrine, une autre réfugiée, préférait quand « n’importe qui pouvait aller au supermarché [pour quelqu’un d’autre]. Maintenant une [seule] personne doit y aller et c’est plus difficile ». Sans transport en commun dans le camp, se rendre au supermarché est une contrainte physique pour ces femmes.

    Le principal argument des ONG en faveur du développement du scan de l’iris est de réduire le risque de #fraude. Le #Programme_Alimentaire_Mondial (#Pam) contrôle pourtant le genre de denrées qui peuvent être achetées en autorisant ou non leur paiement avec la somme placée sur le compte des réfugiés. C’est le cas par exemple pour des aliments comme les chips, ou encore pour les protections hygiéniques. Pour ces biens-là, les réfugiés doivent compléter en liquide.

    Des interactions qui changent entre le personnel humanitaire et les réfugiés

    Les effets de ces #nouvelles_technologies se font aussi sentir dans les interactions entre le personnel du camp et les réfugiés. Chargés de collecter les #données, certains humanitaires doivent régulièrement interroger des jeunes hommes venant de zones rurales limitrophes (qui forment la majorité des réfugiés) sur leur hygiène ou leurs moyens de subsistance. Cela leur permet de créer des #indicateurs pour classer les réfugiés par catégories de #vulnérabilité et donc de #besoins. Ces interactions sont considérées par les réfugiés comme une intrusion dans leur espace de vie, à cause de la nature des questions posées, et sont pourtant devenues un des rares moments d’échanges entre ceux qui travaillent et vivent dans le camp.

    Le #classement des ménages et des individus doit se faire de manière objective pour savoir qui recevra quoi, mais les données collectées sont composites. Difficile pour les responsables de projets, directement interpellés par des réfugiés dans le camp, d’assumer les choix faits par des logiciels. C’est un exercice mathématique qui décide finalement de l’#allocation de l’aide et la majorité des responsables de programmes que j’ai interrogés ne connaissent pas son fonctionnement. Le processus de décision est retiré des mains du personnel humanitaire.

    Aucune évaluation de la #protection_des_données n’a été réalisée

    La vie privée de cette population qui a fui la guerre et trouvé refuge dans un camp est-elle bien protégée alors que toutes ces #données_personnelles sont récoltées ? Le journal en ligne The New Humanitarian rapportait en 2017 une importante fuite de données de bénéficiaires du Pam en Afrique de l’Ouest, détectée par une entreprise de protection de la donnée (https://www.thenewhumanitarian.org/investigations/2017/11/27/security-lapses-aid-agency-leave-beneficiary-data-risk). En Jordanie, les #données_biométriques de l’iris des réfugiés circulent entre une banque privée et l’entreprise jordanienne qui exploite le supermarché, mais aucune évaluation de la protection des données n’a été réalisée, ni avant ni depuis la mise en œuvre de cette #innovation_technologique. Si la protection des données à caractère personnel est en train de devenir un objet de légalisation dans l’Union européenne (en particulier avec le Règlement Général sur la Protection des Données), elle n’a pas encore été incluse dans le #droit_humanitaire.

    De la collecte de données sur les pratiques d’hygiène à l’utilisation de données biométriques pour la distribution de l’#aide_humanitaire, les outils numériques suivent en continu l’histoire des réfugiés. Non pas à travers des récits personnels, mais sur la base de données chiffrées qui, pense-t-on, ne sauraient mentir. Pour sensibiliser le public à la crise humanitaire, les équipes de communication des agences des Nations Unies et des ONG utilisent pourtant des histoires humaines et non des chiffres.

    Les réfugiés eux-mêmes reçoivent peu d’information, voire aucune, sur ce que deviennent leurs données personnelles, ni sur leurs droits en matière de protection de données privées. La connexion Internet leur est d’ailleurs refusée, de peur qu’ils communiquent avec des membres du groupe État Islamique… La gestion d’un camp aussi vaste que celui de Zaatari bénéficie peut-être de ces technologies, mais peut-on collecter les #traces_numériques des activités quotidiennes des réfugiés sans leur demander ce qu’ils en pensent et sans garantir la protection de leurs données personnelles ?

    http://icmigrations.fr/2020/01/16/defacto-015-01

    #camps_de_réfugiés #numérique #asile #migrations #camps #surveillance #contrôle #biométrie #privatisation

    ping @etraces @reka @karine4 @isskein

  • La Police nationale lorgne sur les « données de réservation » des voyageurs
    https://www.nextinpact.com/news/108540-la-police-nationale-lorgne-sur-donnees-reservation-voyageurs.htm

    Au travers d’un arrêté publié en pleine période de fêtes, le gouvernement a confié à la police nationale le soin d’exploiter les nombreuses « données de voyage » relatives aux trajets effectués en avion, en train, en bus, etc. Ceci pour des finalités potentiellement très larges. Alors que de nombreux voyageurs sont encore pénalisés par les grèves, en cours notamment à la SNCF et à la RATP, l’exécutif s’intéresse à « l’exploitation des données de voyage ». Par le biais d’un arrêté publié samedi au Journal (...)

    #data #surveillance # #PNR #CNIL

    ##_

  • Le gouvernement britannique autorise Amazon à accéder aux données de 40 millions de patients
    https://korii.slate.fr/tech/gouvernement-britannique-amazon-acces-donnees-medicales-40-millions-pati

    L’ONG Privacy International dénonce un accord passé entre le fabricant d’Alexa et le ministère de de la Santé qui va au-delà de l’annonce initiale. Outre-Manche, l’exécutif dirigé par Boris Jonhson essuie actuellement une pluie de critiques pour avoir validé une autorisation d’accès aux informations médicales stockées sur les serveurs du NHS (National Health Service) et mises à la disposition d’Amazon sans aucune compensation financière et sans l’accord des patient·es. En juillet dernier, Matt Hancock, (...)

    #Amazon #Alexa #BigData #BigPharma #data #NationalHealthSystem-NHS #santé

    ##santé

  • Vendre ses données de santé, ça coûte combien ? - CNET France
    https://www.cnetfrance.fr/news/vendre-ses-donnees-de-sante-ca-coute-combien-39895205.htm

    C’est une statistique assez surprenante, pour ne pas dire inquiétante. Selon une enquête de CSA Research pour le laboratoire pharmaceutique Roche, si 78 % des français interrogés estiment que le partage de données de santé (avec des scientifiques) est un acte citoyen qui peut faire progresser la recherche (jusque là, on parle d’open science, donc aucun problème), 20 % sont prêts à aller plus loin que le simple partage, et ne verraient ainsi aucun problème… à les vendre. Chez les 18-24 ans, ils sont même 36 %, « conscients » qu’ils sont de « la valeur » de ces données.

    Oui, leur valeur. Un débat fait rage depuis quelques années autour de la monétisation des données, et leur caractère « patrimonial » ou non. Si vos données personnelles vous appartiennent (et leur valeur aussi) au même titre que votre corps, et si elles ont une valeur importante, pourquoi pas, pensent certaines personnes, accepter sciemment qu’elles soient revendues, contre un petit pécule ? Nous en avons déjà parlé sur CNET France : vos données personnelles en disent beaucoup sur vous, et forcément, pour cette raison, elles ont de la valeur pour de nombreux acteurs, des publicitaires aux assurances, en passant par les chercheurs. Mais seules, isolées, brutes, elles ne valent en fait pas grand chose.

    En novembre 2019, Alphabet a ainsi mis la main sur les données de santé de millions d’Américains, officiellement dans le cadre d’un accord pour « développer de nouvelles technologies dans le domaine de la santé », officieusement dans un but économique. Ainsi, le chercheur en droit et technologie Florian Martin-Bariteau, de l’université d’Ottawa, explique-t-il sur ICI Radio-Canada Première, que « les données de santé sont le nouvel eldorado des compagnies technologiques dans le monde entier ». Car, pense-t-il, sous le manteau, les entreprises qui nouent ce genre de partenariats à priori dans un but noble, pourraient bien être tentées de « se servir de ces informations pour les revendre ». Et d’ajouter qu’on « nous dit pour nous rassurer que Google n’aura pas le droit d’utiliser cet ensemble de données pour les coupler avec les données des consommateurs qu’elle a déjà », mais que « Google est un expert des ’oups’ », et que « ce n’est pas la compagnie qui a la meilleure réputation en gestion des données personnelles et de sécurité des données ».

    Pour éviter ce genre de collecte-revente qui se font (ou se feraient) dans le dos des personnes, sans leur consentement direct, des lois existent, comme le RGPD, effectif en Europe depuis mai 2018. Mais le plus simple ne serait-il pas de laisser les individus vendre eux-mêmes leurs données de santé ? Octroyer un « droit de propriété » aux gens serait ainsi un moyen pour ces derniers, estiment Gaspard Koenig et Jaron lanier, de garder la main sur des données qui ne sont pas comme les autres, car leur valeur ne diminue pas à l’usage.

    Créer un marché qui n’existe pas, c’est l’eldorado des gens sans éthique.

    Sur son site, Embleema publie un « manifeste » intéressant, qui prône une co-construction de la valeur des données de santé, entre les patients et les chercheurs en médecine. Robert Chu et ses associés expliquent que « nos données de santé sont notre actif numérique le plus précieux, car elles peuvent nous sauver la vie dans une situation d’urgence, et fournir des informations critiques pour la prise de décision des prestataires de soins », mais que jusqu’ici, « elles étaient gardées en captivité dans des silos protégés, par crainte de voir nos droits aux soins violés », au grand dam de la « médecine personnalisé, qui perd une mine de données » essentielles.

    Selon la startup, « Blockchain santé » sera l’un des moyens, demain, de redonner « le pouvoir aux patients », de ne plus les obliger à « faire appel à des tiers pour traiter leurs informations les plus sensibles ». Robert Chu explique ainsi « qu’aujourd’hui, les données des patients sont revendues par des sociétés (comme Cegedim en France), qui les achètent à des professionnels de santé comme des hôpitaux, les anonymisent, puis les vendent aux laboratoires pharmaceutiques ». D’après ses estimations, « ce marché, qui avoisine les 200 millions d’euros en France, est capté par ces tiers, et, la source des données, le patient, ne perçoit rien. » Outre Cegedim, notons au passage que d’autres « courtiers de données », comme Sophia Genetics, qui déploie des solutions d’intelligence artificielle en santé, ou OpenHealth Company, effectuent pour des hôpitaux et des médecins le traitement de leurs données, issues de plusieurs centaines de milliers de patients.

    Vendre des données de santé peut coûter cher… à leur propriétaire

    Au fond, revendre vos données de santé ne vous rapporterait donc bien souvent qu’un petit pécule. Mais dans le même temps, estiment les défenseurs de la vie privée et de la protection des données personnelles, cela pourrait vous en coûter, à terme, d’une toute autre façon. Certes, l’idée d’un "droit patrimonial" des données de santé, destiné à contrer la monétisation "sans contrôle" actuelle, est séduisante. Mais une fois les données revendues, celles-ci échappent à leur "propriétaire".

    "Si les données de santé devraient d’abord servir à l’amélioration de la qualité des soins, on ne peut ignorer qu’elles peuvent servir à d’autres finalités, notamment en matière de marketing médical pour les industriels du secteur. À titre d’exemple, connaître la consommation de médicaments par zone de chalandise permet d’organiser les tournées des visiteurs médicaux pour cibler les médecins non-prescripteurs ; ou, à l’instar de n’importe quel secteur commercial, connaître les profils des internautes permet de pousser de la publicité en ligne, toujours plus personnalisée. Les industries de santé consacrent de plus en plus de budget à leur marketing digital, en direction des prescripteurs ou des patients eux-mêmes", observe ainsi Valérie Peugeot, commissaire à la CNIL, en charge du secteur santé.

    En outre, l’anonymisation des données n’est qu’une illusion, d’autant plus que le risque de piratage plane fortement, rappelle cette dernière : "Il se passe rarement plus de quelques jours sans qu’on ne découvre une faille de sécurité sur des logiciels clés ou, plus grave, qu’une fuite de données ne soit révélée. En janvier 2018, ce sont les données de 53 000 patients américains, comprenant entre autres des informations cliniques et des données sur les médicaments prescrits, qui sont parties dans la nature. Mais surtout, plus le nombre de bases de données accessibles est important, plus les croisements entre bases sont possibles, et plus les risques de « réidentification » de données pourtant anonymisées sont grands".

    Ainsi, explique Valérie Peugeot, "il ne suffit pas de décorréler l’information médicale (la pathologie, la prescription...) du nom du patient. Il faut pouvoir s’assurer que d’autres informations associées ne permettront pas de remonter jusqu’à lui. Par exemple, si le patient souffre d’une pathologie lourde et qu’on dispose du nom de la petite commune où il demeure, il est extrêmement simple de l’identifier." Et de citer en exemple la mésaventure du gouvernement australien, qui a mis en 2016 les données de remboursements de dépenses médicales anonymisées de 2,9 millions de personnes en "open data" : la publication scientifique en ligne ScienceX a rapidement démontré que le processus pouvait être inversé, et s’est amusée à réidentifier 7 célébrités australiennes, "dont 3 députés et 1 footballeur".

    La monétisation de nos données de santé serait, redoutent certains, un premier pas vers une marchandisation de soi délétère. “Toute la régulation Informatique et Libertés est opposée à cette approche. Si nous étions dans quelque chose de patrimonial, on pourrait imaginer qu’une fois que vous avez vendu vos données à un service, il pourrait très bien les revendre ensuite à qui il veut sans vous demander votre consentement”, m’expliquait récemment Olivier Desbiey, membre du Laboratoire d’Innovation Numérique (LINC) de l’institution. “En donnant aux données personnelles un caractère patrimonial, on en ferait de simples marchandises, et au-delà, on ferait de l’être humain une marchandise”, concluait-il.

    Plutôt que de revendre nos données, l’idée portée par des penseurs comme Michel Bauwens ou Evgeny Morozov, serait de rendre nos données personnelles “open source”, d’en faire des biens communs, considérées comme une ressource collective - afin de nous redonner à tous la main sur elles. Mais là encore, l’exemple australien cité plus haut par Valérie Peugeot semble rendre cette idée un peu utopique. D’où le retour, peut être, aux fondamentaux : les lois, les réglementations, et le débat, à mêmes de verrouiller et de protéger nos données, y compris de nous-mêmes.

    #Santé_publique #Données_médicales #Données_personnelles #Marchandisation

  • Le « Health Data Hub », big brother des données de santé lancé ce dimanche
    https://www.ouest-france.fr/sante/le-health-data-hub-big-brother-des-donnees-de-sante-lance-ce-dimanche-6

    Je l’épingle, même si j’arrive pas à le lire car ça me donne trop la gerbe, rien que le nom « Health Data Hub » donne l’idée de la monstruosité qui s’avance, la politique de #santé rentrée de force dans un hub de dentifrice ricain. Ça fait des années que quelques associations dénoncent la main mise des industries privées sur les #données_personnelles de santé, pourtant censées être couvertes par le #secret_médical qui appâte les gros poissons repus. Mais résister face à ce fléau et le troupeau bêlant des technophiles qui ânonnent c’est si pratique à la suite des assurances et des banques, est voué à la grosse déprime.
    #dmp

  • E.P.A. to Limit Science Used to Write Public Health Rules - The New York Times
    https://www.nytimes.com/2019/11/11/climate/epa-science-trump.html

    WASHINGTON — The Trump administration is preparing to significantly limit the scientific and medical research that the government can use to determine public health regulations, overriding protests from scientists and physicians who say the new rule would undermine the scientific underpinnings of government policymaking.

    A new draft of the Environmental Protection Agency proposal, titled Strengthening Transparency in Regulatory Science, would require that scientists disclose all of their raw data, including confidential medical records, before the agency could consider an academic study’s conclusions. E.P.A. officials called the plan a step toward transparency and said the disclosure of raw data would allow conclusions to be verified independently.

    For instance, a groundbreaking 1993 Harvard University project that definitively linked polluted air to premature deaths, currently the foundation of the nation’s air-quality laws, could become inadmissible. When gathering data for their research, known as the Six Cities study, scientists signed confidentiality agreements to track the private medical and occupational histories of more than 22,000 people in six cities. They combined that personal data with home air-quality data to study the link between chronic exposure to air pollution and mortality.

    But the fossil fuel industry and some Republican lawmakers have long criticized the analysis and a similar study by the American Cancer Society, saying the underlying data sets of both were never made public, preventing independent analysis of the conclusions.

    “It was hard to imagine that they could have made this worse, but they did,” said Michael Halpern, deputy director for the Center for Science and Democracy at the Union of Concerned Scientists, a nonprofit advocacy group. He added, “This is a wholesale politicization of the process.”

    Academics are not typically required to turn over private data when submitting studies for peer review by other specialists in the field, or for publication in scientific journals, the traditional ways scientific research is evaluated. If academics were to turn over the raw data to be made available for public review, the E.P.A. would have to spend hundreds of millions of dollars to redact private information, according to one federal estimate.

    #Santé #Données_personnelles #EPA #Politique_scientifique #Data_science #Manipulation

  • Google to Store and Analyze Millions of Health Records - The New York Times
    https://www.nytimes.com/2019/11/11/business/google-ascension-health-data.html

    In a sign of Google’s major ambitions in the health care industry, the search giant is working with the country’s second-largest hospital system to store and analyze the data of millions of patients in an effort to improve medical services, the two organizations announced on Monday.

    The partnership between Google and the medical system, Ascension, could have huge reach. Ascension operates 150 hospitals in 20 states and the District of Columbia. Under the arrangement, the data of all Ascension patients could eventually be uploaded to Google’s cloud computing platform.

    Google is teaming up with Ascension, a nonprofit, as American consumer tech giants like Amazon, Apple, Google and Microsoft jockey to gain a bigger share of the huge health care market. Apple has expanded into virtual medical research using its iPhone and Apple Watch. Microsoft has introduced cloud-based tools to help health systems share medical data. Last year, Amazon joined JPMorgan Chase and Berkshire Hathaway in a venture to try to improve care and reduce costs for their employees in the United States.

    Google’s health efforts include a push to use artificial intelligence to read electronic health records and then try to predict or more quickly identify medical conditions.

    In its announcement on Monday, Ascension said the deal complied with the law and followed the organization’s “strict requirements for data handling.” In a follow-up email, the health system said that its patient data was stored in a private space within Google’s cloud platform and that Google could not use it for any purpose other than providing tools for Ascension medical providers.

    #Google #Santé #Données_personnelles

  • Google reportedly collects health data on millions of Americans without informing patients - CNET
    https://www.cnet.com/news/google-reportedly-collecting-health-data-on-millions-of-americans-without-info

    fter the Journal report was published, Ascension issued a press release announcing the partnership. Ascension said the deal involves its infrastructure being moved onto Google’s cloud platform, as well as the company adopting Google’s G Suite productivity tools. The company said the deal is compliant with HIPAA, the federal law regulating the security and privacy of certain medical information.

    “As the health care environment continues to rapidly evolve, we must transform to better meet the needs and expectations of those we serve as well as our own caregivers and health care providers,” said Eduardo Conrado, Ascension’s executive vice president of strategy and innovations.

    Google also released a statement late Monday, calling the agreement with Ascension “standard practice in health care .”

    “To be clear: under this arrangement, Ascension’s data cannot be used for any other purpose than for providing these services we’re offering under the agreement,” Tariq Shaukat, president of Google Cloud, said in a blog post. “And patient data cannot and will not be combined with any Google consumer data.”

    “By working in partnership with leading health care systems like Ascension, we hope to transform the delivery of health care through the power of the cloud, data analytics, machine learning, and modern productivity tools ,” Shaukat said.

    The project announcement comes as Google makes a bigger push into health care. Earlier this month, the search giant said it’s buying Fitbit, a fitness tracker company, for $2.1 billion, signaling a deeper investment in health services.

    On Monday, news of Project Nightingale riled up lawmakers. “Blatant disregard for privacy, public well-being, & basic norms is now core to Google’s business model,” Sen. Richard Blumenthal, a Democrat from Connecticut, said in a tweet. “This abuse is beyond shameful.”

    #Google #Santé #Données_personnelles

  • Google is to get access to millions of Americans’ personal health data - MIT Technology Review
    https://www.technologyreview.com/f/614705/google-is-to-get-access-to-millions-of-americans-personal-health-d

    The news: Google has signed a deal with Ascension, the second-largest hospital system in the US, to collect and analyze millions of Americans’ personal health data, according to the Wall Street Journal. Ascension operates in 150 hospitals in 21 states.

    “Project Nightingale”: Eventually, data from all of the company’s patients (birth dates, lab results, diagnoses, and hospitalization records, for example) could be uploaded to Google’s cloud computing systems, with a view to using artificial intelligence to scan electronic records, or diagnose or identify medical conditions. The project, code-named Project Nightingale, began in secret last year, the WSJ reports. Neither patients nor doctors have been notified.

    A touchy topic: Inevitably, there are worries. The company took control of the health division of its AI unit, DeepMind, back in November 2018, and people at the time warned it could pave the way for Google to access people’s private, identifiable health data. Ascension employees have raised concerns about how the data will be collected and shared, both technologically and ethically, the WSJ reports.

    A competitive field: Amazon, Uber, and Apple are all pitching themselves as players in the lucrative health-care world too. However, Ascension is Google’s biggest cloud computing customer in health care so far, and this deal will put them ahead of the pack.

    #Google #Santé #Données_personnelles

  • Google’s ‘Project Nightingale’ Gathers Personal Health Data on Millions of Americans - WSJ
    https://www.wsj.com/articles/google-s-secret-project-nightingale-gathers-personal-health-data-on-millions-of

    Search giant is amassing health records from Ascension facilities in 21 states; patients not yet informed

    Google is engaged with one of the country’s largest health-care systems to collect and crunch the detailed personal health information of millions of Americans across 21 states.

    The initiative, code-named “Project Nightingale,” appears to be the largest in a series of efforts by Silicon Valley giants to gain access to personal health data and establish a toehold in the massive health-care industry.

  • I tracked everything my baby did until nothing made sense any more | WIRED UK
    https://www.wired.co.uk/article/quantified-baby

    “And don’t forget to download our app!” the lady on reception told my partner and I as we dropped our baby off at nursery for the first time. I nodded obligingly as we walked out the door. Minutes later, both our phones pinged informing us that we had been given access to parental accounts that would allow us to monitor our baby. So began a daily ritual of checking in on how many times said baby had pooped.

    This, right here, is technological progress. We can, with just a couple of taps, check how many bowel movements our baby has had and at what time, find out how much of their lunch they have eaten and when and for how long they have napped. There’s even a chart for tracking the length of their naps over time. It’s both glorious and terrifying.

    The app in question, Famly, is the work of an eponymous Copenhagen-based startup, which has to date raised more than £322,000 in seed funding. Famly sits at the more sensible end of an ever-growing industry of products and services that aim to quantify our babies. By 2024, the global interactive baby monitor market is expected to top $2.5 billion (£1.93bn). And today, nobody stops with the purchase of a rudimentary baby monitor.

    The idea of the quantified baby isn’t new. But the number of products and services on offer is currently going through a boom phase. When a baby is born, it seems perfectly normal to start inputting data about them into a range of apps. It’s a way of rationalising something that is, in all its smelly, sleep-deprived brilliance, utterly irrational. At first, it’s reassuring, a crutch to aid with the confusion. My partner and I had both become so used to diligently inputting data about our own lives – both personal and professional – that it seemed a logical thing to do. But, after months of using an app to track when our baby napped, we came to realise that all that data we were collecting – the length of nap, how easy our baby found it to get to sleep, where they slept, what mood they were in when they woke up – was utterly meaningless.

    But what about a company that likes aggregating such data to better personalise its products and services? Step forward Google. The company’s life sciences sister company, Verily, has partnered with Procter & Gamble’s Pampers to embed sensors in nappies that track when an infant sleeps, wees or poos. Lumi, which will be available in the US in the coming months, will keep individual data private, but aggregated data will be used to improve the product. Right now, Google’s nascent interest in tracking your newborn’s bowel movements is a relative footnote. Soon, it could be the whole story.

    Or, to put it another way, Google and Pampers will soon have access to, in aggregate, data on how huge numbers of babies sleep and potentially be able to offer advice on how they might sleep better. When it comes to selling that data back to exhausted parents, you can pretty much name your price.

    #Quantified_Baby #Données_personnelles #Bébés #App #Normes_sociales #Inquiétude #Marché_danger

  • Roger McNamee : « personne ne devrait être autorisé à vous suivre sur #INTERNET »
    https://www.mediapart.fr/journal/economie/290919/roger-mcnamee-personne-ne-devrait-etre-autorise-vous-suivre-sur-internet

    Investisseur de la première heure dans le réseau social de Mark Zuckerberg, Roger McNamee fait désormais entendre sa voix contre Facebook. Son ouvrage, qui vient de paraître en français, évoque « la catastrophe » en cours selon lui, mais aussi la montée des résistances contre les géants du numérique. Rencontre avec un actionnaire lucide devenu témoin en colère.

    #données_personnelles,_Facebook,_Google,_McNamee,_Amazon

  • Mes Datas et Moi. Reprenez en main votre identité numérique !
    https://www.mesdatasetmoi.fr

    Un portail thématique sur les données personnelles...
    ...pas super convaincant quand on s’aperçoit qu’il n’y a pas de paramétrage possible des cookies déposés par ce site ("j’accepte" et rien d’autre) et que les outils/sous-sites associés ("une journée de données", application mobile...) commencent par demander tout un tas d’infos persos (âge, code postal...)

    #vie_privée #big_data #données_personnelles

  • Données personnelles : une étude enterre (définitivement) l’anonymat
    https://usbeketrica.com/article/donnees-personnelles-etude-enterre-anonymat

    Mais toutes ces précautions pour protéger l’anonymat sont vaines, affirment des chercheurs de l’Université catholique de Louvain et de l’Imperial College de Londres, dans une étude publiée dans Nature le 23 juillet. Ils ne sont pas les premiers à exposer les failles de l’anonymisation des données, déjà mises en avant dans des études de l’Université de Princeton (2014), de Cornell (2017) ou encore dans une enquête du Guardian (2017). Mais cette fois-ci, les chercheurs ont évalué la probabilité exacte d’identifier une personne à partir d’un ensemble de données dites « anonymisées ». Ils ont pour cela développé un algorithme de machine learning, capable d’identifier quels critères peuvent rendre une personne unique dans un groupe donné.

    Selon eux, 83% des Américains peuvent être ré-identifiés à partir des trois critères que sont le genre, la date de naissance et le code postal. Et ce chiffre monte à 99,98% à partir de 15 critères démographiques (âge, genre, lieu, métier, etc.). « Beaucoup de personnes vivant à New York sont des hommes et ont la trentaine. Parmi eux, beaucoup moins sont également nés le 5 janvier, conduisent une voiture de sport rouge, ont deux enfants et un chien », explique un des chercheurs dans un communiqué de presse. Or, de telles informations sont souvent demandées par les entreprises pour cibler leurs publicités.

    Les chercheurs ont mis en ligne le code source de leur algorithme afin de pouvoir reproduire l’expérience. Leur site permet également de calculer, grâce à ce modèle, la probabilité pour un individu d’être identifié en fonction de sa date de naissance, de son genre et de son code postal.

    Mais là où les données sont particulièrement sensibles, c’est dans le domaine de la santé, alors que plus de 26 millions de personnes ont déjà fait un test ADN en vente libre. Le secteur bancaire est également à risque, surtout depuis le lancement du Libra, la cryptomonnaie de Facebook, pour laquelle se pose la question de la délimitation entre données personnelles et données financières.

    #Données_personnelles #Anonymat

  • Dans le ventilateur à données de l’appli Météo-France | Mediapart
    https://www.mediapart.fr/journal/economie/250719/dans-le-ventilateur-donnees-de-l-appli-meteo-france?onglet=full

    our regarder la météo sur son smartphone, et tenter par exemple d’anticiper la canicule, il est tentant de se géolocaliser, et de laisser l’application trouver où l’on est. En attendant les prévisions, il faudra toutefois subir une première et agaçante conséquence, dont témoignent de nombreux commentaires : « Appli incontournable mais pub vraiment envahissante. » « Les publicités sonores type GIFI sont insupportables, d’autant que le son est extrêmement fort. ET surtout on ne peut pas les fermer immédiatement comme d’autres pub. » « Insupportable, on arrive toujours à charger la pub [...], en revanche, souvent impossible de charger ensuite la page des prévisions, et si on relance, re-pub et toujours pas de météo… »

    Du soleil, un Perrier… L’appli Météo-France, mardi 23 juillet 2019. © Météo-France Du soleil, un Perrier… L’appli Météo-France, mardi 23 juillet 2019. © Météo-France
    Dans la boutique d’applications pour les téléphones Android, les critiques pleuvent sur la page de l’appli Météo-France. « Un établissement public n’est peut-être pas obligé de mettre une pub en grand écran avec 5 sec obligatoire à chaque démarrage de l’application », dit poliment un internaute.

    Derrière ces publicités bien visibles, envahissantes, voire insupportables, se cache toute une industrie, celle du ciblage publicitaire individualisé, généralement en temps réel, réalisé grâce à la collecte de données personnelles. Un marché estimé à un milliard d’euros en France en 2018, sur mobiles et ordinateurs, et mollement surveillé par la Commission nationale de l’informatique et des libertés (Cnil) dans un plan d’action 2019-2020.

    Dans ses toutes nouvelles « lignes directrices », la Cnil rappelle aux acteurs de ce marché publicitaire que « les opérateurs doivent respecter le caractère préalable du consentement au dépôt de traceurs. Ils doivent laisser la possibilité d’accéder au service même en cas de refus de consentir. Ils doivent fournir un dispositif de retrait du consentement facile d’accès et d’usage ». Elle leur laisse encore un délai de plusieurs mois pour se mettre en conformité avec les règles du RGPD, au grand dam de la Quadrature du Net, l’association en pointe dans la lutte pour la protection des données personnelles, qui déplore un « mépris total du droit européen ».

    Embarqués dans les applications, les « traceurs », « pisteurs », ou encore « SDK » (software development kit) publicitaires sont aux applis mobiles ce que les cookies sont aux sites web : des machines à récupérer des données. À très, très grande échelle : « plus de 42 934 160 identifiants publicitaires et les données de géolocalisation correspondantes à partir de plus de 32 708 applications » ont par exemple été récupérés par la seule société française Vectaury.

    Présenté le 27 juin 2019 devant la FTC (Federal Trade Commission), le gendarme américain du commerce, un article intitulé 50 Ways to Leak Your Data : An Exploration of Apps’ Circumvention of the Android Permissions System (50 façons d’aspirer vos données : une exploration du contournement des autorisations Android par les applications) a révélé les méthodes au moyen desquelles les applications contournent les refus de partage de données des utilisateurs. Ces résultats ont été obtenus par l’équipe d’AppCensus, qui travaille pour différents régulateurs et entreprises privées et examine la face cachée des applications. Les applications concernées seront présentées le 15 août.

    À la fin du formulaire relatif aux données de l’application Météo-France. À la fin du formulaire relatif aux données de l’application Météo-France.
    Pour Mediapart, l’un des membres d’AppCensus, Joel Reardon, de l’université de Calgary (Canada), a testé l’application Météo-France. Dans trois configurations différentes : « Tout accepter », « Je valide mes choix » (avec le choix de tout désactiver) et enfin « Tout refuser ». Pendant 10 minutes chaque fois, le test a consisté à surveiller la transmission de quatre informations sensibles : l’identifiant publicitaire du téléphone ; l’identifiant Android ou Android ID ; la géolocalisation ; et l’adresse MAC du téléphone – à laquelle « on ne devrait plus pouvoir accéder du tout », estime le chercheur, à l’unisson de ses confrères. Android ID ou adresse MAC : pour Arthur Messaud, de la Quadrature du Net, « sans l’identifiant unique » d’un terminal, il n’y a pas de « croisement publicitaire possible ».

    Le tableau ci-dessous récapitule les données transmises avec la troisième option, « Je refuse tout ».

    Dans le débat sur les données personnelles, quelques voix s’élèvent régulièrement pour suggérer que leurs détenteurs, considérés comme légitimes propriétaires, puissent les vendre eux-mêmes, ou au moins en tirer un revenu. Quel est le donc le prix de ces données… données à Météo-France, dont l’appli est utilisée par des millions de personnes ?

    « Aucun revenu direct » n’est produit par les données en elles-mêmes, précise Météo-France. « En revanche », souligne l’établissement public, elles « permettent indirectement d’augmenter le niveau des recettes publicitaires générées par la commercialisation des espaces », en optimisant « le prix des publicités vendues ». De combien ? On ne le saura pas : « En l’état, il ne nous est pas possible quantitativement de connaître précisément l’apport de l’utilisation des données pour améliorer les prix de vente », reconnaît Météo-France.

    L’établissement météorologique, dont les comptes sont auscultés chaque année à l’occasion de l’examen, au Parlement, des projets de loi de finances (voir ici et là), a transmis à Mediapart ses résultats pour le premier semestre 2019 : « Entre le 1er janvier 2019 et le 30 juin 2019, les recettes publicitaires générées par les applications mobiles de Météo-France (application grand public et application Météo Ski) se montent à 1 194 184,79 € hors commission. »

    1,2 million d’euros sur six mois : tel est le prix des données personnelles cédées. « Pour l’exercice 2018 », ajoute Météo-France, les revenus générés par les applications mobiles « ont représenté 7,64 % des recettes commerciales totales (soit 0,6 % des ressources budgétaires de l’établissement) ».

    Mais si les informations météorologiques ont perdu leur valeur marchande, ce n’est pas le cas des données personnelles, et ce sont celles-ci, qui ne lui appartiennent pas et qu’il ne produit pas, que Météo-France met donc en vente. Un phénomène de vases communicants, en quelque sorte. Au détriment du public, et pour des sommes dérisoires.

    #Météo_France #Données_personnelles #traçage #Publicité

  • Interviews fictives entre les personnages du défi babelio ado

    https://www.pedagogie.ac-nice.fr/docazur/index.php/traam/1576-traam-emi-interviews-fictives-entre-les-personnages-du-defi-b

    «  Etre capable de prélever des informations à partir d’un document créé par un camarade et d’en faire une interview fictive en situant les personnages en fonction du contexte de l’ouvrage de fiction.
    Etre capable de mettre en scène le texte préalablement rédigé
    Etre capable de travailler en groupe
    Etre capable de donner une identité numérique à des personnages de fiction »

    #séance #EMI #babelio #Identité_Numérique #Données_Personnelles

  • #Doctolib : un géant de la #santé qui commence à inquiéter
    https://www.francetvinfo.fr/sante/professions-medicales/doctolib-un-geant-de-la-sante-qui-commence-a-inquieter_3447979.html

    Succès fulgurant pour la #start-up de prise de rendez-vous médicaux : en cinq ans, la société affiche une valorisation de plus d’un milliard d’euros. Mais cette réussite pose la question de l’impact que peut avoir un tel acteur, devenu incontournable.

    #numérique #ap-hp #concurrence #RGPD #données_personnelles #monopole #médecine #secrétariat_médical

  • Why Is Border Patrol Planning to DNA Test Asylum Seekers ? - Pacific Standard
    https://psmag.com/news/why-is-border-patrol-planning-to-dna-test-asylum-seekers

    Next week, at two locations along the United States’ southern border, authorities will begin swabbing the cheeks of migrants and asylum seekers traveling as families to complete DNA tests. The new pilot program, first reported by CNN, seeks to identify what the Department of Homeland Security calls “fraudulent families.” The DNA tests can provide results in as little as 90 minutes.

    For months, the Trump administration has claimed that some asylum seekers arriving on the border with children are not actually families, but rather adults traveling with unrelated children. The administration argues that these people hope to take advantage of laws that limit the amount of time children and families can remain in detention.

    Why Civil Rights Advocates Are Worried

    Some advocates are suspicious of the administration’s motives. In the past, immigration authorities have made fraud claims and separated legitimate parents from their children. Others say that the administration is exaggerating the scale of the problem: According to BuzzFeed News, immigration officials say they have identified 3,100 fraudulent families in the last year—but that represents less than 1 percent of the 256,821 family units apprehended. Some say the number should be even lower, because officials consider a family fraudulent if they believe that a child is not actually under 18 years old. (In the past, immigration authorities have been accused of ignoring evidence that people in adult detention facilities are actually minors.)

    Arguing that the DNA tests are unnecessary, the American Civil Liberties Union says the new plan represents another attempt by the administration to “intimidate and deter” asylum seekers. “Forced DNA collection is coercive and intrusive, and it raises serious privacy and civil liberties concerns,” Vera Eidelman, staff attorney with the ACLU’s Speech, Privacy, and Technology Project, writes in a statement sent to Pacific Standard.

    Why Civil Rights Advocates Are Worried

    Some advocates are suspicious of the administration’s motives. In the past, immigration authorities have made fraud claims and separated legitimate parents from their children. Others say that the administration is exaggerating the scale of the problem: According to BuzzFeed News, immigration officials say they have identified 3,100 fraudulent families in the last year—but that represents less than 1 percent of the 256,821 family units apprehended. Some say the number should be even lower, because officials consider a family fraudulent if they believe that a child is not actually under 18 years old. (In the past, immigration authorities have been accused of ignoring evidence that people in adult detention facilities are actually minors.)

    Arguing that the DNA tests are unnecessary, the American Civil Liberties Union says the new plan represents another attempt by the administration to “intimidate and deter” asylum seekers. “Forced DNA collection is coercive and intrusive, and it raises serious privacy and civil liberties concerns,” Vera Eidelman, staff attorney with the ACLU’s Speech, Privacy, and Technology Project, writes in a statement sent to Pacific Standard.

    #ADN #Vie_Privée #Société_contrôle #Données_personnelles

  • Du panneau #publicitaire au crime #humanitaire en passant par les #smartcities de nos maires :

    Au départ je voulais juste vous transmettre cette petite action #antipub sympatoche :
    Résistance à l’Agression Publicitaire
    [1 CLIC QUI RÉSISTE] « On a installé une page spéciale sur notre serveur. Cliquer sur le lien pour supprimer une adresse MAC aléatoire des nouveaux capteurs d’audience de la RATP et SNCF (et rafraîchir la page pour en supprimer d’autres) :-D »
    –-> https://antipub.org/retency.html

    Cette action fait suite à l’expérimentation lancée gare Saint Lazare en vue d’utiliser les panneaux publicitaires sous forme d’écrans à des fins de comptage des passants via des capteurs détectant les adresses MAC de leurs smartphones.
    Article ici : http://maisouvaleweb.fr/face-aux-panneaux-publicitaires-numeriques-devons-affirmer-dimension-c

    Dans un commentaire une personne souligne, qu’une adresse MAC n’est pas « juste » un simple numéro. Elle peut donner accès à énormément de données personnelles. La réponse qui lui est faite développe un aspect que je ne connaissais pas : la (non) position de la CNIL sur le sujet :

    L’analyse juridique proposée dans la première partie de l’article est incomplète et pourrait conduire à une conclusion erronée, comme quoi la collecte d’adresse MAC sans consentement serait conforme au droit dès lors que cette adresse serait anonymisée à court délai et que les personnes concernées pourraient s’opposer à cette collecte.

    Cette erreur de l’auteur semble s’expliquer du fait qu’il a pris pour argent comptant les interprétations du droit données par la CNIL dans ses décisions, comme si la CNIL était neutre et seule bouche de la loi.

    Or, la CNIL n’est pas du tout neutre, et notamment pas sur cette question où elle a une position singulière, critiquable d’un point de vue tant politique que juridique.

    Le traitement d’adresses MAC est encadré juridiquement par le RGPD mais aussi, depuis plus longue date, par la directive 2002/58 (liens en bas de commentaire). Or, cette directive n’a été que très mal transposée en France, comme un peu partout ailleurs dans l’UE. Du coup, la CNIL est depuis très mal à l’aise à l’idée d’appliquer cette directive, car elle ne sait pas jusqu’où elle peut l’interpréter pour se donner davantage de pouvoir. Or, de façon classique, la CNIL étant terrorisée à l’idée d’être sanctionnée par le Conseil d’Etat si elle abuse de ses pouvoirs, elle préfère ne rien faire, lâchement.

    La suite du commentaire et ses réponses sont tout aussi intéressantes : http://maisouvaleweb.fr/face-aux-panneaux-publicitaires-numeriques-devons-affirmer-dimension-collective-donnees-personnelles/#comment-55246

    Résistance à l’agression Publicitaire avait fait un dossier inquiet en 2014 : « Les caméras publicitaires, pur fantasme ?  »
    https://antipub.org/dossier-les-cameras-publicitaires-pur-fantasme

    Reporterre a aussi fait un article sur le sujet des panneaux publicitaires : https://reporterre.net/Les-panneaux-publicitaires-numeriques-envahissent-l-espace-public-et-nos

    Il se trouve que c’est justement par ce biais, de la récupération des données en toute « politesse » (je te ponctionne un peu d’identité contre un peu de réseau) que sont actuellement conçues les villes du futur, les #smartcities et que des décideurs politiques font des choix sans anticiper le moins du monde (ou parfois si, à des fins policière) ce que cela induit pour les populations qui seront concernées...

    Horreur. Le temps d’aller vérifier une donnée, je tombe sur cette info relevée par Olivier Tesquet sur twitter :

    L’entreprise israélienne Cellebrite, spécialisée dans l’extraction de données (ils auraient aidé Apple à déverrouiller l’iPhone de l’auteur de l’attentat de San Bernardino en 2016) a identifié un nouveau marché porteur : les demandeurs d’asile.
    Selon un slide de Cellebrite présenté au Maroc, 77% des réfugiés arrivent à destination sans papiers d’identité... mais 43% d’entre eux possèdent un smartphone. Pourquoi la police aux frontières n’aurait-elle pas toute latitude pour fouiller dedans ?

    Source : https://privacyinternational.org/feature/2776/surveillance-company-cellebrite-finds-new-exploit-spying-asylu
    Suite du thread : https://twitter.com/oliviertesquet/status/1113816301435224064

    #publicité #data #données_personnelles #big_brother #traçabilité #identité #numérique

  • 30e anniversaire : Le père du Web appelle à un « contrôle complet des données » par les utilisateurs
    https://www.20minutes.fr/high-tech/2470435-20190312-30e-anniversaire-web-tim-berners-lee-souhaite-controle-co

    Trois lettres qui ont changé le monde. Le 12 mars 1989, Tim Berners-Lee soumet à son patron du Cern de Genève une proposition de « système de gestion décentralisée de l’information ». « Vague mais excitant », répond son supérieur. La proposition deviendra l’« Hypertext project » puis le « WorldWideWeb », l’année suivante, avec une première page accessible de l’extérieur le 6 août 1991. Alors que l’utopie des débuts a laissé place à un contrôle presque absolu de quelques géants, le père du Web a lancé un appel, lundi à Genève, à un « contrôle complet de leurs données » par ses usagers.

    #worldwide_web #hypertext_transfert_protocol #données_personnelles (protections des)

    Voir aussi : https://seenthis.net/messages/766657

  • Solidarité avec les profs de Paris 13 remplacés par Google
    https://www.laquadrature.net/2019/02/28/solidarite-avec-les-profs-de-paris-13-remplaces-par-google

    Lundi matin, La Quadrature du Net est intervenue aux côtés d’enseignants de l’université de Paris 13 pour interrompre une dizaine de minutes la formation de 4 jours donnée par Google à une centaine d’étudiant·es en…

    #Données_personnelles

  • « Séropositif », « voix de vieille pédale », « accent juif tunisien » : Europe1 a fiché ses auditeurs Lou Syrah - 24 Février 2019 - médiapart
    https://www.mediapart.fr/journal/france/240219/seropositif-voix-de-vieille-pedale-accent-juif-tunisien-europe1-fiche-ses-

    Pendant près de vingt ans, Europe 1 a fiché et stocké des informations relatives à plus d’un demi-million d’auditeurs, assortissant parfois leurs noms de commentaires injurieux. C’est ce qui ressort d’un rapport de la Cnil rédigé en 2017, resté confidentiel, mais qu’a pu consulter Mediapart. Un simple avertissement a été prononcé. La justice n’a pas été saisie. La station n’a pas eu à payer d’amende. . . . . . . . .

    #fichage #surveillance #données_personnelles #cnil #fichiers #Europe1 #merdia

  • « Le Comité européen de la protection des données a récemment adopté une note d’information sur l’éventualité d’un Brexit sans accord à l’attention des organismes dans l’Union qui transmettent des données personnelles vers le Royaume-Uni.

    La CNIL précise, dans une série de questions-réponses, les recommandations et étapes à suivre pour se préparer au scénario du "No-deal Brexit" [brexit sans accord]. »

    https://www.cnil.fr/fr/se-preparer-un-brexit-sans-accord-quelles-questions-quels-conseils-de-la-cnil

    #brexit #CNIL #données_personnelles

  • #Quebec : Stockage de données : les colporteurs se frottent les mains - Jean-Marc Lambert - 8 Février 2018 - Le Devoir _
    https://www.ledevoir.com/opinion/libre-opinion/547428/stockage-de-donnees-les-colporteurs-se-frottent-les-mains

    Nous apprenions cette semaine que Québec voulait confier au privé le stockage de ses données. Saluons l’efficacité des vendeurs de technologies qui en quatre mois ont su se positionner comme des partenaires fiables et sérieux aux yeux du gouvernement de la CAQ. Ils ont sauté sur un tout nouveau gouvernement, inexpérimenté, voulant faire différemment et encore apte à croire aux beaux mirages qu’on lui crée. Parce qu’à l’usage, on s’aperçoit qu’une fois les doigts dedans, les attentes ont été gonflées. Tout à coup, les choses sont plus compliquées, ça demande plus d’analyse, et tout ça, ça se paye. Ça devient rapidement politiquement gênant d’avoir été si naïf, donc personne ne tire trop fort la sonnette d’alarme, et on se retrouve avec un système Phoenix (IBM), un registre des armes (« mauvaise gestion des contrats », selon la vérificatrice générale) ou des tableaux blancs intelligents qui servent essentiellement à diffuser YouTube dans nos écoles. Du gaspillage de ressources.


    Photo : iStock « Non, je ne crois pas que ces compagnies vont systématiquement faire ce qui est mieux pour tous », affirme l’auteur.

    Ne pensez pas que je préférerais un retour à la plume et au boulier afin de gérer l’État québécois. Ce qui me désespère, c’est de voir les bénéfices potentiels de ces outils détournés au profit d’acteurs privés ne priorisant pas le #bien_commun.
    Non, je ne crois pas que ces compagnies vont systématiquement faire ce qui est mieux pour tous. Et je ne crois pas non plus que l’État ait la compétence et la puissance pour faire respecter nos intérêts. Le gouvernement reconnaît lui-même que c’est pour ça qu’il fait appel aux « Gros Nébuleux » de Californie . Il aurait pu choisir de fidéliser ses ressources et construire l’expertise en interne, quitte à y aller plus doucement. Dans 10 ans, qui va mener le jeu ? Qui déterminera le coût des nouvelles fonctionnalités ? Qui dira ce qu’il est possible de faire ? Qui aura la documentation à jour ? Et surtout, qui dictera la facture de sortie ?

    Le gouvernement a choisi : ce seront des compagnies américaines, l’expertise est là-bas. Il investit des millions pour l’intelligence artificielle à Montréal, mais il devra compter sur les Gros Nébuleux pour exploiter cette technologie, sans jamais comprendre vraiment comment se prennent les décisions. Secret commercial oblige. Les biais et les erreurs apparaîtront doucement. Beaucoup seront si subtils qu’ils s’intégreront à nos structures sociales, sans regard critique, ni bienfaisance, ni responsabilité politique.

    Les Gros Nébuleux , lorsque les performances sont décevantes, pourront analyser ce qui coince et suggérer des modifications. Comme ce sont eux qui connaissent le mieux leurs systèmes, et à moyen terme, les bases de données du gouvernement, qui sera mieux placé pour modifier et gérer les applications du gouvernement ? Une suite de contrats à appel d’offres acquis d’avance pour des générations. Voilà du récurrent aussi fiable que de l’asphaltage. Il y a peu de secteurs aussi fiables et rentables que le pillage d’un État.

    Amazon est considéré comme partenaire. Soyez assuré qu’il va faire un bon prix de départ au gouvernement. Saviez-vous qu’il s’est lancé dans l’assurance ? Ils auront accès à votre dossier de la SAQ, à celui de RAMQ, à votre dossier médical, sûrement aussi à celui de la SQ. De combien d’années auront-ils besoin pour écumer les clients payants et laisser les autres aux petites compagnies d’assurances ? « Oh non, nous allons mettre en place des garde-fous et du cryptage », va-t-on nous répondre. Ces compagnies auront quand même accès aux données. Au nom du secret commercial, il sera impossible de valider l’étanchéité des accès aux couches supérieures, et je suis assuré qu’il va toujours y avoir, contractuellement, des portes ouvertes à des fins de diagnostic et d’optimisation.

    De toute façon, les Gros Nébuleux sont tenus par le gouvernement américain de permettre l’accès aux données hébergées sur son territoire, aux fins d’enquête. Ce qui veut dire que celui-ci pourra fouiller allègrement dans les données des ministères pour étayer ses poursuites ou favoriser ses entreprises. Il faut être bien naïf pour encore voir les États-Unis comme un partenaire bienveillant et équitable.

    Tous ces cadeaux sont offerts allègrement par un gouvernement bon enfant, valorisant la fierté d’être des Québécois, guilleret d’être géré par des puissances sur lesquelles il n’a plus de contrôle.

     #cloud #mirage #surveillance #google #nsa #IBM #microsoft #facebook #informatique #données #gafa #vie_privée #données_personnelles #privacy #capitalisme