• Google to Store and Analyze Millions of Health Records - The New York Times
    https://www.nytimes.com/2019/11/11/business/google-ascension-health-data.html

    In a sign of Google’s major ambitions in the health care industry, the search giant is working with the country’s second-largest hospital system to store and analyze the data of millions of patients in an effort to improve medical services, the two organizations announced on Monday.

    The partnership between Google and the medical system, Ascension, could have huge reach. Ascension operates 150 hospitals in 20 states and the District of Columbia. Under the arrangement, the data of all Ascension patients could eventually be uploaded to Google’s cloud computing platform.

    Google is teaming up with Ascension, a nonprofit, as American consumer tech giants like Amazon, Apple, Google and Microsoft jockey to gain a bigger share of the huge health care market. Apple has expanded into virtual medical research using its iPhone and Apple Watch. Microsoft has introduced cloud-based tools to help health systems share medical data. Last year, Amazon joined JPMorgan Chase and Berkshire Hathaway in a venture to try to improve care and reduce costs for their employees in the United States.

    Google’s health efforts include a push to use artificial intelligence to read electronic health records and then try to predict or more quickly identify medical conditions.

    In its announcement on Monday, Ascension said the deal complied with the law and followed the organization’s “strict requirements for data handling.” In a follow-up email, the health system said that its patient data was stored in a private space within Google’s cloud platform and that Google could not use it for any purpose other than providing tools for Ascension medical providers.

    #Google #Santé #Données_personnelles

  • Google reportedly collects health data on millions of Americans without informing patients - CNET
    https://www.cnet.com/news/google-reportedly-collecting-health-data-on-millions-of-americans-without-info

    fter the Journal report was published, Ascension issued a press release announcing the partnership. Ascension said the deal involves its infrastructure being moved onto Google’s cloud platform, as well as the company adopting Google’s G Suite productivity tools. The company said the deal is compliant with HIPAA, the federal law regulating the security and privacy of certain medical information.

    “As the health care environment continues to rapidly evolve, we must transform to better meet the needs and expectations of those we serve as well as our own caregivers and health care providers,” said Eduardo Conrado, Ascension’s executive vice president of strategy and innovations.

    Google also released a statement late Monday, calling the agreement with Ascension “standard practice in health care .”

    “To be clear: under this arrangement, Ascension’s data cannot be used for any other purpose than for providing these services we’re offering under the agreement,” Tariq Shaukat, president of Google Cloud, said in a blog post. “And patient data cannot and will not be combined with any Google consumer data.”

    “By working in partnership with leading health care systems like Ascension, we hope to transform the delivery of health care through the power of the cloud, data analytics, machine learning, and modern productivity tools ,” Shaukat said.

    The project announcement comes as Google makes a bigger push into health care. Earlier this month, the search giant said it’s buying Fitbit, a fitness tracker company, for $2.1 billion, signaling a deeper investment in health services.

    On Monday, news of Project Nightingale riled up lawmakers. “Blatant disregard for privacy, public well-being, & basic norms is now core to Google’s business model,” Sen. Richard Blumenthal, a Democrat from Connecticut, said in a tweet. “This abuse is beyond shameful.”

    #Google #Santé #Données_personnelles

  • Google is to get access to millions of Americans’ personal health data - MIT Technology Review
    https://www.technologyreview.com/f/614705/google-is-to-get-access-to-millions-of-americans-personal-health-d

    The news: Google has signed a deal with Ascension, the second-largest hospital system in the US, to collect and analyze millions of Americans’ personal health data, according to the Wall Street Journal. Ascension operates in 150 hospitals in 21 states.

    “Project Nightingale”: Eventually, data from all of the company’s patients (birth dates, lab results, diagnoses, and hospitalization records, for example) could be uploaded to Google’s cloud computing systems, with a view to using artificial intelligence to scan electronic records, or diagnose or identify medical conditions. The project, code-named Project Nightingale, began in secret last year, the WSJ reports. Neither patients nor doctors have been notified.

    A touchy topic: Inevitably, there are worries. The company took control of the health division of its AI unit, DeepMind, back in November 2018, and people at the time warned it could pave the way for Google to access people’s private, identifiable health data. Ascension employees have raised concerns about how the data will be collected and shared, both technologically and ethically, the WSJ reports.

    A competitive field: Amazon, Uber, and Apple are all pitching themselves as players in the lucrative health-care world too. However, Ascension is Google’s biggest cloud computing customer in health care so far, and this deal will put them ahead of the pack.

    #Google #Santé #Données_personnelles

  • Google’s ‘Project Nightingale’ Gathers Personal Health Data on Millions of Americans - WSJ
    https://www.wsj.com/articles/google-s-secret-project-nightingale-gathers-personal-health-data-on-millions-of

    Search giant is amassing health records from Ascension facilities in 21 states; patients not yet informed

    Google is engaged with one of the country’s largest health-care systems to collect and crunch the detailed personal health information of millions of Americans across 21 states.

    The initiative, code-named “Project Nightingale,” appears to be the largest in a series of efforts by Silicon Valley giants to gain access to personal health data and establish a toehold in the massive health-care industry.

  • I tracked everything my baby did until nothing made sense any more | WIRED UK
    https://www.wired.co.uk/article/quantified-baby

    “And don’t forget to download our app!” the lady on reception told my partner and I as we dropped our baby off at nursery for the first time. I nodded obligingly as we walked out the door. Minutes later, both our phones pinged informing us that we had been given access to parental accounts that would allow us to monitor our baby. So began a daily ritual of checking in on how many times said baby had pooped.

    This, right here, is technological progress. We can, with just a couple of taps, check how many bowel movements our baby has had and at what time, find out how much of their lunch they have eaten and when and for how long they have napped. There’s even a chart for tracking the length of their naps over time. It’s both glorious and terrifying.

    The app in question, Famly, is the work of an eponymous Copenhagen-based startup, which has to date raised more than £322,000 in seed funding. Famly sits at the more sensible end of an ever-growing industry of products and services that aim to quantify our babies. By 2024, the global interactive baby monitor market is expected to top $2.5 billion (£1.93bn). And today, nobody stops with the purchase of a rudimentary baby monitor.

    The idea of the quantified baby isn’t new. But the number of products and services on offer is currently going through a boom phase. When a baby is born, it seems perfectly normal to start inputting data about them into a range of apps. It’s a way of rationalising something that is, in all its smelly, sleep-deprived brilliance, utterly irrational. At first, it’s reassuring, a crutch to aid with the confusion. My partner and I had both become so used to diligently inputting data about our own lives – both personal and professional – that it seemed a logical thing to do. But, after months of using an app to track when our baby napped, we came to realise that all that data we were collecting – the length of nap, how easy our baby found it to get to sleep, where they slept, what mood they were in when they woke up – was utterly meaningless.

    But what about a company that likes aggregating such data to better personalise its products and services? Step forward Google. The company’s life sciences sister company, Verily, has partnered with Procter & Gamble’s Pampers to embed sensors in nappies that track when an infant sleeps, wees or poos. Lumi, which will be available in the US in the coming months, will keep individual data private, but aggregated data will be used to improve the product. Right now, Google’s nascent interest in tracking your newborn’s bowel movements is a relative footnote. Soon, it could be the whole story.

    Or, to put it another way, Google and Pampers will soon have access to, in aggregate, data on how huge numbers of babies sleep and potentially be able to offer advice on how they might sleep better. When it comes to selling that data back to exhausted parents, you can pretty much name your price.

    #Quantified_Baby #Données_personnelles #Bébés #App #Normes_sociales #Inquiétude #Marché_danger

  • Index géographique : avant le #Géocodage, le gazetteer
    https://makina-corpus.com/blog/metier/2019/index-geographique-avant-le-geocodage-le-gazetteer

    Le géocodage nécessite au préalable d’indexer et de structurer les données. C’est le rôle des gazetteers qui peuvent s’appuyer sur une approche « données » ou sur une approche « logicielle ».

    #OpenStreetMap #Communs #Données_publiques #Opendata #News_Item

  • We’re Sensing Climate Change

    Maybe we need more kinds of climate #data. Maybe we need data that connects climate change to people and places we care about.

    What kind of data might we need to promote action on climate? What kinds of data are “actionable”?

    These are the questions we, the Data Storytelling team of faculty and student interns at Penn, have been wrestling with while we, and probably you too, watch climate trends worsen. Earlier this month, in conjunction with the UN’s Climate Action Summit, the IPCC released its Special Report on the Oceans and Cryosphere in a Changing Climate. The environmental and climate data gathered in this report—like the data presented a year earlier, in the September 2018 Special Report on Global Warming of 1.5 Degrees—have been collected over decades. The data are robust; they show continuing terrible trends: more CO2 in the atmosphere and in the ocean. We’re cooking the planet, and we who listen to the overwhelming majority of scientists have known it for decades now.

    We have the data, but we’re failing to act in ways large enough to slow, stem, and reverse the terrible trends.

    When we hear the words “climate data,” we see biq quant, measurements collected by sophisticated sensing instruments and read and then interpreted by scientists in the field and lab. But maybe there are other measurements that can help spur action. Maybe we need more kinds of climate data. Maybe we need data that connects climate change to people and places we care about.

    This month—inspired by #UniteBehindTheScience, by #FridaysForFuture, by the local organizers and attendees of climate strikes and marches, by the Climate Action Summit, and by the diverse youth activists who insist we must #ActOnClimate—we began a public data storytelling campaign. It challenges the idea that you need a lab coat to collect climate data. Your field site can be your own backyard. Individual, lived experiences of climate change provide valuable companions to the quantifiable science as we continue to struggle to comprehend and to take action on the climate crisis. We’re calling our campaign, #MyClimateStory, and we want to hear yours.

    We introduced the #MyClimateStory initiative on campus at the University of Pennsylvania, as part of the 1.5* Minute Climate Mini-Lectures. Six data storytellers contributed their personal stories and we all talked about how “We’re Sensing Climate Change” in places we love. You can listen to those stories here. And we want you to hear your climate story too! You can contribute it—with text, audio, and video files, as you like, by clicking on the button below. It can be as short or long as you like! Every contribution feeds a growing data storybank, a living archive of climate data filled with local observations of everyday people talking about their favorite places and the changes they’re experiencing.

    https://www.datarefugestories.org/blog/2019/9/23/were-sensing-climate-change
    #storytelling #récit #narration #climat #changement_climatique #témoignage #données #données_sensibles

    #atelier_collapsologie

    voir aussi le hashtag #myclimatestory sur twitter :
    https://twitter.com/hashtag/myclimatestory?src=hashtag_click

  • Roger McNamee : « personne ne devrait être autorisé à vous suivre sur #INTERNET »
    https://www.mediapart.fr/journal/economie/290919/roger-mcnamee-personne-ne-devrait-etre-autorise-vous-suivre-sur-internet

    Investisseur de la première heure dans le réseau social de Mark Zuckerberg, Roger McNamee fait désormais entendre sa voix contre Facebook. Son ouvrage, qui vient de paraître en français, évoque « la catastrophe » en cours selon lui, mais aussi la montée des résistances contre les géants du numérique. Rencontre avec un actionnaire lucide devenu témoin en colère.

    #données_personnelles,_Facebook,_Google,_McNamee,_Amazon

  • Mes Datas et Moi. Reprenez en main votre identité numérique !
    https://www.mesdatasetmoi.fr

    Un portail thématique sur les données personnelles...
    ...pas super convaincant quand on s’aperçoit qu’il n’y a pas de paramétrage possible des cookies déposés par ce site ("j’accepte" et rien d’autre) et que les outils/sous-sites associés ("une journée de données", application mobile...) commencent par demander tout un tas d’infos persos (âge, code postal...)

    #vie_privée #big_data #données_personnelles

  • #données biométriques : des risques de sécurité
    https://framablog.org/2019/09/08/donnees-biometriques-des-risques-de-securite

    Rien de ce qui constitue notre vie numérique n’est totalement dépourvu de #failles, pas une semaine ne se passe sans qu’un #piratage massif ne soit révélé. C’est par millions que nos données d’internautes sont exposées, y compris et peut-être surtout … Lire la suite­­

    #Droits_numériques #Internet_et_société #biométrie #biostar2 #fuite #Reconnaissance_faciale #Securite #suprema

  • #DHS to store tens of thousands of refugee biometric records from #UNHCR

    The United Nations High Commission for Refugees (UNHCR) began sharing records including fingerprints, iris scans, and facial biometrics of refugees it is recommending for resettlement consideration in the U.S. with the country’s Citizenship and Immigration Service (#USCIS), Nextgov reports.

    The UNHCR sends tens of thousands of profiles to federal agencies each year, according to the report, and the #Department_of_Homeland_Services (DHS) is retaining the data for all of them, including those who do not actually come to the U.S. The biometric data will be stored in the #IDENT_system, and #HART once it goes live.

    “Biometric verification guards against substitution of individuals or identity fraud in the resettlement process,” the USCIS privacy impact assessment for the program states. “Many refugees live for long periods in asylum countries, and the use of biometrics ensures that there is [an] unbroken continuity of identity over time and between different locations.”

    Nextgov notes that UNHCR stats show the USCIS reviewed close to 85,000 cases in 2018, and approved less than a quarter for admission to the U.S.

    “A centralized database of biometric data belonging to refugees, without appropriate controls, could really lead to surveillance of those refugees as well as potentially coercive forms of scrutiny,” Human Rights Watch Artificial Intelligence Researcher Amos Toh told Nextgov. “I think there needs to be a lot more clarity on … how this data is being shared and is being used.”

    Toh also referred to issues around consent for personal data-sharing in humanitarian contexts.

    https://www.biometricupdate.com/201908/dhs-to-store-tens-of-thousands-of-refugee-biometric-records-from-un
    #surveillance #données_biométriques #base_de_données #database #HCR #réfugiés #asile #migrations #biométrie #empreintes_digitales #biométrie_faciale #USA #Etats-Unis #réinstallation #humanitaire

    ping @etraces

    • Inside the HART of the DHS Office of Biometric Identity Management

      #OBIM says its efforts to protect biometric data privacy and security are robust and open.

      The Automated Biometric Identification System (IDENT) operated by the Department of Homeland Security’s Office of Biometric Identity Management (OBIM) was designed in 1994 and implemented in 1995. It was originally meant to perform a South-West border recidivist study, but has grown into the second largest biometric system in the world, next to Aadhaar, with 230 million unique identity records, plus access to millions more held by the FBI and Department of Defense, and 350,000 transactions on an average weekday.

      As the number of programs using IDENT has grown, the system’s roll and size have increased. As the importance of IDENT has grown, so have the warnings and criticism of the program. It is still not widely understood how it works, however, Patrick Nemeth, Director of OBIM’s Identity Operations Division told Biometric Update in an exclusive interview.

      “We don’t own the data, we’re the data stewards, and it was collected by somebody else who ultimately has the authority to change it or delete it,” Nemeth explains. While many government biometric databases around the world are not operated in this way, the arrangement is only the beginning of the complexity the system has evolved to accommodate.

      OBIM performs three basic functions, Nemeth says, with pretty much everything else done in service of them. It operates the automated matching system, which is IDENT, but will soon be the Homeland Advanced Recognition Technology (HART), performs manual examination and verification, and coordinates sharing with the owners of the data, which means setting rules for sharing data with agencies. Most government biometric data is centralized with OBIM to minimize duplication under the department’s privacy rule, and also to apply the maximum security and protection to sensitive information.

      As operators of the centralized biometric repository, OBIM takes on the responsibility of dealing with the security, privacy, and civil liberties implications of storing sensitive personally identifiable information (PII). It does so, in part, by applying Fair Information Practice principles to govern procedures for elements including transparency, accounting and auditing, and purpose specification.

      Other than specific databases run by law enforcement and the DoD, which it also coordinates sharing for, OBIM holds all of the U.S. government’s biometric data. It primarily serves DHS agencies, including Customs and Border Protection (CBP), Border Patrol, the Federal Emergency Management Agency (FEMA), Immigration and Customs Enforcement (ICE), Transportation Security Administration (TSA), and Citizenship and Immigration Services, as well as agencies like the Coast Guard for border entries. It performs a range of functions, including both verification and identification, and during periods when the system is less busy, such as overnight, it performs deduplication and checks latent prints found on improvised explosive devices (IEDs) or in investigations of serious crimes by the FBI, according to Nemeth.

      This enormous expansion of both the system’s scale and mandate is why OBIM is now moving forward with the development of the new HART system. IDENT is becoming obsolete.

      “It’s been stretched and band-aided and added-to in every way that people can think of, but it just can’t go any further,” Nemeth says.

      HART will add a range of capabilities, including to use a fusion of fingerprint, iris, and facial recognition modalities to improve its matching accuracy. It will also expand the scale of the system, which is desperately needed.

      “At one point about five years ago they did a couple external studies and they told me that if we ever reached 300,000 transactions a day that we would see system slowness and if we ever reached 400,000 per day, we would see the blue screen of death,” Nemeth admits.

      IDENT currently process more than 400,000 transactions in a day on occasion, after remedial action was taken by OBIM to increase its capacity. It typically serves about 350,000 requests per weekday, and a little less on the weekend, returning yes or no answers for about 99.5 percent. Nemeth says he uses more than one thousand servers and other pieces of hardware to keep the system running with brute force. That is not an efficient way to operate, however, and the demand keeps increasing with each new biometric border trial, and any other program involving a use of government biometrics.

      Increasing capacity to meet the rapid growth in demand is the main motivation for the move to HART, which will be able to serve 720,000 daily fingerprint transactions when it goes live, and can be quickly scaled. It is being launched on AWS’ Government Cloud, but is designed to be cloud-agnostic. OBIM’s database is growing by about 20 million people per year, which is also accelerating, and as additional modalities become more valuable with the addition of fusion verification, its 3 million pairs of irises may also increase. The current database is twice as large as it was seven years ago, and Nemeth says the current projections are that it will double again in the next seven.

      Some future uses of HART are likely yet to be determined, but an example of the scale that may be needed can be understood by considering the possibility that all 3 million travelers per day who pass through U.S. airports may one day need to be biometrically verified.

      Tech systems from the nineties are also inherently not able to keep up with modern technology. The programming languages and architecture of IDENT are antiquated, and require an inefficient and frustrating process not just to add capabilities, but every time a statistic is requested for analytical purposes.

      “We have to figure out what our question is, send it to our contractors, they write the script, they run it, they send it back to us, and sometimes when we look at it, that wasn’t really the question, and you have to repeat the process,” Nemeth says.

      As the number of agencies and use cases for IDENT has grown, the number of questions from system users, like everything else, has increased. Switching to HART will increase the analytical capabilities and overall flexibility of the system, which is particularly important when considering some of the privacy and security issues related to operating the world’s second largest biometric matching system. IDENT currently uses a multi-layered filtering system to return only the specific information the requesting customer is entitled to.

      “What’s unique about IDENT is because of the wide breadth of Homeland Security missions — law enforcement, information, credentialing, national security – it has kind of a complicated filtering process that we call Data Access and Security Controls,” Nemeth says. “You only get to see what your agency is permitted by law to see, and what the owner of the data has said that you can see. It’s a rather complex dance we do to make sure that we respect the privacy, the reason the information was collected, the legal protections for certain protected classes, all of those things. When we provide you the information, if you’re not allowed to see it, you don’t even know that information exists.”

      Three layers of filters screen what accounts can see data for a subject, what information they are allowed to see and what should be redacted (such as criminal history, in some cases), and an activity filter, which is attached to information by the agency that submitted it. OBIM also addresses the rights of data subjects with an extensive process of consultations and privacy impact assessments for new operations.

      “Every time somebody comes up with a new mission area, or a new application of biometrics, before we can implement that, our own privacy people need to go through it and write a privacy threat assessment,” Nemeth says. “Then, potentially, if its significant enough, they have to amend the privacy impact. Then it goes to our higher headquarters at the National Protection and Programs Directorate where they have to agree, and then finally it goes to the Department’s Privacy Office, where they have to agree that its within the scope of what we’re allowed to do.”

      Some alternately goes through inter-agency Data Access Request Committee for approval, but every new capability desired by a client agency is put in place only after it has gone through many steps and assessments, providing answers about why it is needed and how it should be delivered.

      “There are a lot of constraints on us, which is good, because lots of energetic people come up with lots of ideas and sometimes we just need to slow down a little bit and make sure that we’re properly using that information and protecting it.”

      Not only are OBIM’s efforts to protect biometric data privacy and security robust, according to Nemeth, they are also open. HART will increase the privacy protection the department can provide, he says, for instance by increasing the number and functionality of filtering layers OBIM can apply to data. The combination of privacy protections which are concerted and improving along with willingness to talk about those protections makes Nemeth frustrated with allegations among some media and public advocacy groups that HART represents a surveillance overreach on the part of the government.

      “We’re not going to tell you how to break into our system, but we’ll tell you quite a bit about it,” Nemeth says. “The privacy impact assessments and the privacy threshold analysis are available on the DHS privacy web page, along with our system of record.”

      The Electronic Frontier Foundation (EFF) warns that HART will include data collected from innocent people and questionable sources, and argues that it will provide the means for suppression of American’s rights and freedoms. Nemeth says he sympathizes with concerns over the possible erosion of privacy in digital society, and the desire to protect it. He contends that the EFF is not considering the years and painstaking processes that OBIM puts into balancing the rights of individuals to not have their data shared unnecessarily with the mandates of client agencies. He points to the Data Privacy and Integrity Advisory Council as an example of the intensive oversight and review that checks the potential for misuse of biometric data.

      “The arguments that the EFF is making they’ve made several times during the fifteen-year history of IDENT, whenever there’s a new issue of the authorizing SORN and PIA, so it’s not new,” Nemeth counters. “They’ve added the facial piece to it. Essentially, they are arguing that we will violate the law.”

      The scrutiny will likely intensify, with public awareness of biometric entry/exit growing as the program rolls out. In the meantime, the number of transactions served by HART will be increasing, and OBIM will be evaluating new procedures using its new biometric capabilities. The privacy impact assessments and other checks will continue, and OBIM will continue the work of helping U.S. government agencies identify people. Nemeth stresses that that work is critically important, even as it requires the kind of extensive evaluation and scrutiny it invites.

      “We don’t retain our highly talented staff because we pay them well,” he confesses. “We retain them because they love what they’re doing and they’re making a difference for the security of the country.”

      https://www.biometricupdate.com/201809/inside-the-hart-of-the-dhs-office-of-biometric-identity-management
      #identité_biométrique

  • Berne identifie les réfugiés grâce à leur portable

    Le Secrétariat d’Etat aux migrations contrôle l’identité des requérants d’asile grâce aux données de leur téléphone, ce que dénonce une organisation d’aide aux réfugiés.

    Nombreux sont les requérants d’asile qui ne peuvent pas prouver leur identité. Dans le cadre d’un projet pilote, le Secrétariat d’Etat aux migrations (#SEM) a contrôlé les téléphones mobiles et les ordinateurs portables des réfugiés pour vérifier leur identité. « Une atteinte à la vie privée », dénonce l’Organisation suisse d’aide aux réfugiés (OSAR)

    Le SEM a examiné 565 appareils et leurs données de novembre 2017 à mai 2018, sur une base volontaire de requérants d’asile arrivés dans les centres de Chiasso (TI) et de Vallorbe (VD). Dans 15% des cas, des informations utiles sur l’identité ou l’#itinéraire des réfugiés ont été trouvées. Le porte-parole du SEM Daniel Bach a confirmé l’existence d’un rapport interne sur ce projet pilote, comme l’ont rapporté samedi des journaux du groupe Tamedia.

    Base volontaire

    Daniel Bach s’est contenté d’expliquer que les résultats du projet pilote ont montré que ces contrôles « peuvent fournir des informations complémentaires importantes sur l’origine et l’identité des requérants d’asile ainsi que sur l’itinéraire de leur voyage ». Le porte-parole a souligné que les fouilles des téléphones mobiles et ordinateurs portables avaient été effectuées sur une base volontaire et que la protection des données personnelles avait été garantie à tout moment.

    Selon lui, jusqu’à trois quarts des demandeurs d’asile en Suisse ne peuvent prouver leur identité avec des papiers d’identité officiels. Dans certains pays, il n’y a pas d’acte de naissance et les gens n’ont pas de papiers d’identité. Les passeports des réfugiés sont aussi souvent confisqués en cours de route par des trafiquants ou d’autres groupes criminels. Les personnes sauvées en mer peuvent aussi avoir perdu leurs papiers d’identité en cours de périple.

    L’OSAR critique

    L’Organisation suisse d’aide aux réfugiés (OSAR) a vivement critiqué ce projet pilote de contrôle systématique des #données_téléphoniques et informatiques privées des demandeurs d’asile. « On ne sait pas si les autorités vont pas utiliser ces données à d’autres fins que la seule vérification de l’identité », s’interroge la porte-parole de l’OSAR Eliane Engeler à l’agence Keystone-ATS.

    « Du point de vue de la #protection_des_données, ce projet est hautement contestable et implique une atteinte draconienne à la #vie_privée des personnes concernées », dénonce-t-elle. « Le droit pénal réglemente de manière très restrictive la fouille des données des téléphones portables. Les smartphones de criminels présumés ne peuvent être analysés qu’en cas de violations graves de la loi et de suspicion justifiée », souligne-t-elle.

    Base juridique nécessaire

    Pour sa part, le porte-parole du SEM estime qu’une base juridique n’est nécessaire que pour tous les contrôles qui ne sont pas effectués avec l’assentiment du requérant d’asile. Un projet d’évaluation des données des réfugiés est actuellement en cours d’examen au Parlement. Selon les journaux Tamedia, la commission des institutions politiques (CIP) du Conseil national doit prendre une décision prochainement.

    En juin 2018, la CI du Conseil des Etats avait soutenu par 9 voix contre 1 une initiative parlementaire de l’UDC. Celle-ci demandait que les autorités puissent contrôler les téléphones mobiles des requérants d’asile si c’est le seul moyen pour établir leur identité. Avec ce feu vert, la commission du Conseil national a ainsi pu élaborer un projet concret.

    https://www.letemps.ch/suisse/berne-identifie-refugies-grace-portable
    #smartphone #téléphone_portable #Suisse #surveillance #contrôle #réfugiés #asile #migrations

    ping @etraces

  • Données personnelles : une étude enterre (définitivement) l’anonymat
    https://usbeketrica.com/article/donnees-personnelles-etude-enterre-anonymat

    Mais toutes ces précautions pour protéger l’anonymat sont vaines, affirment des chercheurs de l’Université catholique de Louvain et de l’Imperial College de Londres, dans une étude publiée dans Nature le 23 juillet. Ils ne sont pas les premiers à exposer les failles de l’anonymisation des données, déjà mises en avant dans des études de l’Université de Princeton (2014), de Cornell (2017) ou encore dans une enquête du Guardian (2017). Mais cette fois-ci, les chercheurs ont évalué la probabilité exacte d’identifier une personne à partir d’un ensemble de données dites « anonymisées ». Ils ont pour cela développé un algorithme de machine learning, capable d’identifier quels critères peuvent rendre une personne unique dans un groupe donné.

    Selon eux, 83% des Américains peuvent être ré-identifiés à partir des trois critères que sont le genre, la date de naissance et le code postal. Et ce chiffre monte à 99,98% à partir de 15 critères démographiques (âge, genre, lieu, métier, etc.). « Beaucoup de personnes vivant à New York sont des hommes et ont la trentaine. Parmi eux, beaucoup moins sont également nés le 5 janvier, conduisent une voiture de sport rouge, ont deux enfants et un chien », explique un des chercheurs dans un communiqué de presse. Or, de telles informations sont souvent demandées par les entreprises pour cibler leurs publicités.

    Les chercheurs ont mis en ligne le code source de leur algorithme afin de pouvoir reproduire l’expérience. Leur site permet également de calculer, grâce à ce modèle, la probabilité pour un individu d’être identifié en fonction de sa date de naissance, de son genre et de son code postal.

    Mais là où les données sont particulièrement sensibles, c’est dans le domaine de la santé, alors que plus de 26 millions de personnes ont déjà fait un test ADN en vente libre. Le secteur bancaire est également à risque, surtout depuis le lancement du Libra, la cryptomonnaie de Facebook, pour laquelle se pose la question de la délimitation entre données personnelles et données financières.

    #Données_personnelles #Anonymat

  • Dans le ventilateur à données de l’appli Météo-France | Mediapart
    https://www.mediapart.fr/journal/economie/250719/dans-le-ventilateur-donnees-de-l-appli-meteo-france?onglet=full

    our regarder la météo sur son smartphone, et tenter par exemple d’anticiper la canicule, il est tentant de se géolocaliser, et de laisser l’application trouver où l’on est. En attendant les prévisions, il faudra toutefois subir une première et agaçante conséquence, dont témoignent de nombreux commentaires : « Appli incontournable mais pub vraiment envahissante. » « Les publicités sonores type GIFI sont insupportables, d’autant que le son est extrêmement fort. ET surtout on ne peut pas les fermer immédiatement comme d’autres pub. » « Insupportable, on arrive toujours à charger la pub [...], en revanche, souvent impossible de charger ensuite la page des prévisions, et si on relance, re-pub et toujours pas de météo… »

    Du soleil, un Perrier… L’appli Météo-France, mardi 23 juillet 2019. © Météo-France Du soleil, un Perrier… L’appli Météo-France, mardi 23 juillet 2019. © Météo-France
    Dans la boutique d’applications pour les téléphones Android, les critiques pleuvent sur la page de l’appli Météo-France. « Un établissement public n’est peut-être pas obligé de mettre une pub en grand écran avec 5 sec obligatoire à chaque démarrage de l’application », dit poliment un internaute.

    Derrière ces publicités bien visibles, envahissantes, voire insupportables, se cache toute une industrie, celle du ciblage publicitaire individualisé, généralement en temps réel, réalisé grâce à la collecte de données personnelles. Un marché estimé à un milliard d’euros en France en 2018, sur mobiles et ordinateurs, et mollement surveillé par la Commission nationale de l’informatique et des libertés (Cnil) dans un plan d’action 2019-2020.

    Dans ses toutes nouvelles « lignes directrices », la Cnil rappelle aux acteurs de ce marché publicitaire que « les opérateurs doivent respecter le caractère préalable du consentement au dépôt de traceurs. Ils doivent laisser la possibilité d’accéder au service même en cas de refus de consentir. Ils doivent fournir un dispositif de retrait du consentement facile d’accès et d’usage ». Elle leur laisse encore un délai de plusieurs mois pour se mettre en conformité avec les règles du RGPD, au grand dam de la Quadrature du Net, l’association en pointe dans la lutte pour la protection des données personnelles, qui déplore un « mépris total du droit européen ».

    Embarqués dans les applications, les « traceurs », « pisteurs », ou encore « SDK » (software development kit) publicitaires sont aux applis mobiles ce que les cookies sont aux sites web : des machines à récupérer des données. À très, très grande échelle : « plus de 42 934 160 identifiants publicitaires et les données de géolocalisation correspondantes à partir de plus de 32 708 applications » ont par exemple été récupérés par la seule société française Vectaury.

    Présenté le 27 juin 2019 devant la FTC (Federal Trade Commission), le gendarme américain du commerce, un article intitulé 50 Ways to Leak Your Data : An Exploration of Apps’ Circumvention of the Android Permissions System (50 façons d’aspirer vos données : une exploration du contournement des autorisations Android par les applications) a révélé les méthodes au moyen desquelles les applications contournent les refus de partage de données des utilisateurs. Ces résultats ont été obtenus par l’équipe d’AppCensus, qui travaille pour différents régulateurs et entreprises privées et examine la face cachée des applications. Les applications concernées seront présentées le 15 août.

    À la fin du formulaire relatif aux données de l’application Météo-France. À la fin du formulaire relatif aux données de l’application Météo-France.
    Pour Mediapart, l’un des membres d’AppCensus, Joel Reardon, de l’université de Calgary (Canada), a testé l’application Météo-France. Dans trois configurations différentes : « Tout accepter », « Je valide mes choix » (avec le choix de tout désactiver) et enfin « Tout refuser ». Pendant 10 minutes chaque fois, le test a consisté à surveiller la transmission de quatre informations sensibles : l’identifiant publicitaire du téléphone ; l’identifiant Android ou Android ID ; la géolocalisation ; et l’adresse MAC du téléphone – à laquelle « on ne devrait plus pouvoir accéder du tout », estime le chercheur, à l’unisson de ses confrères. Android ID ou adresse MAC : pour Arthur Messaud, de la Quadrature du Net, « sans l’identifiant unique » d’un terminal, il n’y a pas de « croisement publicitaire possible ».

    Le tableau ci-dessous récapitule les données transmises avec la troisième option, « Je refuse tout ».

    Dans le débat sur les données personnelles, quelques voix s’élèvent régulièrement pour suggérer que leurs détenteurs, considérés comme légitimes propriétaires, puissent les vendre eux-mêmes, ou au moins en tirer un revenu. Quel est le donc le prix de ces données… données à Météo-France, dont l’appli est utilisée par des millions de personnes ?

    « Aucun revenu direct » n’est produit par les données en elles-mêmes, précise Météo-France. « En revanche », souligne l’établissement public, elles « permettent indirectement d’augmenter le niveau des recettes publicitaires générées par la commercialisation des espaces », en optimisant « le prix des publicités vendues ». De combien ? On ne le saura pas : « En l’état, il ne nous est pas possible quantitativement de connaître précisément l’apport de l’utilisation des données pour améliorer les prix de vente », reconnaît Météo-France.

    L’établissement météorologique, dont les comptes sont auscultés chaque année à l’occasion de l’examen, au Parlement, des projets de loi de finances (voir ici et là), a transmis à Mediapart ses résultats pour le premier semestre 2019 : « Entre le 1er janvier 2019 et le 30 juin 2019, les recettes publicitaires générées par les applications mobiles de Météo-France (application grand public et application Météo Ski) se montent à 1 194 184,79 € hors commission. »

    1,2 million d’euros sur six mois : tel est le prix des données personnelles cédées. « Pour l’exercice 2018 », ajoute Météo-France, les revenus générés par les applications mobiles « ont représenté 7,64 % des recettes commerciales totales (soit 0,6 % des ressources budgétaires de l’établissement) ».

    Mais si les informations météorologiques ont perdu leur valeur marchande, ce n’est pas le cas des données personnelles, et ce sont celles-ci, qui ne lui appartiennent pas et qu’il ne produit pas, que Météo-France met donc en vente. Un phénomène de vases communicants, en quelque sorte. Au détriment du public, et pour des sommes dérisoires.

    #Météo_France #Données_personnelles #traçage #Publicité

  • Les alléchantes données d’Uber aiguisent l’appétit des collectivités
    https://www.lagazettedescommunes.com/626540/les-allechantes-donnees-duber-aiguisent-lappetit-des-collectiv

    L’heure et le lieu de prise en charge du client, l’heure et le lieu de dépose, le tarif de la course, le trajet parcouru, le nombre de personnes et le type de trajet... Pour chaque course d’Uber, un nombre important d’informations sont consignées dans les datacenters de la firme. Un trésor pour les collectivités, qui reste souvent inaccessible. Depuis la fin du mois de mai, pour circuler dans la ville de New York (États-Unis), les opérateurs de VTC doivent fournir une quantité importante de données (...)

    #Uber #données_des_conducteurs #trafic #BigData #travail

  • Abus d’usage de banque de données, consommation d’alcool,... : 469 policiers indisciplinés sanctionnés en 2018
    https://www.dhnet.be/actu/faits/abus-d-usage-de-banque-de-donnees-consommation-d-alcool-469-policiers-indiscip

    L’abus des banques de données et la consommation d’alcool sont pointés par le conseil de discipline de la police. La DH a pu consulter cette année encore le nouveau rapport annuel du conseil de discipline de la police intégrée (police fédérale et locale). Long de 204 pages, il fait état de toutes les sanctions disciplinaires infligées aux membres de la police en 2018. Première nouvelle : le nombre de sanctions a légèrement diminué par rapport à 2017. On en compte 469 contre 531 l’année précédente. Pour (...)

    #données_ #domination

  • Interviews fictives entre les personnages du défi babelio ado

    https://www.pedagogie.ac-nice.fr/docazur/index.php/traam/1576-traam-emi-interviews-fictives-entre-les-personnages-du-defi-b

    «  Etre capable de prélever des informations à partir d’un document créé par un camarade et d’en faire une interview fictive en situant les personnages en fonction du contexte de l’ouvrage de fiction.
    Etre capable de mettre en scène le texte préalablement rédigé
    Etre capable de travailler en groupe
    Etre capable de donner une identité numérique à des personnages de fiction »

    #séance #EMI #babelio #Identité_Numérique #Données_Personnelles

  • The guy who made a tool to track women in porn videos is sorry - MIT Technology Review
    https://www.technologyreview.com/s/613607/facial-recognition-porn-database-privacy-gdpr-data-collection-poli

    An anonymous programmer based in Germany caused outrage this week for supposedly using face-recognition technology to “catch” women who had appeared in porn. He says he’s since deleted the project and all its data, but that’s not an act of altruism. Such a project would have violated European privacy law anyway, though it would have been okay elsewhere.

    There is still no proof that the global system—which allegedly matched women’s social-media photos with images from sites like Pornhub—actually worked, or even existed. Still, the technology is possible and would have had awful consequences. “It’s going to kill people,” says Carrie A. Goldberg, an attorney who specializes in sexual privacy violations and author of the forthcoming book Nobody’s Victim: Fighting Psychos, Stalkers, Pervs, and Trolls. “Some of my most viciously harassed clients have been people who did porn, oftentimes one time in their life and sometimes nonconsensually [because] they were duped into it. Their lives have been ruined because there’s this whole culture of incels that for a hobby expose women who’ve done porn and post about them online and dox them.” (Incels, or “involuntary celibates,” are a misogynistic online subculture of men who claim they are denied sex by women.)

    The European Union’s GDPR privacy law prevents this kind of situation. Though the programmer—who posted about the project on the Chinese social network Weibo—originally insisted everything was fine because he didn’t make the information public, just collecting the data is illegal if the women didn’t consent, according to Börge Seeger, a data protection expert and partner at German law firm Neuwerk. These laws apply to any information from EU residents, so they would have held even if the programmer weren’t living in the EU.

    Under GDPR, personal data (and especially sensitive biometric data) needs to be collected for specific and legitimate purposes. Scraping data to figure out if someone once appeared in porn is not that. And if the programmer had charged money to access this information, he could have faced up to three years in prison under German criminal law, adds Seeger.

    Et toujours cette logique de l’excuse qui semble Zurkerbériser un grand nombre de programmeurs.

    Reached last night via Weibo, the programmer (who did not give his real name) insisted that the technology was real, but acknowledged that it raised legal issues. He’s sorry to have caused trouble. But he’s not the only one able to build this technology, or the only one interested in using it for dangerous purposes. Policymakers concerned with global privacy law need to start thinking ahead.

    #Reconnaissance_faciale #Données_provées #Porno

  • #Doctolib : un géant de la #santé qui commence à inquiéter
    https://www.francetvinfo.fr/sante/professions-medicales/doctolib-un-geant-de-la-sante-qui-commence-a-inquieter_3447979.html

    Succès fulgurant pour la #start-up de prise de rendez-vous médicaux : en cinq ans, la société affiche une valorisation de plus d’un milliard d’euros. Mais cette réussite pose la question de l’impact que peut avoir un tel acteur, devenu incontournable.

    #numérique #ap-hp #concurrence #RGPD #données_personnelles #monopole #médecine #secrétariat_médical

  • Why Is Border Patrol Planning to DNA Test Asylum Seekers ? - Pacific Standard
    https://psmag.com/news/why-is-border-patrol-planning-to-dna-test-asylum-seekers

    Next week, at two locations along the United States’ southern border, authorities will begin swabbing the cheeks of migrants and asylum seekers traveling as families to complete DNA tests. The new pilot program, first reported by CNN, seeks to identify what the Department of Homeland Security calls “fraudulent families.” The DNA tests can provide results in as little as 90 minutes.

    For months, the Trump administration has claimed that some asylum seekers arriving on the border with children are not actually families, but rather adults traveling with unrelated children. The administration argues that these people hope to take advantage of laws that limit the amount of time children and families can remain in detention.

    Why Civil Rights Advocates Are Worried

    Some advocates are suspicious of the administration’s motives. In the past, immigration authorities have made fraud claims and separated legitimate parents from their children. Others say that the administration is exaggerating the scale of the problem: According to BuzzFeed News, immigration officials say they have identified 3,100 fraudulent families in the last year—but that represents less than 1 percent of the 256,821 family units apprehended. Some say the number should be even lower, because officials consider a family fraudulent if they believe that a child is not actually under 18 years old. (In the past, immigration authorities have been accused of ignoring evidence that people in adult detention facilities are actually minors.)

    Arguing that the DNA tests are unnecessary, the American Civil Liberties Union says the new plan represents another attempt by the administration to “intimidate and deter” asylum seekers. “Forced DNA collection is coercive and intrusive, and it raises serious privacy and civil liberties concerns,” Vera Eidelman, staff attorney with the ACLU’s Speech, Privacy, and Technology Project, writes in a statement sent to Pacific Standard.

    Why Civil Rights Advocates Are Worried

    Some advocates are suspicious of the administration’s motives. In the past, immigration authorities have made fraud claims and separated legitimate parents from their children. Others say that the administration is exaggerating the scale of the problem: According to BuzzFeed News, immigration officials say they have identified 3,100 fraudulent families in the last year—but that represents less than 1 percent of the 256,821 family units apprehended. Some say the number should be even lower, because officials consider a family fraudulent if they believe that a child is not actually under 18 years old. (In the past, immigration authorities have been accused of ignoring evidence that people in adult detention facilities are actually minors.)

    Arguing that the DNA tests are unnecessary, the American Civil Liberties Union says the new plan represents another attempt by the administration to “intimidate and deter” asylum seekers. “Forced DNA collection is coercive and intrusive, and it raises serious privacy and civil liberties concerns,” Vera Eidelman, staff attorney with the ACLU’s Speech, Privacy, and Technology Project, writes in a statement sent to Pacific Standard.

    #ADN #Vie_Privée #Société_contrôle #Données_personnelles

  • Microsoft is closing its HealthVault patient-records service on November 20 | ZDNet
    https://www.zdnet.com/article/microsoft-is-closing-its-healthvault-patient-records-service-on-november-20

    Microsoft is dropping its HealthVault patient records-management service, the company notified customers via email today, April 5. The service will be shut down on November 20 and any data residing in the service will be deleted after that date.

    HealthVault was one of the last pieces left of Microsoft’s original foray into first-part health services products. Recently, Microsoft officials said they were ending support for the Microsoft Health Dashboard applications and services as of May 31. Early last year, Microsoft dropped its HealthVault Insights application.

    HealthVault is a service for storing individuals’ health and medical records and information so they can be shared with health professionals. Microsoft launched a beta of HealthVault in 2007 and went live with the service in 2009. Microsoft was still updating its HealthVault documentation on the docs.microsoft.com site as of December 2018.

    Microsoft is not giving up on the healthcare market. In February this year, Microsoft Healthcare announced it was making generally available its Healthcare Bot Service; adding more healthcare-specific features to Teams; and adding new health-record integration capabilities to Azure and Teams. But like it has been doing on many fronts lately, it seems to be getting out of the consumer-facing part of the business.

    Microsoft made its initial foray into healthcare over a decade ago, but ended up retrenching and selling off most of the health assets it originally acquired. A couple of years ago, Microsoft announced it was creating a new healthcare-focused research unit, Healthcare NExT. Healthcare is one of Microsoft’s highest priority verticals, as it’s a growing and pervasive market.

    #Microsoft #HealthVault #Santé #Données_médicales

  • Du panneau #publicitaire au crime #humanitaire en passant par les #smartcities de nos maires :

    Au départ je voulais juste vous transmettre cette petite action #antipub sympatoche :
    Résistance à l’Agression Publicitaire
    [1 CLIC QUI RÉSISTE] « On a installé une page spéciale sur notre serveur. Cliquer sur le lien pour supprimer une adresse MAC aléatoire des nouveaux capteurs d’audience de la RATP et SNCF (et rafraîchir la page pour en supprimer d’autres) :-D »
    –-> https://antipub.org/retency.html

    Cette action fait suite à l’expérimentation lancée gare Saint Lazare en vue d’utiliser les panneaux publicitaires sous forme d’écrans à des fins de comptage des passants via des capteurs détectant les adresses MAC de leurs smartphones.
    Article ici : http://maisouvaleweb.fr/face-aux-panneaux-publicitaires-numeriques-devons-affirmer-dimension-c

    Dans un commentaire une personne souligne, qu’une adresse MAC n’est pas « juste » un simple numéro. Elle peut donner accès à énormément de données personnelles. La réponse qui lui est faite développe un aspect que je ne connaissais pas : la (non) position de la CNIL sur le sujet :

    L’analyse juridique proposée dans la première partie de l’article est incomplète et pourrait conduire à une conclusion erronée, comme quoi la collecte d’adresse MAC sans consentement serait conforme au droit dès lors que cette adresse serait anonymisée à court délai et que les personnes concernées pourraient s’opposer à cette collecte.

    Cette erreur de l’auteur semble s’expliquer du fait qu’il a pris pour argent comptant les interprétations du droit données par la CNIL dans ses décisions, comme si la CNIL était neutre et seule bouche de la loi.

    Or, la CNIL n’est pas du tout neutre, et notamment pas sur cette question où elle a une position singulière, critiquable d’un point de vue tant politique que juridique.

    Le traitement d’adresses MAC est encadré juridiquement par le RGPD mais aussi, depuis plus longue date, par la directive 2002/58 (liens en bas de commentaire). Or, cette directive n’a été que très mal transposée en France, comme un peu partout ailleurs dans l’UE. Du coup, la CNIL est depuis très mal à l’aise à l’idée d’appliquer cette directive, car elle ne sait pas jusqu’où elle peut l’interpréter pour se donner davantage de pouvoir. Or, de façon classique, la CNIL étant terrorisée à l’idée d’être sanctionnée par le Conseil d’Etat si elle abuse de ses pouvoirs, elle préfère ne rien faire, lâchement.

    La suite du commentaire et ses réponses sont tout aussi intéressantes : http://maisouvaleweb.fr/face-aux-panneaux-publicitaires-numeriques-devons-affirmer-dimension-collective-donnees-personnelles/#comment-55246

    Résistance à l’agression Publicitaire avait fait un dossier inquiet en 2014 : « Les caméras publicitaires, pur fantasme ?  »
    https://antipub.org/dossier-les-cameras-publicitaires-pur-fantasme

    Reporterre a aussi fait un article sur le sujet des panneaux publicitaires : https://reporterre.net/Les-panneaux-publicitaires-numeriques-envahissent-l-espace-public-et-nos

    Il se trouve que c’est justement par ce biais, de la récupération des données en toute « politesse » (je te ponctionne un peu d’identité contre un peu de réseau) que sont actuellement conçues les villes du futur, les #smartcities et que des décideurs politiques font des choix sans anticiper le moins du monde (ou parfois si, à des fins policière) ce que cela induit pour les populations qui seront concernées...

    Horreur. Le temps d’aller vérifier une donnée, je tombe sur cette info relevée par Olivier Tesquet sur twitter :

    L’entreprise israélienne Cellebrite, spécialisée dans l’extraction de données (ils auraient aidé Apple à déverrouiller l’iPhone de l’auteur de l’attentat de San Bernardino en 2016) a identifié un nouveau marché porteur : les demandeurs d’asile.
    Selon un slide de Cellebrite présenté au Maroc, 77% des réfugiés arrivent à destination sans papiers d’identité... mais 43% d’entre eux possèdent un smartphone. Pourquoi la police aux frontières n’aurait-elle pas toute latitude pour fouiller dedans ?

    Source : https://privacyinternational.org/feature/2776/surveillance-company-cellebrite-finds-new-exploit-spying-asylu
    Suite du thread : https://twitter.com/oliviertesquet/status/1113816301435224064

    #publicité #data #données_personnelles #big_brother #traçabilité #identité #numérique

  • Données sémantiques, structurées et associées, le choix JSON-LD - Alsacreations
    https://www.alsacreations.com/article/lire/1780-donnees-semantiques-structurees-associees-le-choix-JSON-LD.html

    JSON-LD est une adaptation de JSON qui permet de servir des données associées (utilisant un vocabulaire défini par avance) et structurées sur le Web.
    Successeur des microformats / microdatas HTML5, semble bien parti pour devenir LE format des données sémantiques sur le web.

    Voir aussi :
    – la doc de Google dev pour les « données structurées » en tant qu’élément fondamental dans le référencement d’un site : https://developers.google.com/search/docs/guides/intro-structured-data
    – la dernière version de la spécification du w3c : https://w3c.github.io/json-ld-syntax

    #JSON-LD #données_structurées #microformat #microdata #référencement #web_sémantique