• Retraction: “Hydroxychloroquine or chloroquine with or without a macrolide for treatment of COVID-19: a multinational registry analysis”
    https://www.thelancet.com/lancet/article/s0140673620313246

    Today, three of the authors of the paper, “Hydroxychloroquine or chloroquine with or without a macrolide for treatment of COVID-19: a multinational registry analysis”, have retracted their study. They were unable to complete an independent audit of the data underpinning their analysis. As a result, they have concluded that they “can no longer vouch for the veracity of the primary data sources.”

    • Je note le fait que @simplicissimus avait mis le doigt il y a une semaine sur ce qui fait aujourd’hui tomber cette étude : le recours aux dossiers collectés et détenus par une boîte privée (qui refuse donc de donner accès à ses dossiers, raison pour laquelle les auteurs se rétractent, indiquant qu’ils ne sont pas en situation d’auditer plus avant la qualité de leurs sources) :
      https://seenthis.net/messages/856919#message856933

    • Covid-19 : deux études rétractées par deux grandes revues médicales
      https://www.lemonde.fr/sciences/article/2020/06/04/hydroxychloroquine-trois-auteurs-de-l-etude-du-lancet-se-retractent_6041803_

      N’ayant pu accéder aux données brutes de la société #Surgisphère qui avait fondé leur analyse, les coauteurs des deux articles ont demandé leur retrait. Celui publié dans « The Lancet » avait conduit à la suspension de l’usage de l’hydroxychloroquine en France.

      Coup sur coup, deux des plus grandes revues médicales mondiales ont procédé à la rétractation d’articles ayant trait au Covid-19, fondés sur des données fournies par une société américaine, Surgisphere et à l’origine, désormais, plus que douteuse. The Lancet a annoncé, jeudi 4 juin, le retrait de l’étude publiée le 22 mai dans ses colonnes, qui suggérait que l’hydroxychloroquine, associée ou non à un antibiotique comme l’azithromycine, augmentait la mortalité et les arythmies cardiaques chez les patients hospitalisés pour Covid-19. Cette étude avait été suivie en France d’une abrogation de la dérogation qui permettait l’utilisation de cette molécule contre le nouveau coronavirus SARS-CoV-2 et de la suspension d’essais cliniques destinés à tester son efficacité.
      Le New England Journal of Medicine (NEJM) a fait de même pour un article publié le 1er mai dans ses colonnes, qui déclarait que la prise de traitements antihypertenseurs n’avait pas d’influence sur la gravité du Covid-19. Dans les deux cas, l’auteur principal de l’étude était Mandeep Mehra (Harvard Medical School) et les données provenaient de Surgisphere.

      #données_de_santé #données_médicales #recherche

    • merci @arno, mon premier réflexe avait été de chercher la liste des hôpitaux. Contrairement à ce que laissait entendre la note, elle ne figurait pas en annexe où seul était produit la distribution par continent (avec le succès que l’on sait). Puis d’aller la chercher sur le site de Surgisphere où elle ne figure nulle part non plus.

      Je ne comprends pas comment Surgisphere n’a pas donné accès au groupe désigné par le Lancet chargé de vérifier les données. Ou plutôt, et c’est ce que se sont dit les 3 co-auteurs, s’ils refusent c’est que ça a été collecté n’importe comment.

      Apparemment, le projet initial, comme je l’indiquais dans ma remarque, était centré sur la chirurgie avec une équipe réduite. Le patron S. S. Desai y a vu l’occasion de promouvoir sa base de données, sauf que celle-ci n’a sans doute pas été conçue pour la médecine générale (ou les maladies infectieuses). Et lui fait dire ce pour quoi elle n’a pas été faite. Le coup de pub engendre un violent retour de bâton.

  • A mysterious company’s coronavirus papers in top medical journals may be unraveling | Science | AAAS
    https://www.sciencemag.org/news/2020/06/mysterious-company-s-coronavirus-papers-top-medical-journals-may-be-unra

    On its face, it was a major finding: Antimalarial drugs touted by the White House as possible COVID-19 treatments looked to be not just ineffective, but downright deadly. A study published on 22 May in The Lancet used hospital records procured by a little-known data analytics company called Surgisphere to conclude that coronavirus patients taking chloroquine or hydroxychloroquine were more likely to show an irregular heart rhythm—a known side effect thought to be rare—and were more likely to die in the hospital.

    Within days, some large randomized trials of the drugs—the type that might prove or disprove the retrospective study’s analysis—screeched to a halt. Solidarity, the World Health Organization’s (WHO’s) megatrial of potential COVID-19 treatments, paused recruitment into its hydroxychloroquine arm, for example.

    But just as quickly, the Lancet results have begun to unravel—and Surgisphere, which provided patient data for two other high-profile COVID-19 papers, has come under withering online scrutiny from researchers and amateur sleuths. They have pointed out many red flags in the Lancet paper, including the astonishing number of patients involved and details about their demographics and prescribed dosing that seem implausible. “It began to stretch and stretch and stretch credulity,” says Nicholas White, a malaria researcher at Mahidol University in Bangkok.

    Today, The Lancet issued an Expression of Concern (EOC) saying “important scientific questions have been raised about data” in the paper and noting that “an independent audit of the provenance and validity of the data has been commissioned by the authors not affiliated with Surgisphere and is ongoing, with results expected very shortly.”

    Hours earlier, The New England Journal of Medicine (NEJM) issued its own EOC about a second study using Surgisphere data, published on 1 May. The paper reported that taking certain blood pressure drugs including angiotensin-converting enzyme (ACE) inhibitors didn’t appear to increase the risk of death among COVID-19 patients, as some researchers had suggested. (Several studies analyzing other groups of COVID-19 patients support the NEJM results.) “Recently, substantive concerns have been raised about the quality of the information in that database,” an NEJM statement noted. “We have asked the authors to provide evidence that the data are reliable.”

    Surgisphere’s sparse online presence—the website doesn’t list any of its partner hospitals by name or identify its scientific advisory board, for example—have prompted intense skepticism. Physician and entrepreneur James Todaro of the investment fund Blocktown Capital wondered in a blog post why Surgisphere’s enormous database doesn’t appear to have been used in peer-reviewed research studies until May. Another post, from data scientist Peter Ellis of the management consulting firm Nous Group, questioned how LinkedIn could list only five Surgisphere employees—all but Desai apparently lacking a scientific or medical background—if the company really provides software to hundreds of hospitals to coordinate the collection of sensitive data from electronic health records. (This morning, the number of employees on LinkedIn had dropped to three.) And Chaccour wonders how such a tiny company was able to reach data-sharing agreements with hundreds of hospitals around the world that use many different languages and data recording systems, while adhering to the rules of 46 different countries on research ethics and data protection.

    The controversy has been an unfortunate distraction, Hernán adds. “If you do something as inflammatory as this without a solid foundation, you are going to make a lot of people waste time trying to understand what is going on.”

    Chaccour says both NEJM and The Lancet should have scrutinized the provenance of Surgisphere’s data more closely before publishing the studies. “Here we are in the middle of a pandemic with hundreds of thousands of deaths, and the two most prestigious medical journals have failed us,” he says.

    #Chloroquine #Revues_médicales #Surgisphere #Données_médicales #Fake_science

  • Déconfinement : « Il faut considérer les données de santé comme un bien commun »
    https://www.lemonde.fr/idees/article/2020/04/24/deconfinement-il-faut-considerer-les-donnees-de-sante-comme-un-bien-commun_6

    Cette méfiance s’explique pour deux raisons. La première est que la notion de bien public a perdu de son sens. Le bien public n’est plus perçu comme appartenant au citoyen parce qu’utile pour les citoyens, mais comme celui qui est produit par l’Etat parce qu’il ne peut pas être produit par le marché. Autrement dit, on réduit l’intérêt du bien public à un intérêt économique.
    Comment conjuguer intérêt particulier et intérêt collectif ?

    Or, en réduisant le bien public à une utilité standard économique, on permet aux Gafam de proposer des contreparties bien plus intéressantes et immédiates pour les individus. La seconde raison est que l’individu estime que le croisement des données de santé est plus dangereux s’il est fait par un Etat que par les Gafam. Or, s’il est vrai que l’utilisation des données personnelles par l’Etat (pour accorder des droits d’accès au soin, de circulation, etc.) peut être perçue comme une atteinte aux libertés individuelles, le risque réel est pourtant équivalent avec les Gafam : le scandale Cambridge Analytica en est l’exemple le plus éloquent.

    Mais il reste que les individus préfèrent confier des données de santé aux Gafam, car la contrepartie immédiate est plus satisfaisante (usage d’une application, optimisation du paramétrage d’une application…). De plus, le risque s’avère bien moins visible (influence sur les scrutins électoraux), voire indolore (envoi de publicité, tarification en fonction des préférences)

    Restaurer un lien démocratique avec les citoyens

    Nous pensons qu’il faut sortir les données de santé de la logique de marché et les considérer comme un bien mis en commun ; certes comme une propriété privée, mais dont les individus donnent usage pour le bien-être collectif. Il est impératif de restaurer un lien démocratique avec les citoyens. Il y a un effort d’acculturation et de pédagogie à faire pour passer de la représentation d’une « donnée pour l’Etat » à celle d’une « donnée pour le collectif ».

    L’Etat ne jouerait qu’un rôle de coordonnateur, qui agrégerait les données de santé pour constituer ce bien commun qu’il mettrait au service de la communauté. Il n’aurait aucun droit de propriété, mais un droit d’usage. Enfin, il faut repenser la gouvernance des données à l’échelle nationale. Il n’est plus possible que les Gafam constituent des silos avec les données personnelles en excluant du bien commun l’Etat et les citoyens, considérés seulement comme des consommateurs.

    Toutes les données publiques et privées sont interdépendantes. Le bien commun ne peut être constitué que par des données privées et personnelles, mais elles doivent faire l’objet de traitements qui ont la confiance des citoyens et déboucher sur la réalisation de biens publics.

    #StopCovid #Données_médicales #Biens_communs #Biens_publics

  • StopCovid : le double risque de la “signose” et du “glissement”
    https://medium.com/@hubertguillaud/stopcovid-le-double-risque-de-la-signose-et-du-glissement-b1e2205bff5a

    Le risque face à une absence de masques et de tests qui est là pour durer est que cette brique logicielle devienne un peu le seul outil à notre disposition pour “déconfiner”. Que StopCovid, de “brique incertaine” devienne le seul outil prêt à être utilisé, tout comme aujourd’hui l’attestation dérogatoire de déplacement est devenue le seul outil de maîtrise du confinement qu’on renforce d’arrêtés municipaux ou nationaux (quand ce n’est pas d’appréciations liberticides des agents) sans réelle motivation sanitaire (comme l’interdiction de courir ou de faire du vélo ou la fermeture des parcs ou pire encore des marchés : alors qu’on peut organiser des marchés voir des commerces non essentiels comme des accès aux espaces verts avec des règles de distanciations sociales). Et donc que tout le monde souhaite le renforcer : en le rendant peut-être obligatoire et pire peut-être en le rendant accessible au contrôle policier ! Et dans l’urgence et le dénuement, pour sortir d’une crise qui se révèle chaque jour plus dramatique, nul doute que nombreux seront prêt à s’y précipiter !

    Le problème principal de StopCovid, c’est de ne reposer sur aucune science ! La seule étude disponible sur le sujet dans Science estime que ce type d’application doit accueillir 60% de la population pour être efficace et être associée à une politique de dépistage — dont nous ne disposons pas !

    À Singapour, l’application TraceTogether, qui rassemblait 15% de a population, pourtant couplée au dépistage n’a pas suffi, comme le rappelle Olivier Tesquet pour Télérama ou Margot Clément depuis Hong Kong pour Mediapart : c’est certainement le signe (pas assez fort pourtant) que ce n’est pas une solution.

    Le problème de StopCovid comme d’autres solutions de backtracking proposées, c’est de transformer une notion de proximité en alerte. Or, être à proximité d’un malade ne signifie pas le devenir automatiquement ! La médecine a besoin de suivre et confiner les malades, ceux qu’ils contaminent et ceux qui les ont contaminés. Mais cela ne peut pas se faire sur la base de conjoncture, de corrélation, d’approximation, de proximité et de localisation.

    Très souvent, le coeur des problèmes des systèmes réside dans les données utilisées et dans les décisions très concrètes qui sont prises pour décider ! Ici, tout le problème de cette proximité réside dans sa définition, sa qualification. Comment est définie la proximité par l’application ? Quelle durée ? Quelle distance ? Quelles conditions ? Quel contexte est pris en compte ? Et pour chacun de ces critères avec quelle précision et quelle fiabilité ?

    Le risque bien sûr, vous l’aurez compris, est que StopCovid produise énormément de “faux positifs” : c’est-à-dire des signalements anxiogènes et non motivés ! Dont il ne nous présentera aucun contexte : on ne saura pas ni qui, ni quand nous avons été à proximité d’un malade, donc incapable d’apprécier la situation, de lui rendre son contexte pour l’apprécier. Nous serons renvoyés à l’injonction du signal ! Sans être capable de prendre une décision informée (dois-je me confiner ? me faire tester — pour autant que ce soit possible !?).

    Ce que j’appelle “le glissement”, c’est le changement de finalité et l’évolution des autorisations d’accès. C’est le moteur de l’innovation technologique (une manière de pivoter dirait-on dans le monde entrepreneurial, c’est-à-dire de changer la finalité d’un produit et de le vendre pour d’autres clients que son marché originel). Mais le glissement est aussi le moteur de la surveillance, qui consiste bien souvent à transformer des fonctions simples en fonctions de surveillance : comme quand accéder à vos outils de télétravail permet de vous surveiller. Le risque du glissement consiste à faire évoluer dans l’urgence les finalités de l’application StopCovid, qu’elles soient logicielles ou d’usages. C’est ce dont s’inquiète (.pdf) très justement le comité consultatif national d’éthique en prévenant du risque de l’utilisation de l’application pour du contrôle policier ou du contrôle par l’employeur. Même inquiétude pour La Quadrature du Net et l’Observatoire des libertés numériques : le risque c’est qu’une “telle application finisse par être imposée pour continuer de travailler ou pour accéder à certains lieux publics”.

    Le risque le plus évident bien sûr est que votre employeur demande à voir votre application sur votre smartphone chaque matin ! Les commerçants, les bars, les policiers, les voisins… Que StopCovid devienne le “certificat d’immunité”, qu’évoquait dans son plan de déconfinement — tout à fait scandaleusement il me semble — la maire de Paris, Anne Hidalgo (sans compter qu’elle l’évoque comme un moyen de contrôle par l’employeur qu’elle représente, la Ville de Paris !). Le “glissement” le plus insidieux c’est que StopCovid devienne une application non pas obligatoire, mais injonctive. Que la santé de chacun soit à la vue de tous : employeurs, voisins, police ! Que nous devenions tous des auxiliaires de police plutôt que des auxiliaires de santé !

    L’application — pourtant “privacy by design” — n’est pas encore déployée que déjà on nous prépare aux glissements, autoritaires ou contraints ! Le risque bien sûr est de passer d’un contrôle des attestations à un contrôle de l’application ! Un élargissement continu de la pratique du contrôle par la police qui a tendance à élargir les dérives… Ou, pour le dire avec la force d’Alain Damasio : “faire de la médecine un travail de police”.

    Le risque enfin c’est bien sûr de faire évoluer l’application par décrets et modification successive du code… pour finir par lui faire afficher qui a contaminé qui et quand, qui serait le meilleur moyen d’enterrer définitivement nos libertés publiques !

    Le risque, finalement est de continuer à croire que l’analyse de mauvaises données fera pour moins cher ce que seule la science peut faire : mais avec du temps et de l’argent. Le risque, c’est de croire, comme d’habitude que le numérique permet de faire la même chose pour moins cher, d’être un soin palliatif de la médecine. On sait où cette politique de baisse des coûts nous a menés en matière de masques, de lits et de tests. Doit-on encore continuer ?

    Le risque c’est de croire qu’une application peut faire le travail d’un médecin, d’un humain : diagnostiquer, traiter, enquêter, apaiser… Soigner et prendre soin. Le risque c’est de rendre disponible des informations de santé de quelque nature qu’elles soient en dehors du circuit de santé et de soin !

    Ce que nous devons garantir en tant que société : c’est que les informations de santé demeurent des informations de santé. Que l’état de chacun face au Covid n’a pas à être communiqué : ni aux entreprises, ni à la police, ni aux employeurs, ni aux voisins ! La santé doit rester à la médecine et la médecine ne doit pas devenir la police. Devant un homme malade, on ne doit pas mettre une application, mais bien un soignant.

    #Coronavirus #Stop-covid #Libertyés_publiques #Données_médicales

  • Vendre ses données de santé, ça coûte combien ? - CNET France
    https://www.cnetfrance.fr/news/vendre-ses-donnees-de-sante-ca-coute-combien-39895205.htm

    C’est une statistique assez surprenante, pour ne pas dire inquiétante. Selon une enquête de CSA Research pour le laboratoire pharmaceutique Roche, si 78 % des français interrogés estiment que le partage de données de santé (avec des scientifiques) est un acte citoyen qui peut faire progresser la recherche (jusque là, on parle d’open science, donc aucun problème), 20 % sont prêts à aller plus loin que le simple partage, et ne verraient ainsi aucun problème… à les vendre. Chez les 18-24 ans, ils sont même 36 %, « conscients » qu’ils sont de « la valeur » de ces données.

    Oui, leur valeur. Un débat fait rage depuis quelques années autour de la monétisation des données, et leur caractère « patrimonial » ou non. Si vos données personnelles vous appartiennent (et leur valeur aussi) au même titre que votre corps, et si elles ont une valeur importante, pourquoi pas, pensent certaines personnes, accepter sciemment qu’elles soient revendues, contre un petit pécule ? Nous en avons déjà parlé sur CNET France : vos données personnelles en disent beaucoup sur vous, et forcément, pour cette raison, elles ont de la valeur pour de nombreux acteurs, des publicitaires aux assurances, en passant par les chercheurs. Mais seules, isolées, brutes, elles ne valent en fait pas grand chose.

    En novembre 2019, Alphabet a ainsi mis la main sur les données de santé de millions d’Américains, officiellement dans le cadre d’un accord pour « développer de nouvelles technologies dans le domaine de la santé », officieusement dans un but économique. Ainsi, le chercheur en droit et technologie Florian Martin-Bariteau, de l’université d’Ottawa, explique-t-il sur ICI Radio-Canada Première, que « les données de santé sont le nouvel eldorado des compagnies technologiques dans le monde entier ». Car, pense-t-il, sous le manteau, les entreprises qui nouent ce genre de partenariats à priori dans un but noble, pourraient bien être tentées de « se servir de ces informations pour les revendre ». Et d’ajouter qu’on « nous dit pour nous rassurer que Google n’aura pas le droit d’utiliser cet ensemble de données pour les coupler avec les données des consommateurs qu’elle a déjà », mais que « Google est un expert des ’oups’ », et que « ce n’est pas la compagnie qui a la meilleure réputation en gestion des données personnelles et de sécurité des données ».

    Pour éviter ce genre de collecte-revente qui se font (ou se feraient) dans le dos des personnes, sans leur consentement direct, des lois existent, comme le RGPD, effectif en Europe depuis mai 2018. Mais le plus simple ne serait-il pas de laisser les individus vendre eux-mêmes leurs données de santé ? Octroyer un « droit de propriété » aux gens serait ainsi un moyen pour ces derniers, estiment Gaspard Koenig et Jaron lanier, de garder la main sur des données qui ne sont pas comme les autres, car leur valeur ne diminue pas à l’usage.

    Créer un marché qui n’existe pas, c’est l’eldorado des gens sans éthique.

    Sur son site, Embleema publie un « manifeste » intéressant, qui prône une co-construction de la valeur des données de santé, entre les patients et les chercheurs en médecine. Robert Chu et ses associés expliquent que « nos données de santé sont notre actif numérique le plus précieux, car elles peuvent nous sauver la vie dans une situation d’urgence, et fournir des informations critiques pour la prise de décision des prestataires de soins », mais que jusqu’ici, « elles étaient gardées en captivité dans des silos protégés, par crainte de voir nos droits aux soins violés », au grand dam de la « médecine personnalisé, qui perd une mine de données » essentielles.

    Selon la startup, « Blockchain santé » sera l’un des moyens, demain, de redonner « le pouvoir aux patients », de ne plus les obliger à « faire appel à des tiers pour traiter leurs informations les plus sensibles ». Robert Chu explique ainsi « qu’aujourd’hui, les données des patients sont revendues par des sociétés (comme Cegedim en France), qui les achètent à des professionnels de santé comme des hôpitaux, les anonymisent, puis les vendent aux laboratoires pharmaceutiques ». D’après ses estimations, « ce marché, qui avoisine les 200 millions d’euros en France, est capté par ces tiers, et, la source des données, le patient, ne perçoit rien. » Outre Cegedim, notons au passage que d’autres « courtiers de données », comme Sophia Genetics, qui déploie des solutions d’intelligence artificielle en santé, ou OpenHealth Company, effectuent pour des hôpitaux et des médecins le traitement de leurs données, issues de plusieurs centaines de milliers de patients.

    Vendre des données de santé peut coûter cher… à leur propriétaire

    Au fond, revendre vos données de santé ne vous rapporterait donc bien souvent qu’un petit pécule. Mais dans le même temps, estiment les défenseurs de la vie privée et de la protection des données personnelles, cela pourrait vous en coûter, à terme, d’une toute autre façon. Certes, l’idée d’un "droit patrimonial" des données de santé, destiné à contrer la monétisation "sans contrôle" actuelle, est séduisante. Mais une fois les données revendues, celles-ci échappent à leur "propriétaire".

    "Si les données de santé devraient d’abord servir à l’amélioration de la qualité des soins, on ne peut ignorer qu’elles peuvent servir à d’autres finalités, notamment en matière de marketing médical pour les industriels du secteur. À titre d’exemple, connaître la consommation de médicaments par zone de chalandise permet d’organiser les tournées des visiteurs médicaux pour cibler les médecins non-prescripteurs ; ou, à l’instar de n’importe quel secteur commercial, connaître les profils des internautes permet de pousser de la publicité en ligne, toujours plus personnalisée. Les industries de santé consacrent de plus en plus de budget à leur marketing digital, en direction des prescripteurs ou des patients eux-mêmes", observe ainsi Valérie Peugeot, commissaire à la CNIL, en charge du secteur santé.

    En outre, l’anonymisation des données n’est qu’une illusion, d’autant plus que le risque de piratage plane fortement, rappelle cette dernière : "Il se passe rarement plus de quelques jours sans qu’on ne découvre une faille de sécurité sur des logiciels clés ou, plus grave, qu’une fuite de données ne soit révélée. En janvier 2018, ce sont les données de 53 000 patients américains, comprenant entre autres des informations cliniques et des données sur les médicaments prescrits, qui sont parties dans la nature. Mais surtout, plus le nombre de bases de données accessibles est important, plus les croisements entre bases sont possibles, et plus les risques de « réidentification » de données pourtant anonymisées sont grands".

    Ainsi, explique Valérie Peugeot, "il ne suffit pas de décorréler l’information médicale (la pathologie, la prescription...) du nom du patient. Il faut pouvoir s’assurer que d’autres informations associées ne permettront pas de remonter jusqu’à lui. Par exemple, si le patient souffre d’une pathologie lourde et qu’on dispose du nom de la petite commune où il demeure, il est extrêmement simple de l’identifier." Et de citer en exemple la mésaventure du gouvernement australien, qui a mis en 2016 les données de remboursements de dépenses médicales anonymisées de 2,9 millions de personnes en "open data" : la publication scientifique en ligne ScienceX a rapidement démontré que le processus pouvait être inversé, et s’est amusée à réidentifier 7 célébrités australiennes, "dont 3 députés et 1 footballeur".

    La monétisation de nos données de santé serait, redoutent certains, un premier pas vers une marchandisation de soi délétère. “Toute la régulation Informatique et Libertés est opposée à cette approche. Si nous étions dans quelque chose de patrimonial, on pourrait imaginer qu’une fois que vous avez vendu vos données à un service, il pourrait très bien les revendre ensuite à qui il veut sans vous demander votre consentement”, m’expliquait récemment Olivier Desbiey, membre du Laboratoire d’Innovation Numérique (LINC) de l’institution. “En donnant aux données personnelles un caractère patrimonial, on en ferait de simples marchandises, et au-delà, on ferait de l’être humain une marchandise”, concluait-il.

    Plutôt que de revendre nos données, l’idée portée par des penseurs comme Michel Bauwens ou Evgeny Morozov, serait de rendre nos données personnelles “open source”, d’en faire des biens communs, considérées comme une ressource collective - afin de nous redonner à tous la main sur elles. Mais là encore, l’exemple australien cité plus haut par Valérie Peugeot semble rendre cette idée un peu utopique. D’où le retour, peut être, aux fondamentaux : les lois, les réglementations, et le débat, à mêmes de verrouiller et de protéger nos données, y compris de nous-mêmes.

    #Santé_publique #Données_médicales #Données_personnelles #Marchandisation

  • Google collecte les données médicales de millions d’Américains sans qu’ils le sachent
    https://www.lefigaro.fr/secteur/high-tech/google-collecte-les-donnees-medicales-de-millions-d-americains-sans-qu-ils-

    En toute légalité, [...]

    Google Collecting Medical Data on Millions Without Informing Patients or Doctors | naked capitalism
    https://www.nakedcapitalism.com/2019/11/google-collecting-medical-data-on-millions-without-informing-patien

    One Wall Street Journal reader asserted that Google and Ascension are violating HIPAA:

    John Travelstead

    This is a direct violation of HIPAA laws. Google has no legal right to obtain personal health information.

    The Federal government requires Business Associates Agreements for information sharing of personal health information and data between a vendor and covered entity to occur. GOOGLE QUALIFIES FOR NEITHER AND SHOULD BE REPORTED TO FEDERAL AUTHORITIES AT U.S. DEPARTMENT OF HEALTH AND HUMAN SERVICES. PERIOD.

    The wee problem is that even if Mr. Travelstead is correct, HIPAA enforcement appears to be non-existant. The Wall Street Journal reported in 2007 that in a bit over three years, Department of Health and Human Services Office for Civil Rights had received over 23,000 complaints of privacy abuses, yet had taken no action. The only enforcement example listed in Wikipedia is an $885,000 settlement by UCLA over investigation findings that unauthorized employees repeatedly read protected electronic patient health care records.

    However, Journal readers (at least as far as I read, and I got pretty far into the hundreds of comments) were without exception very upset about the prospect of Google having access to their medical data. Given that Big Tech is in the crosshairs of more than a few Congresscritters, one can hope that Google and Ascension officials will soon have to ‘splain themselves.

  • Microsoft is closing its HealthVault patient-records service on November 20 | ZDNet
    https://www.zdnet.com/article/microsoft-is-closing-its-healthvault-patient-records-service-on-november-20

    Microsoft is dropping its HealthVault patient records-management service, the company notified customers via email today, April 5. The service will be shut down on November 20 and any data residing in the service will be deleted after that date.

    HealthVault was one of the last pieces left of Microsoft’s original foray into first-part health services products. Recently, Microsoft officials said they were ending support for the Microsoft Health Dashboard applications and services as of May 31. Early last year, Microsoft dropped its HealthVault Insights application.

    HealthVault is a service for storing individuals’ health and medical records and information so they can be shared with health professionals. Microsoft launched a beta of HealthVault in 2007 and went live with the service in 2009. Microsoft was still updating its HealthVault documentation on the docs.microsoft.com site as of December 2018.

    Microsoft is not giving up on the healthcare market. In February this year, Microsoft Healthcare announced it was making generally available its Healthcare Bot Service; adding more healthcare-specific features to Teams; and adding new health-record integration capabilities to Azure and Teams. But like it has been doing on many fronts lately, it seems to be getting out of the consumer-facing part of the business.

    Microsoft made its initial foray into healthcare over a decade ago, but ended up retrenching and selling off most of the health assets it originally acquired. A couple of years ago, Microsoft announced it was creating a new healthcare-focused research unit, Healthcare NExT. Healthcare is one of Microsoft’s highest priority verticals, as it’s a growing and pervasive market.

    #Microsoft #HealthVault #Santé #Données_médicales

  • What you don’t know about your health data will make you sick
    https://www.fastcompany.com/90317471/what-you-dont-know-about-your-health-data-privacy-will-make-you-sick

    Chances are, at least one of you is being monitored by a third party like data analytics giant Optum, which is owned by UnitedHealth Group, Inc. Since 1993, it’s captured medical data—lab results, diagnoses, prescriptions, and more—from 150 million Americans. That’s almost half of the U.S. population.

    “They’re the ones that are tapping the data. They’re in there. I can’t remove them from my own health insurance contracts. So I’m stuck. It’s just part of the system,” says Joel Winston, an attorney who specializes in privacy and data protection law.

    Healthcare providers can legally sell their data to a now-dizzyingly vast spread of companies, who can use it to make decisions, from designing new drugs to pricing your insurance rates to developing highly targeted advertising.

    Yet not all health-related information is protected by privacy rules. Companies can now derive insights about your health from growing piles of so-called “alternative” data that fall outside of HIPAA. This data—what some researchers refer to as your “shadow health record”—can include credit scores, court documents, smartphone locations, sub-prime auto loans, search histories, app activity, and social media posts.

    Your health data can be deployed in alarming ways, privacy experts say. Insurance companies can raise your rate based on a photo on your Instagram feed. Digital advertisers can fold shadow health data into ads that target or discriminate against you. It can even seem invasive and predatory. One trend among personal injury lawyers, for example, is geo-targeted ads to patients’ phones in emergency rooms.

    Uniquely valuable health data is also increasingly the target of hackers, ransomware attacks, breaches, or what some patients call just plain shadiness, which has led to litigation and can ultimately further undermine trust in the healthcare system. A 2017 breach at a New York hospital leaked sensitive information about more than 7,000 patients, including addiction histories, medical diagnoses, and reports of sexual assault and domestic violence. Criminals can use that kind of data to commit identity and insurance fraud.

    “There’s a great deal of trust that’s placed in our interactions with doctors and healthcare institutions,” says Mary Madden, research lead at Data & Society, who studies consumer and health privacy. “The current process of seeking consent for data collection and use in many health settings is often treated as an administrative afterthought, rather than a meaningful exchange that makes patients feel empowered and informed.”

    Your health-related data are compiled into a specialty report akin to the consumer credit reports made famous—or infamous—by Experian, Equifax, and TransUnion. Insurers claim these reports are crucial to evaluating and pricing risk, and they can use this data to raise your rate, or to deny your application entirely. If your application is rejected—it’s called an “adverse event”—you are legally entitled to receive a copy of your specialty report and to potentially dispute an error.

    “Many people don’t understand that the data from a Fitbit or other health wearable or health device can actually be sold and is, in fact, today being sold. It is being sold for behavioral analytics, for advertising targeting. People don’t understand that is happening,” she told the committee. (After this story was published, a Fitbit spokesperson sent Fast Company a statement saying that the company does not “sell customer personal data, and we do not share customer personal information except in the limited circumstances described in our privacy policy.”)

    The demand for all this data is rising, as it has for years. The health data market was approximately $14.25 billion in 2017, according to BIS Research. The firm predicts that in just under seven years—by the end of 2025—the market will grow nearly five times bigger, to $68.75 billion.

    #Données_médicales #Etats_unis #Assurances

  • L’Assemblée vote la création d’un « #espace_numérique_de_santé » pour chaque usager
    https://www.latribune.fr/technos-medias/internet/l-assemblee-vote-la-creation-d-un-espace-numerique-de-sante-pour-chaque-us

    L’Assemblée nationale a voté vendredi soir la création d’un « espace numérique de santé », un compte personnel en ligne pour accéder notamment au dossier médical partagé (sorte de carnet de santé numérique), à des « applications » ou « informations de santé ».

    L’Assemblée nationale a voté vendredi soir la création d’un « espace numérique de santé », un compte personnel en ligne pour accéder notamment au dossier médical partagé (sorte de carnet de santé numérique), à des « applications » ou « informations de santé ».

    Conformément à l’article adopté dans le cadre de l’examen en première lecture du projet de loi santé, tous les patients pourront ouvrir leur propre « espace numérique de santé » au plus tard le 1er janvier 2022. Pour les personnes nées à compter de cette date, les députés ont prévu via un amendement MoDem que l’espace numérique sera automatiquement ouvert, sauf en cas d’opposition.

    Gratuit et personnalisable, l’espace numérique va « permettre de réunir sur la même plateforme tous les services existants », dont le #dossier_médical_partagé (DMP) qui en sera « la pierre angulaire », a expliqué le rapporteur Thomas Mesnier (LREM).

    Le DMP, confié en 2016 à l’Assurance maladie et dont la généralisation a été lancée en novembre, peut contenir des comptes-rendus hospitaliers, résultats d’analyses, ou encore les médicaments prescrits. Mi-février, 4,1 million de DMP avaient été ouverts, selon des données du rapporteur, et la Caisse nationale d’assurance maladie (Cnam) en prévoit 10 millions d’ici fin 2019, 40 millions d’ici 2022.

    Outre le DMP, l’espace numérique permettra aussi à l’usager de fournir des renseignements sur la personne de confiance, des données relatives au don d’organe, voire des constantes de santé produites par des applications (rythme cardiaque, activité physique...). Il permettra aussi d’accéder aux données relatives au remboursement de ses dépenses de santé, grâce à l’intégration du service Améli.fr.

    L’objectif « c’est vraiment de remettre l’usager au coeur du dispositif, de le rendre acteur », a affirmé la ministre de la Santé Agnès Buzyn, pour qui cela doit notamment « améliorer le parcours de soins ».

    Affirmant que la France est « en retard » en la matière, elle a jugé la mesure « nécessaire » au risque de voir arriver "des flopées de propositions d’espaces numériques" moins sécurisés.

    La mesure a globalement fait consensus, malgré des inquiétudes formulées à gauche sur la confidentialité des données. Un amendement des députés communistes a précisé que les données de l’espace numérique ne pourront être exigées lors de la conclusion d’un contrat de complémentaire santé. Un amendement LREM entend aussi permettre aux professionnels de santé au travail d’accéder au DMP pour y déposer des documents. Le coût de la mise en oeuvre de l’espace numérique de santé est estimé à 50 millions d’euros pour la période 2019-2022.

    • Vu le forcing déjà mis en place à la #sécurité_sociale #pour_ton_bien. Tu attends debout plus d’une heure devant d’immenses panneaux qui te vantent la rapidité du DMP en 2 minutes. Devant moi, une jeune femme venue pour toute autre chose s’est fait forcer la main pour s’y faire inscrire, on se croirait au supermarché.

      Le DMP est un gouffre depuis des années mais nourrit plus que grassement les industries françaises du business médical, le dernier rempart saute ici sans que ça ne fasse sourciller. Ça se bat au portillon depuis longtemps pour le numérique médical de nos données qui sont censées (des fois qu’on l’ait oublié) être confidentielles.

      Un vrai cadeau aux banques et aux assureurs.

      #scandale_numérique #données_médicales #big_pharma #lobbying

  • Amazon, AI and Medical Records: Do the Benefits Outweigh the Risks? - Knowledge Wharton
    http://knowledge.wharton.upenn.edu/article/amazon-medical-records

    Last month, Amazon unveiled a service based on AI and machine-learning technology that could comb through patient medical records and extract valuable insights. It was seen as a game changer that could alleviate the administrative burden of doctors, introduce new treatments, empower patients and potentially lower health care costs. But it also carries risks to patient data privacy that calls for appropriate regulation, according to Wharton and other experts.

    Branded Comprehend Medical, the Amazon Web Services offering aims “to understand and analyze the information that is often trapped in free-form, unstructured medical text, such as hospital admission notes or patient medical histories.” Essentially, it is a natural language processing service that pores through medical text for insights into disease conditions, medications and treatment outcomes from patient notes and other electronic health records.

    The new service is Amazon’s latest foray into the health care sector. In June, the company paid $1 billion to buy online pharmacy PillPack, a Boston-based startup that specializes in packing monthly supplies of medicines to chronically ill patients. In January, Amazon teamed up with Berkshire Hathaway and JPMorgan Chase to form a health care alliance that aims to lower costs and improve the quality of medical care for their employees.

    “Health care, like everything else, is becoming more of an information-based industry, and data is the gold standard — and Amazon knows as well as anyone how to handle and analyze data,” said Robert Field, Wharton lecturer in health care management who is also professor of health management and policy at Drexel University. “It’s a $3.5 trillion industry and 18% of our economy, so who wouldn’t want a piece of that?”

    AI offers “enormous” promise when it comes to bringing in new and improved treatments for patient conditions, such as in the area of radiology, added Hempstead. Machine learning also potentially enables the continual improvement of treatment models, such as identifying people who could participate in clinical trials. Moreover, Amazon’s service could “empower a consumer to be more in charge of their own health and maybe be more active consumer of medical services that might be beneficial to their health,” she said.

    On the flip side, it also could enable insurers to refuse to enroll patients that they might see as too risky, Hempstead said. Insurers are already accessing medical data and using technology in pricing their products for specific markets, and the Amazon service might make it easier for them to have access to such data, she noted.

    #Santé_publique #Données_médicales #Amazon #Intelligence_artificielle

    • Ce n’est cependant pas le seul sujet de controverse puisque, dans le programme de cette journée, deux conférences portaient des intitulés extrêmement douteux : “Ces prétendues violences obstétricales : les enjeux juridiques” et “Comment se prémunir des plaintes pour attouchements sexuels”.

      http://m.cheekmagazine.fr/wtf/cngof-femmes-juments-polemique

      https://twitter.com/osezlefeminisme/status/1070989604805857282/photo/1

      Il semble que les conférences aient été renommées mais pas annulées. La seconde « comment se prémunir des plaintes pour attouchements sexuels » est une conférence de Nisan lui même. Le fait qu’il parle d’attouchements est deja Le signe d’un déni. Attouchement n’est pas un terme juridique on ne peu pas porter plainte pour attouchement mais pour agression sexuel.

      #violence_médicale #animalisation #deshumanisation #humour #culture_du_viol #sexisme #misogynie

    • Je reste stupéfaite que cette grosse merde de #Nisand ait été gardé à son poste par ses pairs, qu’ils et elles ne se rendent toujours pas compte que ce personnage les dessert me glace.
      Par leur silence, ils et elles contribuent à l’œuvre de destruction des femmes soutenue par cette ordure, c’est juste inconcevable.
      #réification #défécation_de_nisan
      Je note également ici pour que d’autres femmes qui feraient des recherches sur #Yves_Aubard_gynécologue_au_CHU_de_Limoges sachent à quoi s’en tenir.

      #CNGOF

    • Ce que je veux dire, c’est que ce malfaisant est toujours président du CNGOF, d’ailleurs c’est avec ce titre qu’il présente les excuses du « Collège National des Gynécologues et Obstétriciens Français » concernant cette affaire qu’il nomme « une diapositive … sortie de son contexte »

      07 décembre 2018
      A propos d’une citation moyenâgeuse inappropriée
      Intervention officielle du Président du CNGOF du 7 décembre 2018

      Chers Amis et Collègues,
      Lors de la présentation de la Recommandation pour la pratique clinique Protection périnéale hier après-midi dans cette salle, une diapositive citant un texte ancien de 999 a choqué de nombreuses personnes. Sortie de son contexte, elle peut faire croire que celui qui l’a présentée en valide le sens, ce qui n’est pas le cas.

      Quoi qu’il en soit, je souhaite très officiellement dire au nom du CNGOF que toute notre profession est arc-boutée sur la défense des femmes, de leur santé et de leur dignité. Je prie donc tous ceux qui ont pu être choqués par l’affichage inapproprié de cette phrase moyenâgeuse d’accepter les excuses du CNGOF qui, bien sûr, regrette cet acte déplacé.

      Nous sommes navrés, nous qui sommes réunis pour améliorer nos pratiques professionnelles, de ce qui -à tout le moins- est considéré par nous comme une atteinte à l’image des femmes.

      Professeur Israël Nisand

    • Quelques informations supplémentaires sur ce médecin qui signe la diapositive et se fout complètement du #droit_des_patientes à leurs #données_médicales #données_sensibles et #données_personnelles puisqu’il s’est créé un fichage perso et une base de données complète des femmes soignées dans son service. Base à laquelle il se vante d’avoir donné accès à plus de 372 utilisateurs.
      #la_cnil_mais_pour_quoi_faire ?

      « Chaque intervenant doit pouvoir entrer dans la base ce qu’il a fait. Ça commence par le médecin en passant par la secrétaire, la sage-femme, l’infirmière, l’aide soignante, bref tout le service. Pour vous donner une idée, j’ai à ce jour donné 372 codes d’accès, il y a donc 372 utilisateurs de ma base de données », explique le Pr Aubard. Il ajoute : « Au fil des années, j’ai tout développé, …

      https://www.filemaker.com/fr/solutions/customers/stories/aubard.html

      « En ce qui concerne la structure de la base FileMaker, on trouve le noyau de la base qui est le dossier administratif de la patiente et dans lequel on retrouve ses coordonnées, ses informations d’état civil et familiales, ainsi que ses antécédents médicaux et chirurgicaux », explique le professeur Aubard.

      … alternatives au fichage ? nein.

      Aujourd’hui, grâce à FileMaker, l’intégralité du dossier médical d’une patiente est informatisé, il n’y a plus du tout de papier dans le service. La base de données est conséquente puisqu’elle compte environ 35 000 patientes.

      #bétail #technobéat #médecine

    • Hallucinant, je croyait que le croisement des infos était interdit et que le dossier médical était confidentiel.
      Donc ce mec file l’adresse et les données perso de 35000 femmes à « tout le service ».

  • The smartphone app that can tell you’re depressed before you know it yourself - MIT Technology Review
    https://www.technologyreview.com/s/612266/the-smartphone-app-that-can-tell-youre-depressed-before-you-know-i

    A startup founded in Palo Alto, California, by a trio of doctors, including the former director of the US National Institute of Mental Health, is trying to prove that our obsession with the technology in our pockets can help treat some of today’s most intractable medical problems: depression, schizophrenia, bipolar disorder, post-traumatic stress disorder, and substance abuse.

    Mindstrong Health is using a smartphone app to collect measures of people’s cognition and emotional health as indicated by how they use their phones. Once a patient installs Mindstrong’s app, it monitors things like the way the person types, taps, and scrolls while using other apps. This data is encrypted and analyzed remotely using machine learning, and the results are shared with the patient and the patient’s medical provider.

    The seemingly mundane minutiae of how you interact with your phone offers surprisingly important clues to your mental health, according to Mindstrong’s research—revealing, for example, a relapse of depression.

    The seemingly mundane minutiae of how you interact with your phone offers surprisingly important clues to your mental health, according to Mindstrong’s research—revealing, for example, a relapse of depression.❞

    For now, Insel says, the company is working mainly with seriously ill people who are at risk of relapse for problems like depression, schizophrenia, and substance abuse. “This is meant for the most severely disabled people, who are really needing some innovation,” he says. “There are people who are high utilizers of health care and they’re not getting the benefits, so we’ve got to figure out some way to get them something that works better.” Actually predicting that a patient is headed toward a downward spiral is a harder task, but Dagum believes that having more people using the app over time will help cement patterns in the data.

    There are thorny issues to consider, of course. Privacy, for one: while Mindstrong says it protects users’ data, collecting such data at all could be a scary prospect for many of the people it aims to help. Companies may be interested in, say, including it as part of an employee wellness plan, but most of us wouldn’t want our employers anywhere near our mental health data, no matter how well protected it may be.

    #Données_médicales #Maladie_mentale #Surveillance #Algorithmes_prédictifs #Hubris_scientifique

  • Fairness in Precision Medicine | Data & Society
    https://datasociety.net/output/fairness-in-precision-medicine

    Fairness in Precision Medicine is the first report to deeply examine the potential for biased and discriminatory outcomes in the emerging field of “precision medicine,” or “the effort to collect, integrate, and analyze multiple sources of data in order to develop individualized insights about health and disease.” Supported by the Robert Wood Johnson Foundation, the report is the first in a new series of research projects at Data & Society focused on the future of health data.

    The authors–Data & Society Postdoctoral Scholar Dr. Kadija Ferryman and Data & Society Researcher Mikaela Pitcan–present insights on emergent tensions in the field arising from extensive qualitative interviews with biomedical researchers, bioethicists, technologists, and patient advocates.

    Among the report’s key findings is a potential for bias and discrimination both in datasets (through a lack of cohort diversity; technical processes of data collection and cleaning; or the specific incorporation of electronic health record data) and in outcomes (through too much focus on individual responsibility for health; or the marginalization of population groups with lower health literacy or in less resourced areas).

    Fairness in Precision Medicine clears a path for possible technical, organizational, and policy-oriented remedies. Among the report’s recommendations is that precision medicine researchers “recruit diverse participant pools in order to address the historical lack of representation in medical research” and “involve participants and patients as active participants in medical research.”

    Ferryman and Pitcan also suggest that practitioners in both biomedical research and clinical practice settings incorporate a practice of diversity by considering additional factors, such as geographic and socioeconomic diversity and continental ancestry, when collecting health data. Additionally, the authors emphasize that while data security is important, “keeping data private and secure will not assure that these data will not be misused.”

    #Médecine #Ethique_médicale #Données_médicales

  • Facebook Building 8 explored data sharing agreement with hospitals
    https://www.cnbc.com/2018/04/05/facebook-building-8-explored-data-sharing-agreement-with-hospitals.html

    CB FULL Christina Farr 180405
    Facebook health partnership on hold on concerns of data privacy
    15 Hours Ago | 05:37

    Facebook has asked several major U.S. hospitals to share anonymized data about their patients, such as illnesses and prescription info, for a proposed research project. Facebook was intending to match it up with user data it had collected, and help the hospitals figure out which patients might need special care or treatment.

    The proposal never went past the planning phases and has been put on pause after the Cambridge Analytica data leak scandal raised public concerns over how Facebook and others collect and use detailed information about Facebook users.

    But as recently as last month, the company was talking to several health organizations, including Stanford Medical School and American College of Cardiology, about signing the data-sharing agreement.

    While the data shared would obscure personally identifiable information, such as the patient’s name, Facebook proposed using a common computer science technique called “hashing” to match individuals who existed in both sets. Facebook says the data would have been used only for research conducted by the medical community.

    The project could have raised new concerns about the massive amount of data Facebook collects about its users, and how this data can be used in ways users never expected.

    Facebook provided a quote from Cathleen Gates, the interim CEO of the American College of Cardiology, explaining the possible benefits of the plan:

    “For the first time in history, people are sharing information about themselves online in ways that may help determine how to improve their health. As part of its mission to transform cardiovascular care and improve heart health, the American College of Cardiology has been engaged in discussions with Facebook around the use of anonymized Facebook data, coupled with anonymized ACC data, to further scientific research on the ways social media can aid in the prevention and treatment of heart disease—the #1 cause of death in the world. This partnership is in the very early phases as we work on both sides to ensure privacy, transparency and scientific rigor. No data has been shared between any parties.”

    Health systems are notoriously careful about sharing patient health information, in part because of state and federal patient privacy laws that are designed to ensure that people’s sensitive medical information doesn’t end up in the wrong hands.

    To address these privacy laws and concerns, Facebook proposed to obscure personally identifiable information, such as names, in the data being shared by both sides.

    When asked about the plans, Facebook provided the following statement:

    “The medical industry has long understood that there are general health benefits to having a close-knit circle of family and friends. But deeper research into this link is needed to help medical professionals develop specific treatment and intervention plans that take social connection into account.”

    “With this in mind, last year Facebook began discussions with leading medical institutions, including the American College of Cardiology and the Stanford University School of Medicine, to explore whether scientific research using anonymized Facebook data could help the medical community advance our understanding in this area. This work has not progressed past the planning phase, and we have not received, shared, or analyzed anyone’s data.”

    “Last month we decided that we should pause these discussions so we can focus on other important work, including doing a better job of protecting people’s data and being clearer with them about how that data is used in our products and services.”

    Facebook has taken only tentative steps into the health sector thus far, such as its campaign to promote organ donation through the social network. It also has a growing “Facebook health” team based in New York that is pitching pharmaceutical companies to invest its ample ad budget into Facebook by targeting users who “liked” a health advocacy page, or fits a certain demographic profile.

    #Facebook #Santé_publique #Données_médicales #Data_madness

  • Les #données_médicales sur l’Internet sont devenues poreuses.

    Dans une clinique de Troyes, 375 dossiers indexés sur Google
    http://www.lemonde.fr/sante/article/2013/03/19/dans-une-clinique-de-troyes-375-dossiers-indexes-sur-google_1850367_1651302.

    Que s’est-il passé donc à la clinique de Champagne, à Troyes : un acte de malveillance ou une négligence ? Deux versions s’affrontent. Mais 375 dossiers de patients se sont retrouvés sur Google. A l’intérieur, des comptes rendus opératoires, des résultats de biopsie et autres informations confidentielles.

    #paywall

    Une mère de famille découvre son dossier médical sur Internet - France 3 Provence-Alpes
    http://provence-alpes.france3.fr/2013/03/01/une-mere-de-famille-decouvre-son-dossier-medical-sur-internet

    Je pouvais modifier ou supprimer des dossiers. Qui me dit que ces informations n’ont pas été communiquées à mon banquier ou à mon assureur ?

    #serment_d_hypocrites