• Effect of hydroxychloroquine with or without azithromycin on the mortality of COVID-19 patients: a systematic review and meta-analysis - Clinical Microbiology and Infection
    https://www.clinicalmicrobiologyandinfection.com/article/S1198-743X(20)30505-X/abstract

    Hydroxychloroquine alone was not associated with reduced mortality in hospitalized COVID-19 patients but the combination of hydroxychloroquine and azithromycin significantly increased mortality.

    • Je suppose que ce serait malvenu de faire remarquer que c’était la fameuse étude rétractée du Lancet (source du « Lancetgate ») qui avait suggéré que non seulement le protocole Raoult n’avait pas d’effet positif, mais qu’il augmentait la mortalité (+45% alors, contre +27% ici). Et qu’à cause du refus de l’entreprise détenant les données de laisser libre accès pour vérification, l’étude avait été annihilée et plus personne n’avait osé aller dans ce sens depuis.

    • Il est très probable que ladite étude ne racontait pas totalement n’importe quoi, mais à partir du moment pù le seul auteur qui savait d’où sortaient les données a choisi de ne rien dire sur leur origine ni de fournir le moindre détail, les co-auteurs ne pouvaient que se rétracter et le truc en question était absorbé dans un trou noir et rien ne peut en être utilisé, cité ou avoir ne serait-ce qu’un début d’existence dans le débat.

      Note que la très grande majorité des études (méta-)analysées sont des études observationnelles et pas des études randomisées contrôlées. Ce qui était également le cas des données de Surgisphere.

    • Oui, pour l’étude de Lancet, c’est aussi ce que j’ai compris. Pas de fraude ni erreurs mathématiques rapportées, mais fermeture totale des sources qui interdit donc toute vérification et donc invalide la publication (les études pro-HCQ sont elles généralement critiquées directement sur l’amateurisme et la fraude).

      De ce que je comprends, il y a des essais randomisés contrôlés ici, et le travail statistique de la présente méta-étude a consisté à pondérer selon la crédibilité des différentes sources.

      C’est explicité pour HCQ seul ici (au effet dans un sens ou dans l’autre) :

      Résultats, en ne considérant que les essais randomisés contrôlés, les chercheurs trouvent un risque de décès supérieur de 9% pour les patients recevant de la chloroquine ou de l’hydroxychloroquine, par rapport aux soins standards. A l’inverse, en prenant en compte les études observationnelles, le risque est cette fois inférieur de 17%. Mais après intégration et pondération de tous les résultats, la méta-analyse pointe au final vers une absence d’effet significatif de l’hydroxychloroquine sur la mortalité.

      Ce n’est pas précisé dans l’article référencé ici pour HCQ+AZI (surmortalité importante).

      Et dans la copie d’écran de Kassem ci-dessus, si je comprends bien, ça indique comment sont pondérées les études RCT et non-randomised.

    • La figure ci-dessus fait la synthèse pour les 17 études portant sur HCQ (14 non randomisées, 3 randomisées). Les pondérations sont déterminées à partir de la « précision » des résultats des études : plus l’intervalle de confiance est grand, plus le poids attribué est faible.

      Ci-dessous, la même figure pour les 7 études HCQ + AZT (dont 6 non randomisées, 1 randomisée) :


      Figure 3 : Forest plot of the association between hydroxychloroquine with azithromycin and COVID-19 mortality.

      (note que l’échelle des rapports de risque de cette figure (de 1 à 5) n’est pas la même que sur la première figure (de 1 à 10))

    • C’est loin d’être ma spécialité, les stats. Est-ce que je dois comprendre que, sur HCQ+AZT, ce sont les études observationnelles qui l’emportent et provoquent l’estimation de la surmortalité importante ? Là où la seule étude RCT donnerait plutôt un résultat inverse (bien que très incertain).

      Est-ce que je dois aussi considérer que le résultat le plus spectaculaire de l’étude (HCQ+AZT = grosse surmortalité) est aussi le moins solide ?

      Sinon, que signifie le « Prediction interval » final (0,79 à 2,05) ? Est-ce que ça aussi c’est pondéré (vers le centre), ou bien est-ce que ça signifie que le résultat pourrait tout aussi bien être une amélioration de 20% ou une multiplication par deux des décès ?

    • Je découvre les méthodes et outils de méta-analyse…

      L’outil logiciel utilisé est le package meta de R. Une présentation rapide ici (pdf) http://cybertim.timone.univ-mrs.fr/infos-divers/atelierR/metanalyseSousR

      Pour le Prediction interval, voici l’explication relativement claire qu’on peut trouver pour leur signification et interprétation :

      Chapter 10 : Analysing data and undertaking meta-analyses | Cochrane Training
      https://training.cochrane.org/handbook/current/chapter-10

      The term ‘prediction interval’ relates to the use of this interval to predict the possible underlying effect in a new study that is similar to the studies in the meta-analysis. A more useful interpretation of the interval is as a summary of the spread of underlying effects in the studies included in the random-effects meta-analysis.

      Prediction intervals have proved a popular way of expressing the amount of heterogeneity in a meta-analysis (Riley et al 2011). They are, however, strongly based on the assumption of a normal distribution for the effects across studies, and can be very problematic when the number of studies is small, in which case they can appear spuriously wide or spuriously narrow. Nevertheless, we encourage their use when the number of studies is reasonable (e.g. more than ten) and there is no clear funnel plot asymmetry.

      … et c’est compatible avec l’interprétation que tu en fais. Bravo !

      Visuellement, le truc à retenir, c’est que sur la première figure (HCQ seule) le graphique est plus ou moins symétrique par rapport à l’axe plein vertical -> pas d’effet, alors que dans la deuxième (HCQ + AZT), il y a une asymétrie très nette (un peu atténuée par la seule étude aléatoire qui va dans l’autre sens mais avec une très forte incertitude (échantillon de 504 malades dont 172 sous HCQ + AZT dont 1 décédé…)

    • en fait, le problème des méta-analyses ce sont les données ! j’avais servi de petite main pour une étude justement, et en gros, tu ouvres le pdf de l’article, et tu notes les infos avec les moyens du bord, genre le nombre d’observation, les contraintes, la valeur de la statistique qui t’intéresse, etc. Le gros soucis est que les articles ne sont pas tous calibrés pareils, c’est dur de noter toutes les infos ! certains articles que tu vois passés sont pas clairs, mais tu les gardes quand même... C’est un peu comme l’expérience que j’ai pu avoir à faire passer des questionnaires dans la rue, pour voir que souvent, la collecte des données (même avec toute la bonne volonté du monde) peut être douteuse...