#fiabilité

  • Where did all the migrants go? Migration data during the pandemic

    The effects of the Covid-19 pandemic are visible across the whole of society, and migration is no exception. From late March 2020, restrictions on travel, the closure of visa centres, and economic turmoil have had huge impacts on the immigration system. Following a large decline in international travel after the first UK lockdown, passenger numbers remained well below recent averages throughout the year. Grants of visas in categories across the immigration system also dropped in 2020.

    One of the major questions facing migration researchers and policymakers currently is what this all means for migration patterns overall. How much lower is migration because of the pandemic? Who is still coming to the UK and who is not? Who is leaving? Is the migrant population declining?

    The main source of data used to measure immigration and emigration flows—the International Passenger Survey—has been suspended due to the pandemic. As a result, recent attempts to examine how the migrant population is changing have used population survey data, which does not give a direct measure migration flows but does give some insight into the migrant population and how it is changing.

    This commentary examines what we know from currently available data about how the total size of the migrant population has changed in 2020, and concludes:

    - Headline data from the Labour Force Survey (LFS) suggest that the number of migrants living in the UK fell in 2020. In Q3 2020, the estimated foreign-born population was 8.3 million, down from 9.2 million in the same quarter a year earlier. This is a decline of 894,000 or 10%. However, there is enormous uncertainty about these estimates and compelling reasons to believe that they are not accurate.
    - Estimates of the migrant population are based on pre-pandemic projections of the total UK population that are likely to be too high. During the pandemic, the UK population may have declined, but this is not factored in to estimates of the migrant population. All else equal, this would mean that the official figures underestimated the decline in the foreign-born population. But all else is not equal.
    – When the pandemic hit, ONS switched to a socially distanced method of recruiting people into statistical surveys, and this appears to have disproportionately affected migrants’ participation. If migrants are less likely to participate than non-migrants with the new method of data collection, this means their numbers will be underestimated.
    - When we look at data on people recruited into the survey before the pandemic but surveyed in mid-2020, there is still a considerable decline in the migrant share of the UK’s population (e.g. due to emigration), particularly in London. But it is smaller than the headline figures suggest.
    - All this creates significant uncertainty and means that we should be cautious when comparing data from 2019 and 2020. Some of the changes we see will be real but some will be due to new biases in the data caused by the pandemic.

    The demise of the data

    Covid-19 has seriously affected migration data. This means that many of the key questions that we are accustomed to being able to answer about the nature and scale of migration to the UK are now more uncertain.

    First, the International Passenger Survey, which the Office for National Statistics (ONS) previously used to examine immigration, emigration and net migration, was suspended in March 2020 because of the difficulty collecting data through face-to-face interactions at ports and airports during the pandemic. While this survey had many flaws (including a likely overestimate of non-EU net migration and an underestimate of EU net migration), its disappearance leaves us without an alternative set of data measuring overall UK migration flows. ONS had already planned to move away from the IPS when measuring migration, and is currently working on a replacement data source that will draw on administrative records (e.g. tax and benefits payments) instead, but this will not be ready until later this year at the earliest.

    Before the pandemic, National Insurance Number (NINo) registration data also used to provide some insight into migration patterns. (Again, there were many limitations, including the fact that people who are not working will not necessarily apply for a NINo, and that some migrants entering the country live here for much longer than others before applying.) However, this data source also became much less useful in 2020, because the issuance of NINos was disrupted by Covid and new registrations for EU citizens have been suspended.
    Population data from the Labour Force Survey

    In the meantime, we do still have another data source that is often used for examining the migrant population: the Labour Force Survey. This ONS survey continues to collect data from households around the UK about the composition of the current population. A variant of the dataset with some additional respondents (known as the Annual Population Survey [APS]) is used to produce regular estimates of the total migrant population of the UK, by country of birth and nationality. Historically, the LFS/APS has been one of the most important sources of data for research on migration, though it has limitations too.

    In theory, the data can be used to track rises or falls in the migrant population over time. It does not provide a direct measure of migration and excludes people in communal establishments, which are not included in the survey, and has also underrepresented newly arrived migrants. However, over the long run it should give some insight into the impact of migration on the migrant population. If, for example, Covid-19 caused a big decrease in immigration and an increase in emigration, we should expect to see changes in the migrant population living in the UK too.

    Headline LFS data for the first three quarters of 2020 do in fact show a big decline in the estimated migrant population in 2020. In Q3 2020, the estimated foreign-born population was 8.3 million, down from 9.2 million in the same quarter a year earlier. This is a decline of 894,000 or 10%.

    So have close to one million migrants really emigrated? Unfortunately, it is very difficult to say.

    This is because we know that the pandemic caused serious problems in the collection of data, and it is possible that these have particularly affected data on migrants.

    There are two main ingredients in the estimate of the migrant population, both of which are creating uncertainty:

    – The LFS/APS data: this is used to calculate the share of the population that is foreign born or UK born.
    – ONS projections for the size of the population: these are needed to translate information on characteristics of people in the LFS/APS into absolute numbers of people.

    Uncertainty about the size of the UK’s population

    The LFS only tells us the share of the population that has a particular characteristic, like being born abroad. It does not tell us how big the population is. Usually, assumptions about the total population are based on population projections, which are set out in advance and do not account for short-term shocks like a pandemic. The LFS methodology assumes that the total population of the UK increased by around 370,000 in the year ending Q3 2020. This is based on the annual population growth estimated by the ONS, which is accurate under normal circumstances. However, if the total population had changed – e.g. due to large-scale emigration or excess deaths – this would not be reflected in the figures. In other words, the LFS-based estimates are based on the (surely incorrect) assumption that the UK’s population continued to grow in 2020 in the same way it had done in previous years.

    A consequence of this is that when the estimated share of the UK population that was born abroad declined in 2020, this mechanically led to an estimated 1.25m increase in the estimated number of UK-born people living in the UK (Figure 2). In practice, this is not plausible. It cannot be explained by births and deaths (births are relatively constant over time and deaths went up in 2020). It is unlikely to be explained by overseas-resident Brits returning home: LFS data suggest that, at least in Q2 2020, the number of Brits who had been living overseas a year earlier was only 79,000 – similar to the figure in previous years.

    As Jonathan Portes and Michael O’Connor have pointed out in separate analysis, we can adjust the data so that the UK-born population is held at a plausible level and the total estimated UK population is adjusted downwards to account for likely emigration. Doing this means that the estimated decline in the migrant population is even larger than 894,000. Their calculations put the adjusted figure at just under 1.3m.

    However, there is something else going on in the data that changes the picture, and works in the opposite direction.
    Changes in data collection methods may disproportionately affect migrants

    As a result of the pandemic, ONS changed the way it contacts people to participate in the LFS. Both pre- and post-pandemic, respondents were sent letters telling them they had been selected into the sample. Where previously interviewers would knock on the door in person for a face-to-face first interview (there are five interviews in total), instead respondents had to get in touch to provide their phone number. If they did not, ONS could chase them up if they could obtain their phone number from other sources, but in many cases this is not possible.

    This change in recruitment method was followed by a big drop in response rates, particularly among people living in rented accommodation (rather than owner-occupied homes). This is a problem because it introduces new bias into the estimates (e.g. if renters are less likely to participate, we will underestimate the number of renters in the UK). To address this, ONS adjusted the weights that are used to analyse the data, so that the share of the population living in different accommodation types remained constant. As ONS has pointed out, this is a temporary and imperfect solution to the problem and does not address the risk of bias resulting from other groups of people who might have become less likely to respond to the survey, including migrants.

    It is possible that migrants were disproportionately affected by the change in the way survey respondents were recruited (the move to telephone contact) and therefore that some of what we saw in 2020 is an increase in migrants not participating in the survey, rather than just emigration.

    Existing research shows that survey response rates are often lower for migrants, and are affected by factors like language proficiency, trust and survey data collection methods. In the UK case, migrants may have been less likely to get in touch with ONS to participate in the survey, or less likely to have a landline allowing ONS to chase up non-responders.

    Without another data source to check the figures against, there is no hard and fast way to identify how much of the apparent decrease in the foreign-born population is due to emigration and how much is due to migrants not responding to the survey. However, there are some clues in the data that suggest that some of what we are seeing is a statistical rather than a real change.
    Some indications that the drop in the migrant population may be smaller than the headline figures suggest

    Survey participants remain in the LFS for five quarters, unless they move house, emigrate or decide to drop out. In the summer of 2020 (Q3), some of the LFS respondents were people who were recruited into the survey before the pandemic, under the old, face-to-face method; some were people who had been selected under the new, socially distanced method.

    Figure 3 shows the estimated share of the population from 2018 to 2020 based on different groups of respondents. The purple line shows only those who are in their third, fourth or fifth wave of the survey; the large majority of these people will not have been affected by the change in selection method in 2020, because they were recruited by the end of March 2020. The blue line shows the share estimated using only the first and second waves of the survey. By Q3 2020, all of this group would have been recruited using the new method.

    The figures are presented as percentages rather than absolute numbers, to avoid the problem that we do not have a reliable estimate for the UK population in 2020.

    Normally, the estimated migrant share of the population is quite similar regardless of whether we look at waves 1-2 or waves 3-5. (In recent years it has actually been slightly higher on average for waves 3-5, with UK-born respondents more likely to drop out of the survey between waves.) However, the two lines diverge substantially in 2020. In other words, the recent decline in the estimated foreign-born population share is larger among people recruited under the new method.

    When we look at all waves of data, the foreign-born share of the population falls by 1.4 percentage points from Q3 2019 to Q3 2020, from 13.9% to 12.5%. For respondents recruited under the new system, however, the estimated migrant share fell from 13.5% to 11.2% (2.3 percentage points). Among people recruited under the old method, the decline was smaller: 14.3% to 13.7% or 0.7 percentage points.

    The potential impact of migrant non-response outweighs the effect of uncertainty about the population discussed above. As a back-of-the envelope calculation, Table 1 shows what happens if we assume that the migrant share of the population only declined by the amount the waves 3-5 data suggests, i.e. that it was 14.3% in Q3 2019 and 13.7% in Q3 2020. It then multiplies these percentages by various different options for the total UK population size. The data suggest that even if the UK’s population had declined by 1 million, the total decline in the migrant population would be “only” around 580,000.

    These figures are not at all conclusive, and are not intended to be a ‘better’ estimate of the decline in the migrant population. Estimates from the LFS are often volatile, and data from a single quarter often change more than one would expect as a result of sampling variation alone. It is usually therefore not a good idea to draw strong conclusions from just a couple of quarters of data. People who participate in waves 3-5 of the LFS may also be different to the ones who only participate in the first 1-2 interviews. The figures are therefore simply designed to illustrate the uncertainty we currently face when comparing pre- and post-pandemic figures over time.

    However, with these caveats in mind we can reasonably draw three conclusions. First, a decline in the migrant population does appear to have taken place in 2020, at least from the data that is available to us at present. Second, migrant non-response has probably amplified the estimated decline in the migrant population, which could be considerably smaller than headline figures suggest. And third, a change in the data collection method means we should be cautious about comparing figures from before and after the change in recruitment method.
    How has the profile of migrant respondents changed?

    In theory, we should expect groups of migrants who are less ‘established’ in the UK to be more likely to leave – for example, people who have recently arrived and who do not have family here. However, these may be some of the same groups who could be more likely not to participate due to the new sampling method (e.g. recently arrived people with language difficulties), making it difficult to disentangle the two.

    When we look in more detail at the groups that have seen the largest declines in the estimated migrant population in the all-wave data, some changes seem plausible given our theoretical expectations about what might have happened during the pandemic, while others are less so.

    Decreases in the estimated migrant population are highest among those who arrived recently, as one might expect, whether the reason is emigration or non-response (Table 3). Recently arrived migrants may be more likely to leave the country, but they could also be more likely not to respond to surveys under the new recruitment method, for example if they are less confident speaking English.

    Similarly, we should expect young people to be more likely to leave the UK than older people, who are more likely to be settled with multiple attachments keeping them in the country. We do indeed see the largest decline in the estimated number of migrants appears among those in their 20s (Table 3), although there are also declines in older age groups too. (Some of these are relatively small and within the bounds of normal sampling variation in the LFS.)

    Surprisingly, however, most of the decline between Q3 2019 and Q3 2020 was driven by families that included dependent children (Table 4) (note that these dependent children may themselves be either UK or foreign born). It would be surprising to see large-scale emigration in this group given that it can be difficult for people with school-age children to move. In principle, we should on the contrary expect single people with fewer attachments to be the most likely to leave the UK.

    Therefore seems likely that people with dependent children have simply become less likely to respond to the survey. Indeed, among the UK-born there is also a decrease in the share of survey respondents with dependent children in the family (data not shown), suggesting higher non-response in these types of families across the board. Since people in families with dependent children make up over half of the decline in the estimated migrant population, this creates another reason to doubt the narrative that emigration alone is driving the change.

    What is happening in London?

    One of the most striking changes in the data is in the geographic distribution of the migrant population. Figure 4 shows the estimated change in the foreign-born share of the population from Q3 2019 to Q3 2020. The first panel uses all the LFS data, and the second panel uses only waves 3-5, i.e. those not affected by the change in data recruitment method.

    The largest decline in the estimated foreign-born share of the population is seen in London (Figure 4). This appears regardless of whether we restrict the analysis to waves 3-5. The all-wave data suggest that the foreign-born share of the population fell by 4.3 percentage points, from 36.0% in Q3 2019 to 31.7% in Q3 2020. (This translates into a decline of over 360,000 people using the [problematic] assumptions about the total population discussed above.) The wave 3-5 data suggest it fell by 3.6 percentage points, from 36.8% to 33.2%. Either way, these are significant changes.

    Which countries of origin are driving the change?

    The change in the migrant share of the population for the UK as a whole appears for both EU and non-EU born groups. The full LFS data show a 0.9 percentage point decline in the non-EU born population share and a 0.5 percentage point decline for EU citizens. The wave 3-5 figures show a 0.5 percentage point decline in the population share for non-EU born and 0.2 percentage point decline for EU. In London, however, both methods suggest that the decline in the migrant share is driven primarily by the non-EU born (Figure 5).

    How can the uncertainty be resolved?

    To understand what has really happened to the UK’s migrant population, we would ideally consult a different data source not affected by the problems discussed here.

    One option is the Census. This will be conducted on 21 March 2021 in most of the UK (the Scottish Census has been postponed to 2022 due to the pandemic). The data are due to become available starting from around 12 months after the Census date. This will not resolve questions about changes over the past year, since it is only conducted every 10 years, but it will at least provide a more accurate figure for most of the UK in 2021.

    Another option is administrative data, such as HMRC and DWP records or visa data. Over the course of 2021 and early 2022 the Home Office will start to publish data on grants of visas under the new immigration system. This now covers both EU and non-EU citizens (unlike in 2020 when EU citizens still had free movement rights) and will give good insight into new arrivals but not the numbers of people living in the country or the numbers leaving.

    The ONS is already in the process of moving towards using administrative data to produce broader migration estimates that will be more similar to previous immigration and emigration figures that were published for 2019 and previous years. However, it may be some time before new statistical publications are regularly available using the data.

    https://migrationobservatory.ox.ac.uk/resources/commentaries/where-did-all-the-migrants-go-migration-data-during-the-p
    #données #fiabilité #migrations #UK #Angleterre #chiffres #statistiques #pandémie #covid-19 #coronavirus #démographie #étrangers #population_étrangère #Londres

    ping @simplicissimus

  • Pourquoi le nombre de malades entre les données de Santé Publique France et celles des hôpitaux est si différent. Notre décryptage - Nice-Matin
    https://www.nicematin.com/sante/pourquoi-le-nombre-de-malades-entre-les-donnees-de-sante-publique-france-

    Mic mac autour des chiffres de la Covid-19 dans les Alpes-Maritimes... Alors que tous les regards sont braqués sur le nombre de lits disponibles pour accueillir des malades souffrant de formes graves de Covid, on découvre d’importantes divergences dans les chiffres.

    Il ne s’agit pas de minimiser l’ampleur de l’épidémie ni sa gravité, alors que le virus continue de circuler activement sur le territoire. Mais de faire état de la réalité de la situation, aussi objectivement possible. Or la situation dans les Alpes-Maritimes, selon qu’elle s’appuie sur les données de Santé publique France, ou sur celles fournies au quotidien par les acteurs de terrain, prend des visages différents.

    Nous avons fait cette découverte après avoir reçu des courriers de médecins hospitaliers s’étonnant des discordances entre les informations diffusées par Nice-Matin au sujet des hospitalisations pour Covid (issues de Santé publique France) et les observations de terrain.

    Or, le nombre d’hospitalisations pour Covid-19 fait partie des indicateurs suivis avec la plus grande attention. Il rend compte du niveau d’occupation des lits dédiés à l’accueil des malades souffrant de formes graves de la Covid-19.

    Chaque jour, des personnels du CHU de Nice, établissement support des Alpes-Maritimes, interrogent ainsi tous les établissements accueillant des malades de la Covid-19, et recensent le nombre de lits occupés pour ce motif.

    Des informations précieuses, relayées à tous les professionnels hospitaliers ainsi qu’à l’ARS, et qui participent en premier lieu aux choix politiques : couvre-feu, confinement…

    Rappelons en effet que toutes les mesures prises ont pour objectif d’éviter une saturation des lits d’hôpitaux.

    De grosses différences pendant des semaines cruciales
    Nous avons pu nous procurer ces tableaux et les courbes d’évolution depuis début octobre, lorsque l’épidémie est repartie à la hausse après la trêve estivale. Et nous avons comparé les données y figurant à celles publiées par Santé publique France, établissement sous la tutelle du ministère de la santé. Données relayées par Nice-Matin, et l’ensemble des médias.

    Et là, nous avons constaté des différences majeures concernant les lits occupés mais aussi l’évolution de la courbe des hospitalisations pendant plusieurs semaines cruciales.

    À titre d’exemple, le 3 janvier dernier, Santé publique France comptabilisait 564 personnes hospitalisées avec un diagnostic Covid-19 dans le département des Alpes-Maritimes (dont 69 en réanimation), quand dans la réalité « seulement » 233 patients au total (dont 55 en service de réanimation) étaient ce jour-là hospitalisés dans l’un ou l’autre des établissements (privés ou publics). Comment comprendre cette différence d’un facteur 2.5 entre ces deux sources ?

    Phénomène plus préoccupant, on observe de vraies divergences dans l’évolution des courbes, pendant des périodes déterminantes. Ainsi, alors que celles traduisant la progression des hospitalisations pour formes graves dans les Alpes-Maritimes, produites par les acteurs de terrain, font état d’une relative stabilité, voire d’une décroissance, à compter du 10 novembre et pendant plusieurs semaines, la courbe publiée par Santé publique France décrit une croissance constante de ces hospitalisations.

    Depuis la levée du confinement, et les instaurations successives du couvre-feu à 20 h puis 18 h, les deux courbes sont quasi parallèles, en progression.

    Des patients en soins de suite qui continuent d’être comptabilisés
    Répondre à ces questions posées par ces données nous a valu une plongée dans un univers totalement kafkaïen, à l’issue duquel nous ne pouvons émettre que des hypothèses, chaque acteur n’ayant pu nous fournir d’explications exhaustives.

    Le chiffre des hospitalisations provenant des hôpitaux eux-mêmes inclut les patients en soins critiques, en lits de médecine mais ne tient pas compte à juste titre de ceux qui ont eu le Covid par le passé, et qui sont toujours hospitalisés en soins de suite et réadaptation (SSR), pour une prise en charge des séquelles de leur maladie.

    Des patients qui ne sont plus contagieux pour la grande majorité d’entre eux.

    « Au bout de 14 jours, ces patients devraient être sortis des bases, nous indique un spécialiste en santé publique. Dans la réalité, il est fréquent qu’ils ne le soient pas tant qu’ils restent présents dans les unités de SSR. De façon plus générale, les malades de la Covid-19 qui quittent l’hôpital après un séjour en réanimation ou dans un autre service ne sont pas toujours sortis des bases. Comme Santé publique France fait des extractions de ces données, elles sont mathématiquement supérieures à la réalité. »

    Difference Covid
    Pas de distinguo avec les patients PCR+ hospitalisés pour d’autres motifs

    Lorsqu’un patient est hospitalisé pour un motif quelconque (insuffisance cardiaque, décompensation diabétique…), dans l’un ou l’autre des services des hôpitaux ou cliniques, et qu’il est testé positif pendant son séjour, il rejoint le « pool des personnes hospitalisées pour Covid » dans la base de données, même s’il ne présente aucun symptôme.

    Lorsque des patients arrivent dans les services d’urgences avec une suspicion de Covid, ils sont aussitôt rentrés dans la base SI-VIC. Si le diagnostic n’est pas confirmé, ils doivent ensuite être retirés de la base, ce qui n’est là encore pas systématiquement fait.

    Le système de recueil de données inclut les patients positifs résidents en EHPAD, dans des maisons d’accueil spécialisé (MAS) et foyers d’accueil médicalisé (FAM), même si leur état n’a pas justifié une hospitalisation dans l’un ou l’autre des secteurs dédiés.

    Plus on teste, plus on trouve de positifs
    Au-delà des différences dans le nombre total de patients hospitalisés pour Covid, comment expliquer les divergences dans les trajectoires des courbes entre le 10 novembre et le 15 décembre ? Intrigués, aucun des spécialistes contactés n’a su pour autant nous répondre.

    La réponse s’explique peut-être en partie par le nombre de tests réalisés. Les Alpes-Maritimes figurent parmi les départements qui testent le plus en France. Or, plus on teste, plus on trouve de positifs. Des personnes testées positives alors qu’elles sont hospitalisées ou qu’elles résident dans des établissements sanitaires et sociaux, Ehpad en priorité (qui ont fait face pendant cette période à de nombreux clusters), rejoignent la case des personnes « hospitalisées avec diagnostic Covid-19 » sur le site de Santé publique France.

    On s’aperçoit, en suivant la courbe issue des données des hôpitaux, que l’accroissement du nombre de positifs ne s’est pas traduit par une augmentation des hospitalisations dans des structures de soins, et n’a donc pas constitué une menace pour le système de santé.

    La problématique est certainement nationale
    Si à l’issue de cette enquête de nombreuses questions restent posées, il reste que cette bataille des chiffres a matière à inquiéter de l’avis même des acteurs en première ligne dans cette crise : « C’est un biais terrible, alors que toute la communication est en effet basée sur les chiffres de Santé Publique France. Et la problématique est certainement nationale, nous confie l’un d’entre eux sous couvert d’anonymat (chacun partage la même crainte d’être accusé de nourrir la théorie du complot).

    En pleine décroissance des hospitalisations, les journaux titraient : l’épidémie repart ! Et lorsque le couvre-feu à 18 heures a été instauré, on a aussi dit : ça explose à Nice ! La réalité, c’est que ça n’évoluait pas plus qu’ailleurs. »

    Développée dans des conditions d’urgence suite aux attentats de novembre 2015, la plateforme web SI-VIC (SI VICtimes) a permis aux agences sanitaires de disposer rapidement d’une base de données partagée et sécurisée adaptée aux événements générant de nombreux blessés (attentat, prise d’otage, accident sur la voie publique, etc.). Cette plateforme proposait ainsi un système de recensement des admissions aux urgences avec recherche de doublons et possibilités de transferts d’un service à un autre.

    Aujourd’hui, elle est utilisée par les établissements de santé dans le cadre de l’épidémie de COVID-19 pour permettre le dénombrement des patients COVID-19 hospitalisés.

    • Quel est le nombre d’hospitalisations pour Covid-19 dans la région PACA ? - Nice-Matin
      https://www.nicematin.com/faits-de-societe/quel-est-le-nombre-dhospitalisations-pour-covid-19-dans-la-region-paca-63

      LA QUESTION DE CELIA Quel est le nombre d’hospitalisations pour Covid dans la région PACA ?

      Bonjour Célia,

      On navigue parfois dans la quatrième dimension lorsqu’il s’agit d’obtenir le nombre exact de personnes hospitalisées en région PACA. Preuve en est le mic mac que nous avons souligné ce vendredi dans les colonnes de Nice-matin à propos de discordances entre les informations diffusées par Nice-Matin au sujet des hospitalisations pour Covid (issues de Santé publique France) et les observations de terrain.

      En novembre, les courbes de Santé Publique France indiquaient une croissance constance des hospitalisations pour formes graves, toujours dans les Alpes-Maritimes, alors que les médecins sur le terrain relevaient des courbes stables, voire décroissantes.

      La révélation de ces importantes divergences a fait réagir, dans la foulée, le directeur général de la Santé. Une note interne signée par Jérôme Salomon exhorte les « établissements de santé d’effectuer la vérification et la mise à jour de l’ensemble des fiches des patients » Covid-19 afin de les mettre à jour avant le jeudi 21 janvier.

      Dans ce contexte, selon le dernier point de situation régional en Provence-Alpes-Côte d’Azur, publié le 15 janvier par l’Agence régionale de Santé, le nombre de personnes hospitalisées dans la région PACA est de 1 181 personnes (soit -5 par rapport au 14 janvier) ; 334 personnes étant en réanimation (soit +13 personnes) à cette date.

      "UN NIVEAU ÉLEVÉ" SELON L’ARS
      En terme d’occupation des lits, le Vaucluse est engorgé avec 100% pour le taux d’occupation des lits en réanimation, suivi du Var (91,6%), des Bouches-du-Rhône (90,2%), des Alpes-Maritimes (87,8%), des Alpes-de-Haute-Provence (75%) et Haute-Alpes (62,5%). 

      Dans les Bouches-du-Rhône, le nombre de patients en réanimation est de l’ordre de 192 (soit +12 patients). Les autres départements n’enregistrent pas de hausse sensible (+1) et les Alpes-Maritimes recensent même deux personnes en moins. 

      L’ARS note que « le nombre de cas hospitalisés et décédés a légèrement augmenté et reste à un niveau élevé ».

    • Ca donne du grain à moudre aux tennant·es des théories conspirationnistes. Un ami conspi m’expliquait il y a 2-3 jours que les chiffres étaient gonflés artificiellements. Et ca résonne étrangement avec la nouvelle cause anti-conspi de Jupiter. Est-ce que ces medecins de la région Paca vont se trouvé sous le viseur de la macronie pour conspirationnisme ? Vu la manière dont ce gouvernement utilise systhématiquement ses « grandes causes » (violences contre les femmes pour coupé les fonds des assos et ouvrir un marché sur les violences faites aux femmes, harcelement de rue pour ciblé les SDF et Migrants, violences policières pour aboutir à la loi securité global, loi séparatiste qui vérouille la liberté d’expression et crée de nouvelles discriminations islamophobes...) pour dégommer l’opposition et couvrir son incompétence volontaire ou pas en censurant la presse.

    • oui, c’est par un auteur ici présent, on va dire, sensible à ces thèses que je vois passer l’info que je reprends ici.

      La production de (données) statistiques demande de préciser les concepts, lesquels face à la réalité de la pratique ne fournissent pas toujours des réponses claires (quelle case dois-je cocher ?) Cela suppose donc des règles et des conventions et qu’on les applique de façon homogène entre chaque opérateur et avec constance pour un même opérateur. Autant dire que ça n’est jamais gagné et nécessite une lutte de tous les instants.

      Exemple, mentionné dans l’article, mettre à jour une information ou radier un élément sont des actions qui sont moins « gratifiantes » qu’ajouter un nouvel élément et donc une partie d’entre elles ne sont pas faites (cf. l’absence quasi totale de mise à jour ou de radiation des différents fichiers policiers qui entraine leur inflation perpétuelle).

      On peut trouver ça kafkaïen, mais c’est le prix à payer pour avoir des stats exploitable ; si on n’y attache pas d’importance, c’est l’exploitation des données qui devient kafkaïenne et, en vérité, impossible. Quand on travaille avec des données, on fait, plus ou moins implicitement, les hypothèses de cohérence des traitements, homogénéité entre agents et zones géographiques et stabilité dans le temps sont (à peu près) vérifiées.

      C’est embêtant quand l’ampleur des variations est telle que ça commence à se voir, comme ici. Mais quand on commence à chercher - et qu’on y passe le temps qu’il faut - on finit toujours par trouver des trucs …

      Dans un fichier, il n’y a plus de «  loups  » quand on ne les voit pas trop (ou qu’on ne les entend pas trop) et qu’en conséquence, on arrête de les chercher …

      À partir de quand s’arrêter de chercher, à partir de quand se mettre à douter de la fiabilité des chiffres ? #Bonne_question_Elkabbach

      Ceux qui ont un peu mis leur nez dans la production de données rigolent (jaune !) quand on leur sort des trucs du genre ; vous les statisticiens vous ne croyez qu’en vos chiffres.

      Ce qui nous amène à la phrase attribuée à Churchill : I only believe in statistics that I doctored myself soit je n’ai confiance que dans les chiffres que j’ai moi-même bidouillés.

      sur l’attribution de la citation, cf. https://dicocitations.lemonde.fr/citations/citation-40610.php

    • Attention quand même  : si un gus rentre à l’hosto pour covid, au bout de 14 jours, il est toujours à l’hosto pour covid et il est important de pouvoir le tracer comme tel s’il y reste 2 mois.
      Radier les covidés au bout de 15 jours est juste un non-sens. Et une sale négation des covid longs.

      Quant aux PCR+++ qui rentrent à l’hosto pour « autre chose » que le covid… va falloir bien s’entendre sur le « autre chose », vu que cette merde est capable d’attaquer tous les morceaux  : tu peux très bien te taper un AVC ou un infarct provoqué par le covid  : la détresse respiratoire est très loin d’être le seul symptôme. C’est d’ailleurs la diversité des symptomes et le manque d’info à ce sujet qui font que nombre de covidés ignorent leur état et pensent avoir autre chose, ce qui n’aide vraiment.
      La vraie question, c’est comment on traite statistiquement le gus qui rentre pour un accident de la route ou un suivi de cancer et qui s’avère un PCR+++ qui s’ignorait ou les covid nosocomiaux que certains pays estiment à environ 10% des hospitalisés  ?

      Donc, prudence aussi avec cet article qui me semble tirer un peu fort vers une sorte de tradition locale de minoration du problème.

    • Il y a déjà eu une polémique assez similaire en octobre dernier :
      https://www.liberation.fr/checknews/2020/10/30/l-indicateur-du-taux-d-occupation-des-lits-de-reanimation-est-il-gonfle_1

      TLDR :

      Au final, les spécialistes interrogés s’accordent tous à dire que la tension des services de réanimation est une réalité incontestable. Même si l’indicateur officiel, donc, en est une transcription imparfaite, traduisant bien la pression de l’épidémie sur la structure hospitalière, mais ne renseignant guère, en réalité, sur le taux d’occupation en réanimation. Sa pertinence demeure toutefois défendue par la DGOS, qui estime qu’il reflète bien « le niveau de sollicitation, de mobilisation, de tension des services, région par région, en lien avec le coronavirus ».

    • Tout à fait d’accord avec @monolecte, l’article est bien tendancieux et vise à minimiser (c’est pour ça qu’il a plu et été pointé ici).

      Comme souvent, la question cruciale est qu’est-ce qu’on compte ? Il me semble, en tous cas c’est comme ça que je le comprends, qu’il s’agit des hospitalisations en raison du covid (mais je n’ai pas regardé la définition qu’en donne SPF). Dans l’article, on voit des constats, présentés comme des anomalies, qui s’ils étaient pris en compte modifieraient sensiblement cette définition (et feraient baisser les stats) :
      • ne compter que les contagieux ou les PCR+
      • ne pas compter les «  covidés  » en soins de suite

      Dans l’autre sens, il faudrait s’intéresser à la façon dont sont comptabilisés les contaminés à l’hôpital … Soit un sur sept d’après https://seenthis.net/messages/897181 . En effet, ils n’ont pas été comptés positifs au coronavirus à leur admission ; qu’enregistre-t-on dans les stats quand ils le deviennent ? Il faudrait prévoir un nouveau décompte : devenus positifs à l’hôpital. Ça compliquerait encore le suivi du stock, … :
      ∆ stock d’hospitalisations covid = admissions covid + contaminés à l’hôpital - radiations covidés (à l’admission ou en cours d’hospit)

    • Un autre aspect peu honnête est que l’article est très flou sur un point précis : est-ce que ça dénonce le fait qu’on compterait trop d’hospitalisations, ou juste trop de cas de Covid hospitalisés ?

      Le paragraphe qui expose le « problème » dit assez clairement que dans tous les cas, on compte bien des gens hospitalisés :

      Lorsqu’un patient est hospitalisé pour un motif quelconque (insuffisance cardiaque, décompensation diabétique…), dans l’un ou l’autre des services des hôpitaux ou cliniques, et qu’il est testé positif pendant son séjour, il rejoint le « pool des personnes hospitalisées pour Covid » dans la base de données, même s’il ne présente aucun symptôme.

      et que le souci est que parmi ces cas hospitalisés, on dit que certains sont Covid alors que non. Mais on parlerait aurait bien des gens réellement hospitalisés au final.

      Mais juste ensuite, on a une indignation anonyme qui dit explicitement :

      En pleine décroissance des hospitalisations, les journaux titraient : l’épidémie repart !

      Ah, donc il y aurait une baisse des hospitalisations. Ou bien, faudrait-il comprendre comme dans le premier paragraphe, qu’il y a une baisse des hospitalisations pour Covid, mais pas une baisse des hospitalisations tout court.

      Parce qu’au final, ce qui compte et qui détermine toutes les décisions, c’est la saturation des hôpitaux toutes causes confondues. Toute en sachant que le seul élément qui risque d’aggraver la saturation, de toute façon, c’est l’épidémie (ce n’est pas, cet hiver, la grippe saisonnière qui va réellement jouer, ni une épidémie d’accidents de voiture, ni la canicule…).

      Et la question de mesurer le taux d’occupation des réas, c’est déjà la pseudo-polémique d’octobre dernier.

      Parce qu’une fois que c’est saturé, c’est saturé, et les jeunes gens de 65 ans qui ont autre chose qu’un Covid ne seront pas sauvés parce qu’on est obligé de trier les patients, parce qu’il y a trop de gens de 55 ans avec le Covid qui occupent les lits de réanimation.

    • Juste pour le rappeler, si les stations de ski n’ont pas l’autorisation d’ouvrir les remontées mécaniques, c’est en particulier du fait du flux d’hospitalisations conséquents que ce sport génère. Je n’ai plus les chiffres en tête, mais ils étaient significatifs.

      Ergoter sans fin sur la définition d’un nombre n’a que peu d’intérêt à mon sens (et cet article n’a de ce point de vue qu’un intérêt documentaire, faute d’avoir le moindre intérêt pratique).
      L’important, à mon sens, quand on s’est mis d’accord à un instant T sur une mesure, c’est de tâcher de s’y tenir, et de respecter la décision, afin de pouvoir suivre la dynamique. La valeur absolue est sans doute perfectible, mais sa dynamique, la façon dont elle évolue, est plus opérationnelle à mon sens.

      Par exemple, pour les chiffres du chômage, ils auront beau changer les définitions de ce que c’est qu’être au chômage... la dynamique restera, et ils n’y pourront rien, politiquement... quand le chômage augmente... il augmente même quand on rend plus dur la définition du chômeur.

    • Il est clair que le but de l’article est de détruire la crédibilité des chiffres de SPF et d’ancrer dans les têtes qu’ils sont gonflés artificiellement. De ce point de vue, le graphique utilisé fait remarquablement ce (sale) boulot.

      Passons sur le fait que la mention des chiffres issus des données hospitalières ne décrit pas vraiment ni la source effective, ni la méthodologie, devant le constat de la divergence flagrante entre les deux séries à partir de début novembre, la première chose à faire (et impérativement avant toute publication) est d’analyser les écarts et de pointer les raisons de cette divergence. Pas justifier à l’unité près, mais pointer les flux entrants ou sortants qui échappent à l’une ou à l’autre.

    • De l’ordre de 5000 hospitalisations liées à une pratique en montagne pour la saison 2019-20 tronquée par le premier confinement. 6300 en 2010-11.

      avec un flux > 1000 hospi covid par jour depuis octobre, c’est clairement un argument majeur pour interdire le ski :-)

  • Débat : #Classement_de_Shanghai, un palmarès pas très classe !

    Chaque été sort le 15 août la nouvelle mouture du « classement de Shanghai » – plus précisément le classement de l’Université Jiao Tong de Shanghai. Son but initial était de situer les universités chinoises par rapport à leurs homologues américaines. Il peut d’ailleurs « être considéré comme le symptôme du goût traditionnel de la civilisation chinoise pour l’#ordonnancement et la #classification ».

    Sorti des frontières chinoises depuis sa création en 2003, ce classement est devenu au fil des années un outil de #comparaison universel, non seulement des universités mais aussi des pays entre eux. Cependant, la communication qui l’entoure n’est-elle pas disproportionnée par rapport à sa qualité technique ?

    Une #méthodologie à questionner

    Notons d’abord que ce classement se concentre exclusivement sur l’activité de #recherche des établissements. Certaines disciplines, comme les #sciences_humaines_et_sociales, n’y sont pas prises en compte.

    L’activité d’#enseignement n’y est pas évaluée, pas plus que la #vie_étudiante, les #activités_culturelles ou l’insertion dans les territoires. Autant de dimensions qui sont pourtant essentielles pour un futur étudiant voulant juger de la « #qualité » d’une université. Globalement, ce classement favorise les universités qui sont fortes en #sciences_expérimentales, situées dans les pays où l’on parle l’#anglais.

    Sa méthodologie soulève aussi les critiques, sur le plan de la #bibliométrie, de ses #indicateurs, imparfaits et biaisés, de la difficulté d’homogénéiser les données entre plusieurs pays. C’est le #jugement_subjectif du fournisseur du classement qui détermine les indicateurs les plus importants, sans aucune justification théorique, et qui les impose de fait aux utilisateurs.

    Plus généralement, il est aberrant qu’un classement qui se base sur une seule note globale puisse refléter la #qualité d’une université, structure très complexe et diverse. C’est un peu comme s’il s’agissait de désigner la meilleure voiture du monde. Une Zoé est-elle une « meilleure » voiture qu’une Porsche ou une Kangoo ? Cela dépend bien sûr de l’usage du véhicule, du budget qu’on peut lui consacrer, et aussi de paramètres subjectifs (esthétique, « marque préférée » etc..). Alors pourquoi fait-on pour les universités ce qu’on ne se permettrait pas de faire pour l’automobile ?

    Une #perversité dans les usages

    Même faux, même biaisés, les classements ne poseraient pas un gros problème s’ils n’étaient pas devenus un #produit_de_consommation, une aubaine commerciale et même un dangereux outil de #management stratégique.

    Revenons sur les différentes catégories de « consommateurs » de classements. Au départ, les classements s’adressaient aux étudiants et à leurs familles, afin de les aider à effectuer leurs choix. C’était le cas du premier d’entre eux, celui de US News and World report en 1983, puis aujourd’hui du « classement de Shanghai ».

    https://twitter.com/FR_Conversation/status/1151738587047743489?ref_src=twsrc%5Etfw%7Ctwcamp%5Etweetembed%7Ctwterm%5E11

    On aboutit ainsi à des sortes de « Guides Michelin » des universités. Comparaison intéressante, car on sait que la légitimité du guide rouge a été fortement remise en cause, à la fois sur des questions de méthodologie (système ancien, flou, manque de transparence), mais aussi d’usage (pression accrue sur les bénéficiaires).

    Mais la comparaison s’arrête là : si je fais confiance à une mauvaise évaluation dans un guide gastronomique, je ferai, au pire, un mauvais repas. Si je n’utilise que les classements pour choisir mes études, je risque de faire un mauvais choix de vie !

    Autres usagers des classements, les #entreprises. Elles embauchent quelquefois plus un diplôme « bien classé » qu’une personne. Dans notre pays, cette tendance existe dans le privé mais aussi dans la fonction publique avec l’exception culturelle des « grands corps », où certaines écoles ont le monopole de certains emplois.

    Les universités elles-mêmes peuvent être tentées de les utiliser pour sélectionner un partenaire étranger. Mais elles peuvent, hélas, aussi construire une stratégie visant à progresser dans les classements, plutôt que se concentrer sur leurs objectifs fondamentaux : qualité des formations, compétitivité des recherches, services rendus à la société. On passe ainsi du classement comme simple « élément d’information et de contexte » à un « élément d’une stratégie ».

    Enfin, l’État a pu considérer la progression dans les classements comme objectif stratégique pour ses universités. De même, le risque existe de voir les classements pris en compte par des organismes de contrôle ou comme variables dans des algorithmes d’attribution de #ressources.

    Du commercial au politique

    Oui, le classement des universités « fait vendre ». Il s’insère dans la passion de la presse magazine pour les #palmarès en tous genres, et est devenu un des principaux marronniers de la presse estivale. L’analyse sémantique montre que c’est paradoxalement la #contre-performance des établissements français qui fait évènement (« les universités françaises piétinent », « les universités françaises restent en retrait »…).

    Comme un club de football, les principaux classements commercialisent aussi de lucratifs produits dérivés : consultance, publicités, congrès, salons, aides à la rédaction de candidatures…

    La manière dont les universités ou les gouvernements communiquent sur ces classements ne peut qu’augmenter ce véritable #cercle_vicieux qui transforme le classement d’un simple outil en un #objectif_stratégique. On ne devrait pas commenter la place de nos universités dans ces classements avec un vocabulaire sportif : les universités ne sont pas dans un championnat.

    Il existe malgré tout un effet positif à cette médiatisation, celui de voir le public s’intéresser à un succès académique. Mais alors, pourquoi aussi peu d’écho à d’autres réussites ? Ainsi, l’attribution à Martin Karplus, professeur à l’université de Strasbourg et à Harvard, du prix Nobel de chimie 2013, est passée quasiment inaperçue en France.

    L’appétence pour les classements ne reflèterait-elle qu’un manque d’information sur la science et l’université ? L’importance prise par les classements comme celui de Shanghai comblerait-elle un vide créé par des universités ne communiquant pas assez avec le grand public ?

    Évaluer, et non classer

    On pourrait dire que tout cela est un argument de « mauvais perdant » : moins bien on est classé, plus on critique les classements ! Or la LERU (League of European Research Universities), qui regroupe les universités européennes les mieux classées, a adopté une position très claire :

    "Les classements sont, au mieux, sans rapport avec les #valeurs de l’université ou, au pire, les saperont. Ils encouragent la convergence vers un modèle dominé par la recherche, réduisant la diversité du système et sapant le potentiel de contribution à la société par d’autres moyens (..) Cela pourrait conduire à une culture obsessionnelle de la #mesure et du #contrôle, et promouvoir l’idée d’« #universités-supermarchés »."

    Mais attention, questionner les classements, mettre en cause leur importance, discuter leur #fiabilité ne veut pas dire que les universités ne veulent pas être évaluées, puisque l’#évaluation est dans leur quotidien.

    Répétons-le, on ne peut pas résumer la diversité et la richesse de nos universités par des chiffres à la fiabilité contestée. Le but de l’université n’est pas de figurer dans les classements. Elle travaille à la réussite de ses étudiants, pour qu’ils approfondissent le plus loin possible leurs savoirs. Elle se consacre à une recherche à la fois désintéressée et tournée vers la société, toute la société. C’est à l’aune de ces objectifs fondamentaux que la qualité de l’université devrait être regardée, analysée, commentée, mais sans classer.

    https://theconversation.com/debat-classement-de-shanghai-un-palmares-pas-tres-classe-142444
    #Shangai #ranking #université #facs #classement #critique

    –—

    Je signalais ici l’entrée de l’#Université_Grenoble_Alpes dans les top 100 du classement :
    https://seenthis.net/messages/871918#message871920

  • Un test #Covid-19 inefficace utilisé à la Maison Blanche - Sciences et Avenir
    https://www.sciencesetavenir.fr/sante/un-test-covid-19-rapide-vante-par-trump-produirait-beaucoup-de-faux

    Le test, autorisé par la #FDA et qui n’est pas utilisé qu’à la Maison Blanche (présent aux urgences de certains hôpitaux), comporte jusqu’à 48% de faux négatifs (versus 0.02% déclarés par le fabricant !)

    #tests #fiabilité #états-unis

  • What do we know about data on environmental migration?

    Disaster displacement forces millions of people away from their homes every year. Many more move in the context of environmental changes. Estimating the number of people affected remains a challenge for the international community. #Atle_Solberg, Head of the Platform on Disaster Displacement and #Francois_Gemenne, specialist of environmental geopolitics and migration dynamics, share their views on this topic.

    https://vimeo.com/305714985


    #statistiques #chiffres #réfugiés_environnementaux #migrations #réfugiés #asile #données #catastrophes #climat #changement_climatique #vitesse #rapidité #fiabilité #IDPs #déplacés_internes #collecte_de_données

    ping @reka @simplicissimus

  • affordance.info
    http://affordance.typepad.com/mon_weblog/2018/08/fiabilite-facebook.html
    http://up6.typepad.com/6a00d8341c622e53ef00e54ff2c10e8833-220si

    par Olivier Ertzscheid

    Nous sommes en Août 2018 et le Washington Post nous apprend que Facebook vient de mettre en place un système de notation de la « fiabilité » de ses utilisateurs.
    Pourquoi un indice de fiabilité est une fable.

    En plus d’être déjà « classés » et indexés en fonction de nos activités, de nos géo-localisations ou de nos centres d’intérêts, nous allons désormais l’être aussi en fonction d’un score de crédibilité ou plus exactement d’un score de « fiabilité » ("Trustworthiness") étalonné entre 0 et 1 et dont seule la plateforme disposera.

    Facebook en réalité se moque de savoir si nous sommes « crédibles », c’est à dire de savoir si ce que nous écrivons ou relayons renvoie à une forme de vérité objectivable ; ce dont Facebook se soucie et ce qu’il veut donc désormais mesurer c’est bien notre « fiabilité », et la nuance est d’importance. La « fiabilité » est une métrique qui est raccord avec le moteur de la plateforme qui est la notion « d’engagement ». Ainsi un utilisateur néo-nazi qui relaie une info annonçant que les migrants mangent leurs enfants et qu’il va aller les jeter au bout de la terre qui est plate, ce néo-nazi est un utilisateur qui n’est pas une seconde crédible mais qui est en revanche totalement fiable dans la constance - par ailleurs navrante - de ses convictions. C’est cette fiabilité que Facebook cherche à quantifier pour - c’est en tout cas ce qu’ils prétendent - permettre de mieux repérer les faux-comptes ou ceux qui relaient le plus souvent de fausses informations.

    Sur le fond, on peut d’ailleurs se réjouir que Facebook préfère évaluer notre « fiabilité » plutôt que notre « crédibilité », l’inverse indiquerait en effet que la plateforme adopte une position morale pour définir ce qui est vrai / crédible et ce qui ne l’est pas. Et à l’échelle de 2,5 milliards d’utilisateurs ce serait excessivement dangereux. Et dans le même temps, l’exemple de l’utilisateur néo-nazi que j’ai choisi montre bien à quel point cette « fiabilité » ne permettra aucunement de résoudre le problème des logiques de désinformation ou de « fake news », qui, comme j’ai souvent essayé de l’expliquer, n’ont rien à voir avec l’information mais sont liées aux architectures techniques toxiques qui favorisent et entretiennent certains modes de circulation et de diffusion garants d’un modèle économique.

    Pour Facebook comme pour d’autres, le seul et unique moyen de revenir à des interactions saines à l’échelle collective est d’abandonner le modèle économique qui est le sien et qui continuera inexorablement de susciter diverses formes spéculatives du discours haineux. Ce qu’il ne fera jamais. Ce modèle économique définissant son rapport à la vérité au travers de l’unique vecteur de « l’engagement » (apparaît comme « vrai » ce qui suscite le plus d’engagement et donc d’interactions), et Facebook ne pouvant ni ne voulant abolir ce modèle, la plateforme s’attaque alors « logiquement » au rapport à la crédibilité de ses propres utilisateurs au travers de cette notion de « fiabilité ». C’est à dire qu’une fois de plus et conformément à une forme diluée de libertarianisme qui nourrit l’idéologie de la plateforme, celle-ci considère que la meilleure réponse ne se trouve pas à l’échelle collective mais à l’échelle individuelle. On en avait déjà eu la démonstration lors de la lettre de Zuckerberg à la nation Facebook en Mars 2017, dans laquelle pour résoudre les problèmes liés à la représentation de la violence ou de la nudité il avait renvoyé chacun à ses propres critères de tolérance ou d’acceptabilité.

    Et c’est enfin car derrière ce score de « fiabilité » ne cherche même plus à se cacher l’idée aussi folle qu’inquiétante d’une rationalisation automatisée ou automatisable d’un rapport individuel à l’information absout de tout rapport collectif à une quelconque forme de vérité(s) objectivable(s). Le solutionnisme technologique est intrinsèquement lié à une forme de relativisme moral individualiste.

    Même si, en première intention, on peut se rassurer en se disant, comme le rappelle Numérama qu’il s’agit juste pour la plateforme de « déterminer le degré de confiance que le site peut raisonnablement avoir face aux actions de chaque inscrit », même si ce « scoring » n’est qu’un « indice comportemental parmi des milliers d’autres », il est aussi et surtout une manière tout à fait perverse et biaisée de fabriquer des représentations sociales individuelles et collectives tout en se défendant de le faire, des représentations qui ne reposent le plus souvent que sur la dimension pulsionnelle du rapport à l’information.

    Libertarianisme (économico-politique), solutionnisme (technologique) et relativisme (moral) : la sainte trinité de l’évangile des plateformes.

    #Facebook #Calculabilité #Fiabilité

  • Facebook is rating the trustworthiness of its users on a scale from zero to 1
    https://www.washingtonpost.com/technology/2018/08/21/facebook-is-rating-trustworthiness-its-users-scale-zero-one

    Facebook has begun to assign its users a reputation score, predicting their trustworthiness on a scale from zero to 1. The previously unreported ratings system, which Facebook has developed over the past year, shows that the fight against the gaming of tech systems has evolved to include measuring the credibility of users to help identify malicious actors. Facebook developed its reputation assessments as part of its effort against fake news, Tessa Lyons, the product manager who is in (...)

    #Facebook #manipulation #web #surveillance

    https://www.washingtonpost.com/pbox.php

  • #Scoops #santé : largement trompeurs http://www.prescrire.org/Fr/BBF3E53A3C65A6427218EF589EFF874C/Download.aspx

    Il ne se passe guère de mois sans l’annonce d’une découverte extraordinaire qui va révolutionner la #médecine. Ces annonces médiatiques donnent l’image d’un progrès rapide et sans fin. Mais qu’en est-il de leur #fiabilité ?

    Une équipe française a étudié la couverture médiatique dans la presse grand public anglo-saxonne d’études scientifiques portant sur le lien entre 12 maladies (dépression, maladie de Parkinson, etc.) et des facteurs de risque, liés au mode de vie (tabac, etc.) ou non. Leur étude a porté sur environ 150 études ayant fait l’objet d’au moins un article dans la #presse_grand_public. Les auteurs de l’étude ont trouvé que les publications scientifiques premières sur un thème ont davantage été reprises par la presse grand public que les publications ultérieures portant sur le même thème. Les publications premières aux résultats « négatifs » (par exemple absence de lien entre tel facteur et telle maladie) n’ont jamais été relayées. Les publications ultérieures qui invalidaient une publication première médiatisée n’ont pratiquement jamais fait l’objet d’articles de suivi dans la presse grand public.

    Au total, la presse grand public semble en général surtout intéressée par les études aux résultats « positifs », et assure mal leur suivi. Cela donne une image biaisée des résultats de la recherche puisque les deux tiers des études premières ne sont pas confirmées ensuite.

    Une autre étude sur la presse grand public a montré que lorsqu’un article présentant les résultats d’une nouvelle recherche était accompagné des commentaires d’une personne extérieure à la rédaction, cette personne avait souvent un #conflit_d'intérêts académique ou financier sur le sujet traité.

    En somme, les médias grand public rendraient un meilleur service en se fiant moins aux résultats des études initiales, en présentant leurs limites, en suivant le dossier, et en évitant de demander leur avis à des personnes trop intéressées par la mise en valeur des résultats.

    1- Dumas-Mallet E et coll. “Poor replication validity of biomedical association studies reported by newspapers” PLoS One 2017 ; 12 (2) : e0172650 : 15 pages.
    2- Wang MTM et coll. “Conflict of interest and expertise of independent commenters in news stories about medical research” CMAJ 2017 ; 189 (15) : 553-559.

  • Bombardier, « une bande d’artisans qui a décidé de construire des trains ? » RTS - Micaela Mumenthaler / Tamara Muncanovic - 19 Juin 2017
    http://www.rts.ch/info/economie/8715142-bombardier-une-bande-d-artisans-qui-a-decide-de-construire-des-trains-.h

    « C’est à se demander si on travaille pour des artisans qui ont décidé de construire des trains ! » Ce commentaire amer d’un employé de Bombardier à Villeneuve est partagé par d’autres, qui dénoncent la « désorganisation » de l’entreprise.

    Quatre ans de retard. Les premiers trains du « contrat du siècle » de Bombardier - qui a annoncé début juin la suppression de 650 emplois en Suisse - auraient dû être livrés en 2013. Au final, ce ne sera pas avant la fin de cette année. Des retards qui se sont accumulés, notamment à cause d’espaces mal conçus à l’origine.

    Pour certains employés rencontrés pour l’émission Mise au point de dimanche, un problème d’approvisionnement des pièces serait également à l’origine du retard. « Les fournisseurs ne sont pas payés, donc ils n’envoient pas les pièces et nous, on ne peut pas travailler », raconte un collaborateur du site de Villeneuve (VD). « Et comme on ne peut pas travailler, on ne peut pas livrer les trains... »

    La plupart du temps, tout ce qu’on monte est démonté plus loin
    Une explication partagée par Pierre, mécanicien depuis 14 ans sur ces chaînes de production. Selon lui, à chaque nouvelle étape de fabrication, 10% à 15% des pièces manquent et la majorité des opérations ne peuvent être menées à terme.

    « La plupart du temps, tout ce qu’on monte est démonté plus loin, parce qu’il y a des éléments qui sont modifiés », ajoute-t-il dépité, soulignant la « désorganisation » de Bombardier.
    . . . . . .

    #En_Marche #Guignols #Entrepreneurs #Fiabilité #Bombardier #Train

    • Mouarf ils vont se faire des amis :

      Les blogs du Monde Diplomatique

      Il ne s’agit pas d’articles du « Monde Diplomatique », mais de blogs hébergés par le site. Leur pertinence ne peut donc être jugée qu’au cas par cas.
      Ce site est-il fiable ?

      Attention, ce site n’est pas une source à proprement parler ou sa fiabilité est trop variable pour entrer dans nos critères. Pour en savoir plus, cherchez d’autres sources et remontez à l’origine de l’information.

      Probablement parce qu’ils n’ont pas digéré ce billet de blog :

      Politique post-vérité ou journalisme post-politique ? par Frédéric Lordon, 22 novembre 2016
      http://blog.mondediplo.net/2016-11-22-Politique-post-verite-ou-journalisme-post

      La réponse à l’époque était « drôle » : https://twitter.com/Antonyn6/status/803972350664384512

    • Oh il y a des perles dans leurs jugements, Les déconneurs sont-ils fiables ?

      Valeurs actuelles

      Un hebdomadaire d’information généraliste positionné politiquement à droite. Le magazine a été condamné pour provocation à la haine raciale envers les Roms en 2015 après sa couverture « Roms : l’overdose ». Le site Internet et le journal mentionnent leurs clairement leurs sources et publient des informations vérifiées mais certaines enquêtes ou reprises d’autres médias sont à prendre avec précaution.

      Ce site est-il fiable ?

      Ce site est en principe plutôt fiable. N’hésitez pas à confirmer l’information en cherchant d’autres sources fiables ou en remontant à son origine.

      Fakir

      Un journal indépendant de gauche, situé à Amiens, dirigé par François Ruffin, réalisateur du film « Merci patron », avec une ligne éditoriale militante et un parti pris clairement revendiqué.

      Ce site est-il fiable ?

      Ce site peut être régulièrement imprécis , ne précisant pas ses sources et reprenant des informations sans vérification. Soyez prudent et cherchez d’autres sources. Si possible, remontez à l’origine de l’information.

    • Impressionnant :

      BFMTV

      Chaîne de télévision d’information en continu, propriété du groupe NextRadio TV.

      Ce site est-il fiable ?

      Ce site est en principe plutôt fiable. N’hésitez pas à confirmer l’information en cherchant d’autres sources fiables ou en remontant à son origine.

      –----------

      La Horde

      Un site d’extrême gauche et anti extrême droite, dont les contenus proviennent souvent de militants sans être vérifiés.

      Ce site est-il fiable ?

      Ce site peut être régulièrement imprécis , ne précisant pas ses sources et reprenant des informations sans vérification. Soyez prudent et cherchez d’autres sources. Si possible, remontez à l’origine de l’information.

      –-------------

      Paris Lutte Info

      Un site militant qui se présente comme anticapitaliste, anti-autoritaire et révolutionnaire.

      Ce site est-il fiable ?

      Ce site peut être régulièrement imprécis , ne précisant pas ses sources et reprenant des informations sans vérification. Soyez prudent et cherchez d’autres sources. Si possible, remontez à l’origine de l’information.

    • Merci @fil pour la carte.

      Le fichier .csv est vraiment pratique pour visualiser rapidement les différents avis, je le remets ici : https://framadrop.org/r/uet9Fw0uf_#zuTD8ZA0qZ1v4sf5pRgf+7hQAioSYMKrAsJ/vkQsQpo=

      @intempestive : j’ai repéré 4 sites d’extrême gauche / anars (Fakir, Paris-luttes, Rebellyon et La Horde) + les blogs du Diplo.

      Je serai vraiment intéressé d’avoir une analyse sur le fond, à la fois ce que ça sous-entend comme conception de la presse, de la « fiabilité », du fait, sans parler du méli mélo « les extrêmes sont un peu pareilles ». J’attends impatiemment le retour d’Acrimed, qui n’apparaît pas dans la base de données.

      Ca me rappelle l’intention de labelliser les sites d’info que le gouvernement Sarkozy avait évoqué en 2007 :
      http://www.zdnet.fr/actualites/bientot-un-label-de-qualite-pour-les-sites-web-d-information-39367199.htm
      http://www.culture.gouv.fr/culture/actualites/rapports/tessier/rapport-fev2007.pdf

      L’outil très critiquable des Décodeurs a eu le mérite de lancer quelques discussions sur Twitter (je pense qu’il y en a eu beaucoup d’autres, je note déjà celles-ci) :
      https://twitter.com/melo_meli/status/827159693835505665
      https://twitter.com/okhin/status/827166190107783168

      Sinon, l’édito du Monde au sujet du Decodex est sidérant à tous points de vue :

      La défense des faits
      http://www.lemonde.fr/les-decodeurs/article/2017/02/02/editorial-la-defense-des-faits_5073248_4355770.html

      #journalismplaining

    • Je suis d’accord avec tes arguments mais pas tout à fait avec ta conclusion. En défense de leur truc, ça répond aux angoisses d’un certain public, liées à l’actualité (fake news). Il me semble pertinent qu’un journal s’empare de ce sujet, et le format de « l’outil de vérification » est plutôt original.

      On peut critiquer le résultat tant qu’on veut, démontrer que la « neutralité » est fallacieuse, que ça ne passera jamais à l’échelle du web, que c’est très superficiel (à peine passable au niveau 1ère année de socio), mais je ne crois pas qu’il est illégitime pour un journal d’approcher ce sujet de cette façon.

      (Qu’un journal « se fasse de la publicité » en parlant de tout et n’importe quoi, c’est comment dire, la base du métier…)

      Ce qui est plus inquiétant à mon sens, à l’analyse de la carte, c’est ce que ça montre du paysage mental de nos journalistes décodeurs, ou en tout cas de la perception qu’ils ont d’Internet : une place de marché où des médias sérieux, des médias pas sérieux, des blogs militants extrémistes, et des plateformes neutres se battent pour l’attention et le buzz.

      Ou plutôt, que le web est fait de 1) la presse sérieuse et vertueuse (Le Monde et les journaux régionaux) 2) de sites qui sont soit faux-pour-rire, soit faux-par-idéologie, soit faux-par-appât-du-gain, soit encore faux-par-incurie.

      À l’exception d’un ou deux blogs scientifiques ou site de ministère, pas la moindre trace de sites institutionnels, de bases de données, d’associations, de bibliothèques, de musées, d’artistes, d’universités, etc.

      Au final si on regarde le fichier, il s’agit d’une poignée de bookmarks, commentés de manière superficielle et appartenant à des domaines assez étriqués. Les sujets couverts sont particulièrement restreints (un peu de santé, un peu de news généraliste, beaucoup d’extrême droite et de conspi).

      Si c’est ça le web qu’ils fréquentent au quotidien, je les plains du fond du cœur.

    • #Le_Monde : où comment s’approprier la critique des médias ... Testé le bousin hier. Ils n’ont pas encore d’avis sur « Seenthis » mais je parie qu’on aurait droit à
      « Attention, ce site n’est pas une source à proprement parler ou sa fiabilité est trop variable pour entrer dans nos critères. Pour en savoir plus, cherchez d’autres sources et remontez à l’origine de l’information. »
      Par contre là où je commence à trouver ça flippant, c’est que le réseau « Canopé » ( réseau de création et d’accompagnement pédagogique !!!, ex centres de documentation pédagogique) en fait un outil « fiable » pour les enseignants et leurs élèves qui se confrontent à l’information. Ci-dessous le lien vers le « scoop-it » de Canopé du Loiret :
      http://www.scoop.it/t/infos-docs-crdp-45

      et l’article d’Arrêt sur Image linké par la page sus-nommée :
      https://www.arretsurimages.net/articles/2017-01-25/Comment-le-Decodex-du-Monde-va-labelliser-l-infaux-en-ligne-id9493
      L’article est sous ¨Paywall" mais on n’en a cure ; rien que le début vaut son pesant de beaujolais ...

      Ce qui me fait braire, c’est que les baronnets de l’éducnat préfèrent remplacer l’esprit critique par des algorithmes. Air du temps ...

    • La fin de l’article d’ASI :

      RT et Sputnik en orange, Egalité et réconcilation en rouge, @si en vert

      A partir de combien de "mauvaises" réponses bascule-t-on de la catégorie "fiable" à "pas fiable" ? "Il n’y avait pas de critères pointus", répond Laurent. "Ce n’était pas : « A partir de 7/10, vous n’êtes pas fiable ». C’est simplement une grille qui nous a guidé dans notre choix. On ne l’a pas utilisée de manière scientifique". Le classement du Monde risque d’en froisser quelques uns : Melty, le site qui cartonne chez les 15-30 ans, où les rédacteurs sont payés au nombre de clics, se retrouve par exemple dans la même catégorie que le blog d’extrême-droite FDeSouche ou les sites financés par le gouvernement russe, Russia Today ou Sputnik : la catégorie "Orange, soit des "sites régulièrement imprécis, ne précisant pas leurs sources et reprenant des informations sans vérification".

      Dans quelle catégorie est classée Le Monde ? "Vert". Et Arrêt sur images ? "Vert aussi" répond Laurent, qui assure que "toute la presse française est en vert". Les médias traditionnels, forcément fiables, contre le reste du monde ? Voilà qui ne manquera pas de faire grincer quelques dents, au sein de la fachosphère notamment. "On en est bien conscient", répond Laurent, qui assure que le but n’est pas de se poser en police de la presse ou en apôtre de la vérité, mais juste de rendre service aux lecteurs, pour leur permettre d’identifier les sites de fake-news, mis sur le devant de la scène depuis l’élection de Trump aux Etats-Unis. "C’est une beta, on se lance, on sait que c’est perfectible", reconnaît le fondateur des Décodeurs. "Notre idée, c’est vraiment de se concentrer sur les sites pas fiables". Rendez-vous le 1er février.

    • Le pesant de beaujolais :

      Comment le « Decodex » du Monde va labelliser l’infaux en ligne
      FDeSouche, RT et Sputnik en orange, toute la presse française en vert

      « Parodique, totalement faux, peu fiable ou fiable », choisissez votre camp. A partir du 1er février, Les Décodeurs du Monde proposeront une extension, financée par le fonds Google, censée permettre aux internautes de mieux se repérer en ligne, et séparer les bons et les mauvais sites d’info. Comment ça va marcher et quelle est la définition, au juste, d’un site « pas fiable » ? Mode d’emploi, à quelques jours du lancement du « Décodex ».

      Arretsurimage.net

    • Merci pour les arguments ! L’article de Vincent Glad est plutôt intéressant également :
      http://an-2000.blogs.liberation.fr/2017/02/03/pour-chasser-les-fake-news-le-monde-donne-une-definition-du

      On pourra également signaler que dans la construction de leur liste, les Décodeurs ont manqué à la première définition qu’ils appliquent : la vérification des informations. Aucune personne ou collectif s’occupant d’un site n’ont été contactés pour connaître leurs pratiques en terme de vérification.

    • @fil @intempestive 60 000 euros, c’est ce qu’on avait demandé pour réaliser l’idée d’un atlas géopolitique ou mondialisation ou politique, on était pas encore très sur de l’approche à adopter :)

      Mais on avait envie d’imaginer la possibilité d’images carto avec des visions un peu inédites et originales, basées en même temps sur l’analyse de grosses bases de données et d’observations qualitatives, avec une extension Internet, mais je suis sur que nos décodeurs auraient classés ça en super non fiable, infos jamais vu ailleurs etc...

      A ce rythme là, les équipes et projets de recherche un peu créatives, qui proposent des pistes de réflexions un peu nouvelles, ou en tout cas peu ou pas explorées n’ont aucune chance de passer le test Decodex ou Verificator (on pouvait pas trouver des noms plus débiles d’ailleurs)

      On sait maintenant que pour le même prix, tu peux faire un truc magique qui te dit instantanément si t’es tricard ou pas quand tu aimes bien un site qui t’apprends des trucs.

      @fil

      je ne crois pas qu’il est illégitime pour un journal d’approcher ce sujet de cette façon.

      J’ai beau essayé de retourner le sujet dans tous les sens, je n’arrive pas à ne pas voir un énorme conflit d’intérêt. Je veux bien croire qu’il soit nécessaire de répondre à l’angoisse des lecteurs sur la question des fake news, et c’est pertinent de la part d’un journal comme le Monde d’y répondre (même si ce canard est vérolé jusqu’à la moële du fait de son actionnariat), mais Décodex pour faire office de Temesta ou Tranxène, ça fait plutôt placebo. Ça va pas beaucoup aider.

      Et pour un journal appartenant à des Industriels, point de vue fake news, ils auraient pu commencer à imaginer un logiciel magique qui mouline tout ce qui se dit et s’écrit dans leurs colonnes et dans tous les autres journaux qui appartiennent à des industriels (c’est pas ce qui manque), puis de faire des croisements avec des groupes de pressions, des lobbies, des amitiés politiques, etc... Là, oui, ce serait pertinent et légitime qu’ils s’emparent de ce sujet, mais bon. Ils vont pas non plus se suicider.

      Mais Comme Juliette, je reste terriblement choqué que les mecs du Monde se soient lancé dans cette initiative, que la hiérarchie a laissé faire (remarque en même temps, ils ont du se dire qu c’était un bon coup de pub - ndt : un truc bien putassier).

      Voilà, hélas : Le Monde, toujours plus bas.

      @fil Tu pointes d’ailleurs que leur univers mental Internet est minuscule. Sachant que la biodiversité Internet c’est des centaines de milliers pour ne pas dire des millions de sites en toutes langues qui évoluent, changent, produisent, proposent, invitent, crée, nous émerveillent ou nous affligent ; tous les jours, toutes les heures, on comprend que Décodex est voué à remplir les poubelles fantômes d’Internet assez rapidement tellement leur truc n’est pas soutenable dans le temps.

      C’est vrai que pour s’y retrouver et choisir « ses » sites c’est beaucoup de travail individuel (merveilleusement mis en commun sur seenthis d’ailleurs) et il me semble que pour l’instant, avec cette méthode, ça marche assez bien (seenthis fonctionne parfois comme un lieu de « peer review » : parfois, les retours des seenthisien·nes font mal parce qu’on ne s’y attend pas, mais c’est toujours très riche et au bout du compte, on apprend toujours à être plus prudent, plus critique et à encore mieux vérifier ce qu’on lit et ce qui nous plait. En tout cas, c’est foisonnant, on s’y perd avec délice, on en a la tête qui tourne, mais avec un peu de méthode, on reprend un peu le contrôle de nous même (et de nos journées de travail) :)

      Peut-être d’ailleurs qu’une fois de plus, tout ce bruit, ce n’est qu’un gros plan marketing, ou plan com, je sais pas, ou une justification qu’ils ont bien dépensés 60 000 boules pour un truc spectaculaire auquel cas on poursuit dans le grand guignol et il n’y a rien de vraiment nouveau.

    • Un logiciel magique qui mouline tout ce qui se dit et s’écrit dans leurs colonnes (…), puis de faire des croisements avec des groupes de pressions, des lobbies, des amitiés politiques

      Exactement. Ce genre de logiciel existe, pour l’analyse ou la cartographie de #controverses. Le plus souvent c’est appliqué aux « controverses scientifiques », mais il n’y a pas de raison que ça y reste confiné.

      Il faut jeter un oeil par exemple aux programmes tout à fait surprenants #Prospero et #Marlowe :
      http://prosperologie.org/?sit=22#1
      https://tcp.hypotheses.org/1039
      http://prosperologie.org/mrlw/blog

    • Un petit bilan quantitatif (graphiques à suivre plus tard)

      Comme l’explique Le Vilain Petit Canard cité dans l’article pointé ci-dessus par @arnoferrat
      https://seenthis.net/messages/566065#message567135
      l’appli est une simple interface de consultation d’un tableau de 1289 jugements « personnels ».

      Les données sont fournies dans l’article
      http://www.levilainpetitcanard.be/articles/actu/decodex-sous-le-capot_1461042316
      ainsi que, tout en bas dans les références, un lien vers la gg:sheet contenant les données.

    • @aude_v ah si, moi j’avais trouvé ça très chelou, j’ai même écrit pourquoi (en critique constructive parce que j’aime bien Basta !) depuis Hongkong en décembre 2015. Mais depuis, je n’ai pas consulté ce portail une seul fois et je n’ai aucune idée de ce que ça devient.

    • Le FINP oblige à « chercher » des sujets « innovants »... l’innovation n’en a rien à faire des états d’âme.
      Et là, ils ont réussi à sortir un dossier qui certes n’aurait sans doute pas du être mené par Le Monde, mais bon... ça leur a permis de croûter quelques mois hein... :-) Et si ça ne vit pas, ou si c’est mis hors ligne dans 15 jours, l’argent lui, il aura bien été dépensé.

  • Les statistiques disent-elles la #vérité ?

    Tous les jours, nous sommes assaillis de statistiques économiques. Que ce soit pour le chômage, la croissance, l’inflation ou même le réchauffement climatique, les statistiques sont omniprésentes. Sans que bien souvent, nous ne nous interrogions sur leur #fiabilité, leur mode d’élaboration et leurs auteurs.

    http://www.rfi.fr/emission/20160102-statistiques-verite-chomage-inflation-climat

    #statistiques #économie

  • #Google Flu Trends : peut mieux faire - PLOS
    http://www.ploscompbiol.org/article/info%3Adoi%2F10.1371%2Fjournal.pcbi.1003256

    Une étude montre que Google Flu Trends est encore bien imparfait et ne peut fournir une mesure de surveillance fiable de l’évolution des grippes saisonnières ou pandémiques... au moins tant que l’algorithme n’a pas été amélioré. Tags : fing internetactu2net internetactu #bigdata fiabilité Google #algorithme

    #fiabilité

  • #Santé : La #procréation #humaine #malade de la #technologie

    http://www.argotheme.com/organecyberpresse/spip.php?article1593

    #Wifi , #Téléphones et autres #appareils #numériques dangereux pour les futurs #parents

    Un #rapport consacré à quelques 2000 #études #scientifiques vient de révéler que la technologie sans-fil est dangereuse pour le #système de #reproduction humain. Les futurs parents sont exposés aux #ondes de genre Wifi, ou zone de champs magnétique, qui nuisent à la formation des #enfants . Et ce quand la #femme (enceinte) les porte en état de #fœtus , tandis que les pères perdent la #fiabilité de leurs semences, les spermatozoïdes.