• Covid hoaxes are using a loophole to stay alive—even after being deleted | MIT Technology Review
    https://www.technologyreview.com/2020/04/30/1000881/covid-hoaxes-zombie-content-wayback-machine-disinformation

    Pandemic conspiracy theorists are using the Wayback Machine to promote ’zombie content’ that avoids content moderators and fact-checkers.

    by Joan Donovan archive page
    April 30, 2020

    PHOTO BY CHRIS HALL ON UNSPLASH
    Since the onset of the pandemic, the Technology and Social Change Research Project at Harvard Kennedy’s Shorenstein Center, where I am the director, has been investigating how misinformation, scams, and conspiracies about covid-19 circulate online. If fraudsters are now using the virus to dupe unsuspecting individuals, we thought, then our research on misinformation should focus on understanding the new tactics of these media manipulators. What we found was a disconcerting explosion in “zombie content.”

    While the original page failed to spread fake news, the version of the page saved on the Internet Archive’s Wayback Machine absolutely flourished on Facebook. With 649,000 interactions and 118,000 shares, the engagement on the Wayback Machine’s link was much larger than legitimate press outlets. Facebook has since placed a fact-check label over the link to the Wayback Machine link too, but it had already been seen a huge number of times.

    There are several explanations for this hidden virality. Some people use the Internet Archive to evade blocking of banned domains in their home country, but it is not simply about censorship. Others are seeking to get around fact-checking and algorithmic demotion of content.

    When looking for more evidence of hidden virality, we searched for “web.archive.org” across platforms. Unsurprisingly, Medium posts that were taken down for spreading health misinformation have found new life through Wayback Machine links. One deleted Medium story, “Covid-19 had us all fooled, but now we might have finally found its secret,” violated Medium’s policies on misleading health information. Before Medium’s takedown, the original post amassed 6,000 interactions and 1,200 shares on Facebook, but the archived version is vastly more popular—1.6 million interactions, 310,000 shares, and still climbing. This zombie content has better performance than most mainstream media news stories and, yet it only exists as an archived record.

    Perhaps the most alarming element to a researcher like me is that these harmful conspiracies permeate private pages and groups on Facebook. This means researchers have access to less than 2 % of the interaction data, and that health misinformation circulates in spaces where journalists, independent researchers and public health advocates can not assess or counterbalance these false claims with facts. Crucially, if it weren’t for the Internet Archive’s records we would not be able to do this research on deleted content in the first place, but these use cases suggest that the Internet Archive will soon have to address how their service can be adapted to deal with disinformation.

    Hidden virality is growing in places where Whatsapp is popular because it’s easy to forward misinformation through encrypted channels and evade content moderation. But when hidden virality happens on Facebook with health misinformation, it is particularly disconcerting. More than 50% of Americans rely on Facebook for their news, and still, after many years of concern and complaint, researchers have a very limited window into the data. This means it’s nearly impossible to ethically investigate how dangerous health misinformation is shared on private pages and groups.

    All of this is a threat for public health in a different way than political or news misinformation, because people do quickly change their behaviors based on medical recommendations.

    #Fake_news #Viralité #Internet_archive #zombie_content #Joan_Donovan

  • Bambou | le blog Pro de la MIOP
    https://docmiop.wordpress.com
    https://secure.gravatar.com/blavatar/184804e53c21698be7d6b285e349b849?s=200&ts=1587052157

    Pour celles et ceux qui n’ont pas pu assister à la journée d’étude du 28 novembre dernier, organisée par Médiat Rhône-Alpes, en voici la captation audiovisuelle complète, divisée en 2 parties :

    La 1ère partie comprend les interventions de :
    – Hervé Le Crosnier pour l’introduction
    – Grégoire Borst « Le cerveau en développement face aux Fake news »
    – Julien Giry « Quelles réponses aux théories du complot et au conspirationnisme »
    – Gérald Bronner « Une révolution pédagogique contre la démocratie des crédules »

    La 2ème partie :

    – Pierre Haski « Fake news, désinformation, liberté d’informer : le nouveau défi. »

    – Rose-Marie Farinella « Ateliers de détection d’intox à l’école primaire »

    – Anne Cécile Hivernât « Les ateliers EMI à la BML »

    #Fake_news

  • Dé·mis·information : doit-on repenser le fact-checking ? - journalism.design

    https://journalism.design/journalisme-et-design/de%C2%B7mis%C2%B7information-doit-on-repenser-le-fact-checking

    Contrairement à la croyance populaire, les fake news, les infox n’auraient pas l’impact qu’on leur prête un peu abusivement. Une étude tombe à point nommé pour réveiller un peu les esprits endormis et questionner l’utilité d’un des piliers du journalisme.

    Évidemment, ce type d’étude va être immédiatement décriée par l’ensemble des professionnels de l’information qui voient dans la vérification des faits un des piliers du métier. Pourtant, l’étude publiée dans le dernier Science Advances 1 donne matière à réflexion. Si les études sur les fausses informations en ligne ne manquent pas 2 3 4 5 elles semblent principalement restreindre leur champ d’investigation à des plates-formes précises (Twitter, Facebook, Whatsapp) et ne considèrent que leur écosystème, négligeant au passage une approche plus large, davantage ancrée dans le réel et l’expérience de tous, en considérant le paysage média disponible dans son ensemble. Celle-ci, plus large, avance en conclusion que l’impact des infox sur la population reste minimal, tant la portée initiale (le reach 6 ) de celles-ci est faible. Quelles autres questions soulèvent-elle ?

    #journalisme #information #infox #fake_news

  • Opinion | What We Pretend to Know About the Coronavirus Could Kill Us - The New York Times
    https://www.nytimes.com/2020/04/03/opinion/sunday/coronavirus-fake-news.html

    Article passionnant sur l’enjeu des fausses informations, sur la différence de temps entre la réflexion et la science d’un côté et les outils de l’information de l’autre. Les fausses informations se construisent sur la multiplicité des données disponibles. En ajoutant des chiffres et des courbes, les fake news adoptent un « effet de réel » qui les rend crédibles. Une vieille technique littéraire largement exploitée par la science fiction depuis Jules verne.

    (complément : je viens de trouver une version en français à : https://teles-relay.com/2020/04/03/opinion-ce-que-nous-pretendons-savoir-sur-le-coronavirus-pourrait-nous-)

    Other than a vaccine or an extra 500,000 ventilators, tests and hospital beds, reliable information is the best weapon we have against Covid-19. It allows us to act uniformly and decisively to flatten the curve. In an ideal pandemic scenario, sound information is produced by experts and travels quickly to the public.

    But we seem to be living in a nightmare scenario. The coronavirus emerged in the middle of a golden age for media manipulation. And it is stealthy, resilient and confounding to experts. It moves far faster than scientists can study it. What seems to be true today may be wrong tomorrow. Uncertainty abounds. And an array of dangerous misinformation, disinformation and flawed amateur analysis fills the void.

    On Friday, President Trump announced that the Centers for Disease Control and Prevention had changed the recommendation on masks to say that all Americans should use “non-medical, cloth” ones. “You can do it. You don’t have to do it. I’m choosing not to do it,” Mr. Trump said. “It’s only a recommendation.”

    But the reversal may prove costly for the World Health Organization’s and the C.D.C.’s credibility. As Zeynep Tufekci, a University of North Carolina professor, wrote in a Times Op-Ed weeks ago, a lack of transparency up front created its own information crisis. “What should the authorities have said?” she asked. “The full painful truth.”

    The fear and uncertainty around the coronavirus is, of course, fertile ground for extremists and hucksters. Alex Jones of Infowars is pushing a conspiracy theory that the virus is an American-made biological weapon and is directing viewers to purchase any number of overpriced vitamin products from his stores. People who believe the myth that 5G wireless signals are harmful to health have falsely linked the technology to Covid-19.

    The anti-vaccination movement is also capitalizing on the pandemic. The New York Times used the analytics tool CrowdTangle to survey 48 prominent anti-vax Instagram accounts and found that video views spiked from 200,000 in February to more than two million in March, just as the pandemic took off globally. Another Times analysis of anti-vax accounts showed a surge in followers during the last week of March. In private groups on Facebook, junk science and unproven treatment claims proliferate.

    But you don’t have to be a science denier to end up seduced by bad information. A pandemic makes us all excellent targets for misinformation. No one has natural immunity to this coronavirus, leaving us all threatened and looking for information to make sense of the world. Unfortunately, the pace of scientific discovery doesn’t match the speed of our information ecosystems. As Wired reported in March, researchers are moving faster than ever to understand the virus — so fast that it may be compromising some of the rigor.

    But much of the pernicious false news about the coronavirus operates on the margins of believability — real facts and charts cobbled together to formulate a dangerous, wrongheaded conclusion or news reports that combine a majority of factually accurate reporting with a touch of unproven conjecture.

    The phenomenon is common enough that it already has its own name: armchair epidemiology, which Slate described as “convincing but flawed epidemiological analyses.” The prime example is a Medium blog post titled “Covid-19 — Evidence Over Hysteria” by Aaron Ginn, a Silicon Valley product manager and “growth hacker” who argued against the severity of the virus and condemned the mainstream media for hyping it.

    Without a deeper knowledge of epidemiology or evolutionary biology, it would have been easy to be seduced by Mr. Ginn’s piece. This, according to Dr. Bergstrom, is what makes armchair epidemiology so harmful. Posts like Mr. Ginn’s “deplete the critical resource you need to manage the pandemic, which is trust,” he told me. “When people are getting conflicting messages, it makes it very hard for state and local authorities to generate the political will to take strong actions downstream.”

    It’s this type of misinformation on the margins that’s most insidious. “I am seeing this playbook more and more,” Dr. Bergstrom said. “Secondhand data showing a crisis narrative that feels just a bit too well crafted. Mixing the truth with the plausible and the plausible with that which seems plausibly true in a week.” Dr. Bergstrom argues that the advances in available data make it easier than ever for junk-science peddlers to appear legitimate.

    This hybrid of true and false information is a challenge for social media platforms. Covid-19 and the immediate threat to public health means that networks like Facebook, Twitter and YouTube have been unusually decisive about taking down misinformation. “In a case of a pandemic like this, when we are seeing posts that are urging people not to get treatment,” Facebook’s chief executive, Mark Zuckerberg, said recently, “that’s a completely different class of content versus the back-and-forth of what candidates may say about each other.”

    Facebook took down a video of Mr. Bolsonaro when it became clear he was using the platform to spread unproven claims that chloroquine was an effective cure for the coronavirus. Similarly, Twitter temporarily locked the account of Rudolph Giuliani, a former mayor of New York City and Mr. Trump’s personal lawyer, for violating Twitter’s rules on Covid-19 misinformation with regard to hydroxychloroquine treatments. Depending on how you feel about technology companies, this is either heartening progress or proof that the companies could have been doing far more to tamp down misinformation over the past five years.

    The platforms are slightly more prepared than they once were to counter public-health myths, having changed their policies around medical misinformation after measles outbreaks in 2019. “With measles there was a lot of available authoritative information about measles,” Ms. DiResta told me. “The difference with coronavirus is that until months ago, nobody had seen this virus before.”

    “The really big question that haunts me is, ‘When do we return to reality?’” Mr. Pomerantsev mused over the phone from his own quarantine. “Or is it that in this partisan age absolutely everything is chopped, cut and edited to fit a different view? I’m waiting for society to finally hit up against a shared reality, like diving into the bottom of swimming pool. Instead we just go deeper.”

    #Fake_news #Culture_numérique #Trolls #Coronavirus

  • Fake Off & révisionnisme

    Coronavirus : Attention à ces photos de manifestations de soignants qui datent de dix ans


    FAKE OFF Dans le contexte d’épidémie du coronavirus, attention à ces photos trompeuses de manifestation de personnels soignants, qui remontent à 2010

    Plusieurs photos de manifestations de soignants réprimées par les forces de l’ordre circulent sur les réseaux sociaux depuis quelques jours. « C’était le temps où l’on réclamait des moyens pour mieux prendre soin !! Qui avait raison ???? », indique notamment l’auteur de l’une de ces publications virales, suggérant ainsi que la récente mobilisation des soignants pour réclamer des moyens supplémentaires, avant la crise du coronavirus, était méprisée par l’exécutif et les forces de l’ordre.

    C’est assez fort cet article qui explique que l’executif et les forces de l’ordre qui réprimaient les soignantes c’était il y a 10 ans ! Comme si les seules photos dispo dataient de Sarko et comme si on avait pas exactement les mêmes avec plus de mains et d’yeux arrachés par la police et comme si les flics ne gazaient pas jusqu’à l’intérieur de l’hopital à la Salpêtrière le premier mai dernier.

    #révisionnisme #fake_news_au_carré

    • Bon rappel de ce qu’il y aura pas mal de monde sur le banc des accusés — pas seulement des marcheures.

  • Coronavirus. Nantes n’échappe pas aux fake news
    https://www.ouest-france.fr/pays-de-la-loire/loire-atlantique/coronavirus-nantes-n-echappe-pas-aux-fake-news-1619957a-6d30-11ea-8c90-
    https://media.ouest-france.fr/v1/pictures/MjAyMDAzMjc5ZDlhYTYwNzExMWU3OTM1NWU1ZDFlNjZiMDQ1OWQ?width=1260&he

    « "L’Armée est déjà sur place" ». Au soir de l’annonce présidentielle, le 17 mars, sur le confinement de la population, les réseaux sociaux se sont enflammés. Photo à l’appui d’un convoi de véhicules militaires, d’aucuns affirmaient sur Snapchat que l’armée avait déjà pris position à Nantes.

    En toute bonne foi, ce jeune Nantais a relayé auprès de son père le screen (capture d’écran) de ladite photo sur laquelle était mentionné : « "Le périphérique de Beaujoire. Rentrez chez vous ça démarre". Ni une ni deux, le père a repoussé l’information via Messenger. « "L’Armée est déjà sur place" ».
    « Je l’ai screenée sur le compte d’un ami qui l’avait lui-même screenée sur Snapchat »

    Sauf que les véhicules militaires en question, photographiés à travers le pare-brise d’une voiture ne sont pas des véhicules de l’Armée française. Et si la photo a bien été réalisée sur une voie rapide ou une route à quatre voies, rien ne permet de localiser précisément le lieu et encore moins de dire qu’il s’agît du périphérique nantais. L’information était fausse, comme l’ont confirmé les autorités militaires. Le jeune Nantais explique l’avoir « "screenée" » sur Snapchat. « "C’est un ami qui l’avait lui-même screenée sur le compte d’un ami qui lui-même l’avait déjà screenée chez un autre…" ». Le circuit classique des fake news et de la rumeur.

    Mais les réseaux sociaux ne sont pas les seuls vecteurs de fausses nouvelles. Le bouche-à-oreille fonctionne également à plein régime. Vendredi, avec le plus grand sérieux, un habitant du nord du département nous rapportait qu’une infirmière de 28 ans était décédée au CHU de Nantes du coronavirus. Il l’avait entendu au bureau de tabac d’une femme, très persuasive, qui tenait l’information d’une cousine dont la meilleure amie connaît le mari d’une aide-soignante… Là aussi, fausse information.
    « "La d" "iffusion d’informations fausses pour alimenter une certaine vie sociale a toujours existé"

    « "La d" "iffusion d’informations fausses pour alimenter une certaine vie sociale a toujours existé. C’est la même logique qui prévaut avec les réseaux sociaux, parfois avec la volonté de nuire ou de faire pression" », constate Olivier Ertzscheid, professeur d’information et de communication à l’Université de Nantes. « "Les réseaux offrent cependant un champ de développement plus rapide et plus large qui donne cette chaîne de viralité" ». Pour Olivier Ertzscheid, la banalisation des outils de trucage, que l’on trouve facilement sur Internet, favorise également le phénomène. « "N’importe qui peut récupérer une image sur Internet et y ajouter ce qu’il veut !" ».

    [ Presse Océan vous offre 2 mois d’abonnement numérique, sans engagement et sur simple création de compte. En savoir plus ]
    « Il faut se méfier de ce qui nourrit nos propres angoisses »

    Pour autant, les réseaux sociaux, restent à ses yeux, une source d’information vitale. « "Les fake news ne sont que la partie émergée de l’iceberg. L’essentielle de l’information qui figure sur les réseaux est vérifiée et validée". Quels sont alors les bons réflexes à adopter pour faire la part des choses sur les réseaux ? « "Il faut se méfier de ce qui nourrit nos propres angoisses et nos convictions. Si on lit quelque chose qui va dans notre sens, on aura tendance à moins vérifier avant de cliquer sur partager" ». Olivier Ertzscheid met également en garde contre l’élément contextuel : « "On voit réapparaître sur les réseaux, c’est notamment vrai sur Facebook, des articles anciens. Il faut donc toujours voir la source dans son contexte maximal, la provenance, la date…"

    #Fake_news #Coronavirus

  • You are fake news: political bias in perceptions of fake news - Sander van der Linden, Costas Panagopoulos, Jon Roozenbeek,
    https://journals.sagepub.com/doi/abs/10.1177/0163443720906992

    Although the rise of fake news is posing an increasing threat to societies worldwide, little is known about what associations the term ‘fake news’ activates in the public mind. Here, we report a psychological bias that we describe as the ‘fake news effect’: the tendency for partisans to use the term ‘fake news’ to discount and discredit ideologically uncongenial media sources. In a national sample of the US population (N = 1000), we elicited top-of-mind associations with the term ‘fake news’. Consistent with our hypothesis, we find evidence that both liberals and conservatives freely associate traditionally left-wing (e.g. CNN) and right-wing (e.g. Fox News) media sources with the term fake news. Moreover, conservatives are especially likely to associate the mainstream media with the term fake news and these perceptions are generally linked to lower trust in media, voting for Trump, and higher belief in conspiracy theories.

    #Fake_news #Association_idées

  • How to fight an infodemic - The Lancet
    https://www.thelancet.com/journals/lancet/article/PIIS0140-6736(20)30461-X

    WHO’s newly launched platform aims to combat misinformation around COVID-19. John Zarocostas reports from Geneva.
    WHO is leading the effort to slow the spread of the 2019 coronavirus disease (COVID-19) outbreak. But a global epidemic of misinformation—spreading rapidly through social media platforms and other outlets—poses a serious problem for public health. “We’re not just fighting an epidemic; we’re fighting an infodemic”, said WHO Director-General Tedros Adhanom Ghebreyesus at the Munich Security Conference on Feb 15.

    Kuzmanovic said, “In my role, I am in touch with Facebook, Twitter, Tencent, Pinterest, TikTok, and also my colleagues in the China office who are working closely with Chinese social media platforms…So when we see some questions or rumours spreading, we write it down, we go back to our risk communications colleagues and then they help us find evidence-based answers”.
    “Another thing we are doing with social media platforms, and that is something we are putting our strongest efforts in, is to ensure no matter where people live….when they’re on Facebook, Twitter, or Google, when they search for ‘coronavirus’ or ‘COVID-19’ or [a] related term, they have a box that…directs them to a reliable source: either to [the] WHO website to their ministry of health or public health institute or centre for disease control”, she said.
    Google, Kuzmanovic noted, has created an SOS Alert on COVID-19 for the six official UN languages, and is also expanding in some other languages. The idea is to make the first information that the public receive be from the WHO website and the social media accounts of WHO and Dr Tedros. WHO also uses social media for real-time updates.

    Carlos Navarro, head of Public Health Emergencies at UNICEF, the children’s agency, told The Lancet that while a lot of incorrect information is spreading through social media, a lot is also coming from traditional mass media.
    “Often, they pick the most extreme pictures they can find…There is overkill on the use of [personal protective equipment] and that tends to be the photos that are published everywhere, in all major newspapers and TV…that is, in fact, sending the wrong message”, Navarro said.
    David Heymann, professor of infectious disease epidemiology at the London School of Hygiene & Tropical Medicine, told The Lancet that the traditional media has a key role in providing evidence-based information to the general public, which will then hopefully be picked up on social media.
    He also observed that for both social and conventional media, it is important that the public health community help the media to “better understand what they should be looking for, because the media sometimes gets ahead of the evidence”.

    #Fake_news #COVID-19 #Infodemics

  • An Indian politician is using deepfake technology to win new voters - MIT Technology Review
    https://www.technologyreview.com/f/615247/an-indian-politician-is-using-deepfakes-to-try-and-win-voters

    On avait tendance à penser que les deepfakes servaient à moquer ou ridiculiser ses opposants. On a ici une forme intéressante : un candidat qui produit plusieurs deepfakes de son discours dans les diverses langues de l’Inde pour mieux le partager.

    The news: A deepfake of the President of India’s ruling Bharatiya Janata Party (BJP), Manoj Tiwari, went viral on WhatsApp in the country earlier this month, ahead of Legislative Assembly elections in Delhi, according to Vice. It’s the first time a deepfake has been used by a political party anywhere for campaigning purposes. In the original video Tiwari speaks in English, criticizing his political opponent Arvind Kejriwal and encouraging voters to vote for the BJP. The second video has been manipulated using deepfake technology so he is mouth moves convincingly as he speaks in the Hindi dialect of Haryanvi, whose people are target voters for the BJP.

    The purpose: The BJP has partnered with political communications firm The Ideaz Factory to create deepfakes which let it target voters across the over 20 different languages used in India. The party told Vice that the Tiwari deepfake reached approximately 15 million people across 5,800 WhatsApp groups.

    Causing alarm: This isn’t the first time deepfakes have popped up during a political campaign. For example, last December, researchers made a fake video of the two candidates in the UK’s general election endorsing each other. It wasn’t supposed to sway the vote however—merely to raise awareness about deepfake technology. This case in India seems to be the first time deepfakes have been used for a political campaign. The big risk is that we reach a point where people can no longer trust what they see or hear. In that scenario, a video wouldn’t even need to be digitally altered for people to denounce it as fake. It’s not hard to imagine the corrosive impact that would have on an already fragile political landscape.

    #Deepfake #Fake_news #Elections #Inde

  • Une étude d’impact truquée, nous publions les chiffres corrigés - Tout savoir sur la réforme des retraites
    https://reformedesretraites.fr/etude

    Publiée ce jour, l’étude d’impact du gouvernement de près de 1 000 pages tient plus de l’opération de communication que de l’éclairage sincère du débat parlementaire. Les cas-types présentés pour rendre compte de l’impact de la réforme sont délibérément faussés.

    Par conséquent, l’étude d’impact ne rend pas compte des conséquences du projet de réforme des retraites, ce qui est pourtant l’objectif que la Constitution lui assigne. De plus elle est volontairement trompeuse quant aux résultats de la réforme.

    Le projet de loi indique clairement (article 10) que l’âge d’équilibre du système à points sera amené à évoluer d’une génération à l’autre (par défaut, de l’équivalent des deux tiers des gains d’espérance de vie de la génération en question). Mais, au moment de comparer les résultats du système à points avec le système actuel, le gouvernement rétropédale : tous les cas types sont présentés avec un âge d’équilibre gelé à 65 ans, ce qui conduit à faire disparaître une partie du malus. Ce choix est à la fois en contradiction avec le chiffrage macro-économique de l’étude d’impact (qui inclut un âge d’équilibre glissant), et avec le texte de la loi.

    Le collectif Nos retraites a donc redressé les données des 28 cas-types du gouvernement, en les corrigeant de cet effet trompeur d’un âge d’équilibre fixe et non évolutif comme le prévoit le projet de loi. Alors que pour la génération 1990 le gouvernement présente 21 situations sur 28 comme avantageuses avec un départ à la retraite à 64 ans, elles ne sont plus que 10 une fois que les données ont été redressées. Pour cette génération, les retraité·e·s perdent 7 % du niveau de leur pension avec nos corrections, 7 % qui ont donc été indûment ajoutés dans l’étude d’impact.

    De nombreuses inquiétudes sont confirmées par cette étude et méritent d’être soulignées :

    Les femmes avec enfants sont les grandes perdantes du passage au système Macron, en particulier pour un départ avant l’âge d’équilibre. Une femme, née en 1990 (au SMIC, 2 enfants) qui part à 62 ans, perdra ainsi 15 % de ses droits par rapport au système actuel.
    Dans le système à points, les employé·e·s perdent beaucoup plus que les cadres supérieur·e·s. Ces dernier·e·s seront ainsi “gagnant·e·s” quel que soit leur âge de départ, alors que les employé·e·s seront perdant·e·s pour tout départ avant 66 ans.

    #retraites #fake_news_gouvernementales #chiffres

  • #Incendies en #Australie : les climatosceptiques derrière une grande campagne de #désinformation | LCI
    https://www.lci.fr/planete/incendies-australie-les-climatosceptiques-derriere-une-grande-campagne-de-desinf

    Des chercheurs ont ainsi observé que la crise actuelle avait donné lieu à une campagne de désinformation « sans précédent » dans l’histoire du pays, avec des "#bots" (programmes informatiques qui envoient automatiquement des messages) déployés pour défendre l’idée que les feux ne sont pas liés au réchauffement climatique.

    Alors que des médias, des sites et des hommes politiques conservateurs du monde entier défendent l’idée que les feux seraient en fait criminels, le hashtag #arsonemergency ("urgence incendie criminel") est notamment utilisé en force sur les réseaux sociaux.

    Timothy Graham, expert des médias numériques à l’Université de technologie du Queensland, explique à l’AFP que, selon ses recherches, la moitié des comptes #Twitter utilisant ce #hashtag semblent se comporter comme des « bots » ou des « #trolls », ces internautes publiant des messages intentionnellement provocateurs. « Nos conclusions révèlent un effort concerté pour désinformer le public sur les causes des #feux_de_forêt », indique-t-il. « Cette campagne est sans comparaison dans son ampleur avec ce qu’on a pu voir dans d’autres pays, comme lors de la présidentielle américaine de 2016, mais ce niveau de désinformation en Australie est sans précédent. »

    #climat

  • States sur les condamnations pour viol en france
    https://www.youtube.com/watch?v=jxJbnQNrafk

    Dans cette video il est expliqué que les condamnations pour viol sont en augmentation depuis 10 ans il va meme jusqu’a prétendre que cette progression est en augmentation en synchronisation avec l’augmentation des dépôts de plainte.
    Or j’ai plutot lu l’inverse du coup j’ai été vérifié ce info et ce prétendu zététicien dit n’importe quoi et ne fournis bien sur aucune source pour ces grosses intoxes.

    condamnations pour viol
    2007 = 1 652
    2010 = 1.342
    2011 = 1.257
    2012 = 1.271
    2013 = 1.196
    2014 = 1.066
    2015 = 1.024
    2016 = 1.003

    Source https://fr.statista.com/statistiques/953012/condamnations-pour-viol-france

    ___

    states du ministère
    http://www.justice.gouv.fr/art_pix/Annuaire_ministere-justice_2018_CHAPITRE_8.pdf

    Voici les infos - en premier les condamnations pour viol sur majeur·es puis condamnation pour viol sur mineur·es

    2013 = 735 + 463 = 1198
    2014 = 656 + 410 = 1066
    2015 = 623 + 401 = 1024
    2016 = 563 + 457 = 1020
    2017 = 576 + 472 = 1048
    2018 = 527 + 501 = 1024

    Il y a bien une baisse du nombre de condamnations pour viol alors que les dépôts de plaintes augmentent.

    #viol #statistiques

    • J’ai repensé à ta remarque @marclaime ; « Savoir raison garder »

      C’est amusant car tu constitue le maillon d’une chaine de plusieurs hommes raisonneurs raisonnables qui m’as justement conduit à faire ce poste.

      A l’origine j’étais agacée par la posture « raisonnablement » sexiste de la chaine Youtube « la tronche en biais » qu’ils appellent entre eux « la teub ». Cette chaine comporte un gros biais masculiniste alors qu’elle se revendique de la raison et d’une posture scientifique la plus neutre et objective possible. Elle fait une audience importante pour de la zététique avec très peu de femmes invités et beaucoup de commentaires sexistes du présentateur, sur la question du féminisme, ils ont invité Peggy Sastre qui est entre autre l’autrice de la pétition sur la liberté (pour les hommes) d’importuner (sexuellement les femmes). Le prochain numéro de la Teb sera sur la chasse aux sorcières et le spécialiste invité sera encore une fois un homme.
      Donc agacée par la TEB je cherche si il y a des critiques de ce masculinisme de la TEB chez des zététicien·nes de zététicien·nes. Je tape « zététique + féminisme »
      Je tombe d’abord sur ce youtubeur « hypnomachie » :
      https://www.youtube.com/watch?v=ApBtsVvwXfA


      Qui explique que le féminisme n’a pas lieu d’être car les femmes transmettent 60% de leur ADN à leur progéniture lorsque les hommes ne transmette que 40% du leur... #WTF Ce youtubeur n’utilise pas le conditionnel, il ne fournis aucune source, et je passe sur la débilité de son idée que la transmission d’ADN annulerait le bien fondé de l’égalité politique entre les sexes. Ce raisonnement par la nature et l’ADN me fait d’ailleurs pensé à la #phallosophie nazie tel que décrite par Chapoutot https://seenthis.net/messages/819928

      Le youtubeur d’hypomachie est interpellé en commentaire, plusieurs personnes lui demandent ses sources, il n’en fournis aucune et se contente de répondre « ca dépend ce qu’on entend par ADN »...

      Après ce mâle raisonnement sur les femmes sensé démonté un autre mâle raisonnement sur les femmes, Youtube me propose la vidéo que j’ai mis en début de ce poste. Cette fois le youtubeur « les Echanges de Savoirs de Sénart ESS »
      à l’air un peu moins machiste que celui d’hypomachie. Mais il dit quant même n’importe quoi avec les meilleurs intentions du monde. Il ne source pas et il fait la morale aux victimes de viol en leur disant d’aller porter plainte car il en est certain, les condamnations augmentent en rapport au nombre de dépôt de plaintes...

      Du coup je prend du temps pour vérifié cette #fake_News , je fournis une source sérieuse. Ce youtubeur a d’ailleurs répondu qu’il était effectivement dans l’erreur, j’espère qu’il saisira l’occasion de faire une vidéo là dessus et réfléchir sur ses biais masculins. Et après ceci, malgré la documentation que je fournis sur seenthis sur les condamnations pour viols, à nouveau un homme m’explique en deux lignes expéditives, que selon lui je ne sais pas garder ma raison car les condamnations pour les délits doivent être confondus avec celles pour les crimes.

      Comme si l’impunité des viols pouvait être comptabilisé pour exactement l’inverse de ce que c’est.
      Et comme si il était déraisonnable pour une femme d’osé seulement prétendre vouloir raisonner.

      #dissonance_statistique #dissonance_cognitive #male_gaze #déni #culture_du_viol #fraternité #paternalisme #correctionnalisation #euphémisation #raison #hystérie
      #inversion_patriarcale #sexisme

    • « Raison garder » était de trop, il était possible d’apporter un argument sans suggérer qu’une femme était hors de sa raison...

      @antonin1 Je ne sais pas ou tu voie des arguments, je n’ai vu qu’une affirmation fausse et hors sujet qui témoigne d’une très forte solidarité avec les violeurs et d’un mépris profond pour les victimes.
      « raison gardé » n’est pas que de trop, il est le reflet du sexisme de @marclaime

    • Suggérer que la correctionnalisation est l’une des raisons de l’invisibilité de ces condamnations, pour moi c’est un argument. Après, je comprends que ça te fasse déconsidérer des arguments qui s’inscrivent dans un cadre sexiste comme ce « raison garder ».

    • C’est pas ce que j’ai compris des propos de @marclaime
      il ne parle pas d’invisibilisation, il dit que les correctionnalisations sont des condamnations pour viol qu’il serait raisonnable de confondre et comptabilisé avec les condamnations pour viols aux assisses.

      Moi je parle des condamnations pour viol par la justice française et uniquement de cela. Qu’est ce que j’en ai à faire de comptabilisé les condamnations pour des délits si je parle des condamnations pour des crimes ? Dans le meilleur des cas cette remarque est hors sujet mais comme c’est introduit par une remarque sexiste c’est pas seulement du hors sujet, c’est du déni de dominant enrobé de condescendance. C’est aussi de mansplanning car je suis tout de meme bien informé des correctionnalisations et c’est bien pour ca que j’ai documenté depuis des années ce sujet et que je parle ici des seuls condamnations aux assises et que j’ai pris la peine de l’expliqué dans mon poste.

  • Comment les Gafam sont devenus, en dix ans, des puissances impériales – Economie | L’Opinion
    https://www.lopinion.fr/edition/wsj/comment-gafam-sont-devenus-en-dix-ans-puissances-imperiales-206796

    Un bon résumé des conséquences de la concentration des géants de l’internet sur la confiance dans ce réseau

    Le tournant de la perception du public à l’égard des entreprises de la tech s’est produit en 2016, dans le sillage du référendum britannique sur le Brexit et de la présidentielle américaine, explique Margaret O’Mara, professeur d’histoire à l’université de Washington. Les autorités américaines sont arrivées à la conclusion que la Russie s’est ingérée dans les élections aux Etats-Unis en déversant des éléments de propagande sur les réseaux sociaux. Moscou est également accusée d’avoir joué un rôle similaire dans le référendum sur le Brexit.

    « On s’attendait à ce que ces entreprises aient le contrôle de leurs créations », note le professeur O’Mara. « Maintenant, cela ressemble davantage au monstre de Frankenstein. » Facebook, YouTube de Google et Amazon ont permis une croissance sans entrave de leurs plateformes depuis si longtemps qu’elles sont devenus difficiles à surveiller.

    Les sentiments des Américains à l’égard des entreprises de la tech ont changé de manière notable ces dernières années. Un sondage du Pew Research Center de juillet a montré que les adultes américains les classent au deuxième rang - derrière les églises et les organisations religieuses - pour leur impact positif sur le pays. Mais le pourcentage de ceux qui sont de cet avis cette année n’était que de 50 %, contre 71 % en 2015. Quant à ceux estimant que les entreprises de la tech ont un impact négatif, ils sont passés de 17 % à 33 %.

    Figurant au rang des plus grandes inquiétudes, Facebook a été utilisé pour diffuser des fakes news et des théories conspirationnistes, promouvoir le génocide et diffuser en direct une fusillade de masse en Nouvelle-Zélande.

    YouTube fait face à plusieurs des mêmes critiques. Il a construit des algorithmes conçus pour maximiser le « temps de visionnage » qui ont également aidé les théoriciens du complot à se constituer une audience massive. Fin 2016 et début 2017, son créateur de contenu numéro un, Felix « PewDiePie » Kjellberg, a diffusé à plusieurs reprises des images nazies et du contenu antisémite à ses plus de 50 millions d’abonnés à l’époque. Il a même été célébré par le principal site web néo-nazi. M. Kjellberg disaient à l’époque que ces contenus n’étaient qu’une « blague ».

    L’énorme main-d’œuvre contractuelle embauchée par les entreprises a eu du mal à suivre le rythme du volume de contenu violent, pornographique et autre contenu illégal qui est uploadé chaque minute.

    Dans le même temps, les entreprises sont critiquées pour leur pouvoir de déterminer ce que nous voyons et ne voyons pas.

    « Ces individus ne devraient pas décider quels discours sont autorisés dans le monde », pense Zeynep Tufekci, une professeure de l’Université de Caroline du Nord qui étudie l’impact de la technologie sur la société. Elle les décrit comme des « entités souveraines de facto » étant donné leur échelle massive, et rappelle comment, chez Facebook et Alphabet, la prise des décisions revient en ultime ressort à leurs fondateurs. Mark Zuckerberg, chez Facebook, dirige son empire par le biais du contrôle des actions, tout comme Larry Page et Sergey Brin chez Alphabet, bien que ces deux derniers aient récemment abandonné leurs postes de dirigeants.

    #Internet #Fake_news #Censure #Désamour #Médias_sociaux

  • Des medias, à droite sans vergogne | Le Club de Mediapart
    https://blogs.mediapart.fr/yves-faucoup/blog/181219/des-medias-droite-sans-vergogne

    Sur France Inter hier matin [17 décembre], Agnès Buzyn dit que le rapport Delevoye de juillet a été loué par toutes les forces syndicales : faux.

    Elle dit que la réforme est favorable aux femmes et aux carrières hachées : faux. Elle dit que les femmes actuellement n’ont pas de bonus pour le premier et le deuxième enfant : vrai pour ce qui est du montant de la pension, faux pour ce qui est de la durée de cotisation puisque les femmes gagnaient jusqu’à présent deux années par enfant, ce qui pouvait leur éviter la décote pour trimestres insuffisants. Et le bonus pourra être utilisé par l’homme du fait de salaire plus élevé.

    Elle dit que la réforme apporte des droits nouveaux : 1000 € minimum (85% du Smic). En réalité : sous réserve d’une carrière complète. Mesure déjà existante à 81% du Smic et dont le passage à 85% était prévu par une loi de... 2003.

    En réponse à une question, elle nie que cette réforme puisse réjouir les assureurs et donne pour exemple le fait que la réforme assure une retraite à toute personne qui perçoit un salaire allant jusqu’à 10.000 € par mois. Seuls ceux qui gagnent plus de 10.000 € pourraient faire appel à une assurance par capitalisation. Elle fait mine de ne pas comprendre que la réforme dans son ensemble, dans la mesure où elle attribuera des pensions réduites par rapport au système actuel (ne serait-ce que par le fait que toutes les années seront pris en compte y compris les mauvaises contrairement au calcul actuel), les assurés devront faire appel à des assurances complémentaires. [Sur ce point, je note qu’un aspect de la réforme n’est presque jamais évoqué : les retraites complémentaires (Agirc-Arrco) disparaissent.]

    Elle a semblé admettre que l’âge pivot (à 64 ans), qui a mis la CFDT en colère pourrait être abandonné puisque de toutes façons l’âge moyen de départ est déjà 63,5 ans, très bientôt 64 (pour avoir 42 ans de cotisation ceux qui ont commencé à travailler à 22 ans doivent travailler jusqu’à 64, et beaucoup d’autres à 65, 66, 67 ans). Ce qui pourrait signifier que le pouvoir fait de la provocation avec son âge pivot, que par ailleurs il pourra abandonner sans que cela change grand-chose tout en satisfaisant Laurent Berger.

    Je ne déroule pas ce qu’elle a dit sur l’hôpital : seulement le fait que, comme tout ministre macroniste, il a fallu qu’elle nous prouve son attachement à l’hôpital par le fait qu’elle y a travaillé, et que toute sa famille y travaille (le mari, les enfants). Un peu comme Darmanin qui recycle régulièrement sa mère, sa grand-mère, son grand-père, Sibeth Ndiaye son beau-père.

    Quand la politique n’est pas sûre d’elle, elle fonctionne à l’affect.

  • Making deepfake tools doesn’t have to be irresponsible. Here’s how. - MIT Technology Review
    https://www.technologyreview.com/s/614912/ethical-deepfake-tools-a-manifesto

    Synthetic media technologies—popularly known as deepfakes—have real potential for positive impact. Voice synthesis, for example, will allow us to speak in hundreds of languages in our own voice. Video synthesis may help us simulate self-driving-car accidents to avoid mistakes in the future. And text synthesis can accelerate our ability to write both programs and prose. 

    But these advances can come at a gargantuan cost if we aren’t careful: the same underlying technologies can also enable deception with global ramifications. 

    Thankfully, we can both enable the technology’s promise and mitigate its peril. It will just take some hard work.

    Approach 2: Discouraging malicious use
    For synthetic media tools that are general and may be made widely available, there are still many possible ways to reduce malicious use. Here are some examples.

    – Clear disclosure: Request that synthesized media be clearly indicated as such—particularly material that might be used to mislead. Tools may be able to support this by including clear visual or audible notices in output files, such as visible warnings or spoken disclosures. At minimum, metadata should indicate how media was synthesized or manipulated.
    – Consent protection: Require the consent of those being impersonated. The voice cloning tool Lyrebird requires users to speak particular phrases in order to model their voice. This makes it more difficult to impersonate someone without consent, which would be very possible if it simply generated voices using any provided data set. This, of course, is applicable only for tools that enable impersonation.
    – Detection friendliness: Ensure that the synthesized media is not inordinately difficult to detect; keep detector tools up to date; collaborate with those working on detection to keep them in the loop on new developments.
    – Hidden watermarks: Embed context about synthesis—or even the original media—through robust watermarks, both using methods that are accessible to anyone with the proper tools, and through approaches that are secret and difficult to remove. (For example, Modulate.ai watermarks audio that it generates, while products like Imatag and their open-source equivalents enable watermarking for imagery.)
    – Usage logs: Store information about usage and media outputs in a way that researchers and journalists can access to identify if, for example, a video was probably synthesized using a particular tool. This could include storing timestamps of synthesis with a robust hash or media embedding.
    – Use restrictions: Provide and enforce contractual terms of use that prohibit and penalize unwanted actions, such as attempting to remove disclosures or watermarks, or violating the consent of other people. A stronger version of this approach involves explicitly elaborating allowed uses of the technology or resulting outputs.

    Not all these strategies are applicable to every system. Some may have their risks, and none are perfect—or sufficient on their own. They are all part of a “defense in depth,” where more is more.

    #Deep_fakes #Deepfakes #Fake_news #Ethique

  • Inside the hate factory: how #Facebook fuels far-right profit | Australia news | The Guardian
    https://www.theguardian.com/australia-news/2019/dec/06/inside-the-hate-factory-how-facebook-fuels-far-right-profit

    Revealed: Ilhan Omar and Rashida Tlaib targeted in far-right #fake_news operation | Facebook | The Guardian
    https://www.theguardian.com/technology/2019/dec/05/ilhan-omar-rashida-tlaib-targeted-far-right-fake-news-operation-faceboo

    Israeli-based group uses Facebook to spread disinformation to more than a million followers around the world, singling out Muslim US congresswomen

    #sionisme #extrême_droite #désinformation #islamophobie

  • Retraites : la fake news de Monsieur Seux - regards.fr
    http://www.regards.fr/politique/article/retraites-la-fake-news-de-monsieur-seux

    La statistique ne porte pas sur la durée moyenne de vie passé à la retraite par l’ensemble des Français. L’âge moyen de liquidation des droits à la retraite est de 62,7 ans. L’espérance de vie moyenne des personnes, nées en France il y a 60 ans, était à la naissance de 66 ans pour les hommes et de 71,5 ans pour les femmes. Si l’on exclut celles et ceux qui sont morts avant 20 ans cela rajoute un peu plus d’un an d’espérance de vie moyen. On a donc pour tous les Français qui ont pu cotiser pour leur retraite, une durée moyenne de temps passé à la retraite de l’ordre de 5 à 6 ans pour les hommes et inférieure à 10 ans pour les femmes. On est loin, très loin, des Français qui passeraient 25 ans en moyenne à la retraite.

    #retraite #chiffres #fake_news

  • Advertisement feature: M. Moleiro Editor - HistoryExtra

    https://www.historyextra.com/advertisement-feature-m-moleiro-editor

    Atlas Miller: Cartographic fake news and the Magellan expedition

    Drawn in 1519 by Lopo Homem, Pedro Reinel and his son Jorge Reinel, with illuminations that are the work of António de Holanda, the so-called Atlas Miller is – in aesthetic terms – the culminating wonder of 16th-century Portuguese cartography.

    From an aesthetic point of view, it is undoubtedly the most luxurious work of its kind, which suggests that its royal sponsor King Manuel I of Portugal (r. 1495-1521) commissioned it as an official state gift. It can even be deemed to be a propaganda tool for Manueline imperialism, tinged with messianic airs. The illuminations give off a sense of optimism, as the exotica – elephants, camels, American fauna, brazilwood, imposing Oriental cities and even the griffin and dragon among Asia’s mythological fauna – becomes familiar, and the richness seems to be overabundant, heaping possessions upon the needy and uplifting the humble.

    #cartographie #cartographie_ancienne #fake_news #manipulations

  • Internet Companies Prepare to Fight the ‘Deepfake’ Future - The New York Times
    https://www.nytimes.com/2019/11/24/technology/tech-companies-deepfakes.html

    Deepfakes — a term that generally describes videos doctored with cutting-edge artificial intelligence — have already challenged our assumptions about what is real and what is not.

    In recent months, video evidence was at the center of prominent incidents in Brazil, Gabon in Central Africa and China. Each was colored by the same question: Is the video real? The Gabonese president, for example, was out of the country for medical care and his government released a so-called proof-of-life video. Opponents claimed it had been faked. Experts call that confusion “the liar’s dividend.”

    Though activists and artists occasionally release deepfakes as a way of showing how these videos could shift the political discourse online, these techniques are not widely used to spread disinformation. They are mostly used to spread humor or fake pornography, according to Facebook, Google and others who track the progress of deepfakes.

    Right now, deepfake videos have subtle imperfections that can be readily detected by automated systems, if not by the naked eye. But some researchers argue that the improved technology will be powerful enough to create fake images without these tiny defects. Companies like Google and Facebook hope they will have reliable detectors in place before that happens.

    “In the short term, detection will be reasonably effective,” said Mr. Kambhampati, the Arizona State professor. “In the longer term, I think it will be impossible to distinguish between the real pictures and the fake pictures.”

    #Fake_news #Deepfakes #Plateformes

  • Mapping the Deepfake Landscape - Deeptrace
    https://deeptracelabs.com/mapping-the-deepfake-landscape

    Our research revealed that the deepfake phenomenon is growing rapidly online, with the number of deepfake videos almost doubling over the last seven months to 14,678. This increase is supported by the growing commodification of tools and services that lower the barrier for non-experts to create deepfakes. Perhaps unsurprisingly, we observed a significant contribution to the creation and use of synthetic media tools from web users in China and South Korea, despite the totality of our sources coming from the English-speaking Internet.

    Another key trend we identified is the prominence of non-consensual deepfake pornography, which accounted for 96% of the total deepfake videos online. We also found that the top four websites dedicated to deepfake pornography received more than 134 million views on videos targeting hundreds of female celebrities worldwide. This significant viewership demonstrates a market for websites creating and hosting deepfake pornography, a trend that will continue to grow unless decisive action is taken.

    Non seulement c’est la pornographie qui est le support des deepfakes, mais ce sont les visages des femmes qui sont visés.

    #Fake_news #Deepfakes #Pornographie #Culture_viol

  • « Deepfakes » : faut-il avoir peur de ces vidéos trafiquées ?
    https://www.lemonde.fr/pixels/article/2019/11/24/deepfakes-faut-il-avoir-peur-de-ces-videos-trafiquees_6020333_4408996.html

    Les regards se tournent aussi vers les grandes plates-formes où ces vidéos sont diffusées. Certaines, comme le site pornographique Pornhub, les ont interdites dans leur règlement – il en subsiste toutefois, comme nous avons pu le constater. Du côté des grands réseaux sociaux, on reste frileux : pas de traitement particulier chez Facebook, et Twitter a évoqué l’idée de signaler, sans les interdire, les deepfakes aux internautes. Certaines grandes entreprises comme Google, Facebook et Microsoft encouragent par ailleurs la création de logiciels de détection à travers des concours.

    Mais les géants du Web ne se concentrent peut-être pas sur le vrai problème, laisse entendre Alexandre Alaphilippe :

    « On se focalise trop sur la création de la désinformation, qui de toute façon va exploser. Mais il faut aussi s’intéresser à la façon dont ce contenu est distribué. Pourquoi à partir d’une vidéo de rats sur YouTube, vous tombez en deux clics sur une vidéo sur l’immigration ? On ne peut pas mettre toutes les ressources sur la recherche pour repérer les deepfakes, il faut aussi en faire sur les algorithmes de recommandation. »

    L’histoire montre que l’existence même de la technologie contribue à semer le doute, et celui-ci peut être exploité pour manipuler l’opinion. Comme l’expliquait Claire Wardle, directrice exécutive de l’association de lutte contre la désinformation First Draft au New York Times : « Ce qui m’empêche de dormir n’est pas tant la technologie, mais comment est-ce qu’en tant que société, nous réagissons face à l’idée que nous ne pouvons plus croire ce que nous voyons ou ce que nous entendons. »

    #Fake_news #Deepfakes

  • Sacha Baron Cohen’s Keynote Address at ADL’s 2019 Never Is Now Summit on Anti-Semitism and Hate | Anti-Defamation League
    https://www.adl.org/news/article/sacha-baron-cohens-keynote-address-at-adls-2019-never-is-now-summit-on-anti-sem

    A propos de la logique marchande délétère, meurtrière des #GAFAM.

    I’m just a comedian and an actor, not a scholar. But one thing is pretty clear to me. All this hate and violence is being facilitated by a handful of #internet companies that amount to the greatest propaganda machine in history.

    The greatest propaganda machine in history.

    Think about it. #Facebook, #YouTube and #Google, #Twitter and others—they reach billions of people.

    [...]

    ... when discussing the difficulty of removing content, Zuckerberg asked “where do you draw the line?” Yes, drawing the line can be difficult. But here’s what he’s really saying: removing more of these lies and conspiracies is just too expensive.

    [...]

    ... if you pay them, Facebook will run any “political” ad you want, even if it’s a lie. And they’ll even help you micro-target those lies to their users for maximum effect. Under this twisted logic, if Facebook were around in the 1930s, it would have allowed Hitler to post 30-second ads on his “solution” to the “Jewish problem.”

    [...]

    Maybe it’s time to tell Mark Zuckerberg and the CEOs of these companies: you already allowed one foreign power to interfere in our elections, you already facilitated one genocide in Myanmar, do it again and you go to jail.

    #fake_news #silicon_valley

  • Inside Purdue Pharma’s Media Playbook : How It Planted the Opioid “Anti-Story” — ProPublica
    https://www.propublica.org/article/inside-purdue-pharma-media-playbook-how-it-planted-the-opioid-anti-story

    In 2004, Purdue Pharma was facing a threat to sales of its blockbuster opioid painkiller OxyContin, which were approaching $2 billion a year. With abuse of the drug on the rise, prosecutors were bringing criminal charges against some doctors for prescribing massive amounts of OxyContin.

    That October, an essay ran across the top of The New York Times’ health section under the headline “Doctors Behind Bars: Treating Pain is Now Risky Business.” Its author, Sally Satel, a psychiatrist, argued that law enforcement was overzealous, and that some patients needed large doses of opioids to relieve pain. She described an unnamed colleague who had run a pain service at a university medical center and had a patient who could only get out of bed by taking “staggering” levels of oxycodone, the active ingredient in OxyContin. She also cited a study published in a medical journal showing that OxyContin is rarely the only drug found in autopsies of oxycodone-related deaths.

    “When you scratch the surface of someone who is addicted to painkillers, you usually find a seasoned drug abuser with a previous habit involving pills, alcohol, heroin or cocaine,” Satel wrote. “Contrary to media portrayals, the typical OxyContin addict does not start out as a pain patient who fell unwittingly into a drug habit.”

    The Times identified Satel as “a resident scholar at the American Enterprise Institute and an unpaid advisory board member for the Substance Abuse and Mental Health Services Administration.” But readers weren’t told about her involvement, and the American Enterprise Institute’s, with Purdue.

    Among the connections revealed by emails and documents obtained by ProPublica: Purdue donated $50,000 annually to the institute, which is commonly known as AEI, from 2003 through this year, plus contributions for special events, for a total of more than $800,000. The unnamed doctor in Satel’s article was an employee of Purdue, according to an unpublished draft of the story. The study Satel cited was funded by Purdue and written by Purdue employees and consultants. And, a month before the piece was published, Satel sent a draft to Burt Rosen, Purdue’s Washington lobbyist and vice president of federal policy and legislative affairs, asking him if it “seems imbalanced.”

    Purdue’s tactics are reminiscent of the oil and gas industry, which has been accused of promoting misleading science that downplays its impact on climate change, and of big tobacco, which sought to undermine evidence that nicotine is addictive and secondhand smoke is dangerous.

    Media spinning was just one prong of Purdue’s strategy to fend off limits on opioid prescribing. It contested hundreds of lawsuits, winning dismissals or settling the cases with a provision that documents remain secret. The company paid leading doctors in the pain field to assure patients that OxyContin was safe. It also funded groups, like the American Pain Foundation, that described themselves as advocates for pain patients. Several of those groups minimized the risk of addiction and fought against efforts to curb opioid use for chronic pain patients.

    She has become an influential voice on opioids, addiction and pain treatment. Her writings have been published in The Wall Street Journal, USA Today, The Atlantic, Slate, Health Affairs, Forbes, Politico and elsewhere. She frequently appears on panels, television shows and in newspaper articles as an expert on the opioid crisis and pain prescribing guidelines. “We’ve entered a new era of opiophobia,” she recently told The Washington Post.

    Satel has been a resident scholar at the American Enterprise Institute since 2000. Among the notable figures who have spent time at AEI are the late Supreme Court Justice Antonin Scalia and former Trump national security adviser John Bolton. Current fellow Scott Gottlieb returned to AEI this year after serving as commissioner of the U.S. Food and Drug Administration, which approves and regulates prescription drugs like OxyContin.

    Purdue said its annual payments of $50,000 to AEI were part of the institute’s corporate program. That program offers corporations the opportunity to “gain access to the leading scholars in the most important policy areas for executive briefings and knowledge sharing,” according to the institute’s website.

    Purdue’s counterattack against an ambitious investigative series about OxyContin abuse may have contributed to that drop. An October 2003 series in the Orlando Sentinel, “OxyContin Under Fire,” found that Purdue’s aggressive marketing combined with weak regulation had contributed to “a wave of death and destruction.”

    The series, however, was marred by several errors that were detailed in a front-page correction nearly four months later. The reporter resigned, and two editors on the series were reassigned. While acknowledging the mistakes, the newspaper did not retract the series, and its review upheld the conclusion that oxycodone was involved in a large number of the overdoses in Florida.

    Dezenhall Resources, in an email, took credit for forcing the newspaper to issue the corrections. “Dezenhall’s efforts resulted in a complete front-page retraction of the erroneous 5-day, 19-part, front-page Orlando Sentinel series,” Hershow wrote in a 2006 email summarizing Dezenhall’s work for Purdue under the subject line “Success in Fighting Negative Coverage.”

    Purdue officials and the company’s public relations agencies came up with a 13-point plan to generate media coverage of the errors. It included getting a doctor to talk about how the series “frightened and mislead (sic) the people of Florida” and having a pain patient write a newspaper opinion column on the subject. The Sentinel series, one Purdue official wrote to other company executives and Dezenhall’s Hershow, was an opportunity to let the country know about “all of the sensational reporting on OxyContin abuse over the past 4 years. The conclusion: this is the most overblown health story in the last decade!”

    In the six years after Purdue challenged the Sentinel’s findings, the death rate from prescription drugs increased 84.2% in Florida. The biggest rise, 264.6%, came from deaths involving oxycodone. The state became a hotbed for inappropriate opioid prescribing as unscrupulous pain clinics attracted out of state drug seekers. The route traveled by many from small towns in Appalachia to the Florida clinics was nicknamed the “Oxycontin Express.”

    In 2017, 14 years after the Sentinel series was published, the Columbia Journalism Review described it as “right too soon” and said it “eerily prefigured today’s opioid epidemic.”

    Purdue also added Stu Loeser to its stable. The head of an eponymous media strategy company, Loeser was press secretary for Michael Bloomberg when he was mayor of New York City, and he is now a spokesman for Bloomberg’s possible presidential bid.

    Soon after Loeser began representing Purdue, Satel wrote in a 2018 piece for Politico headlined, “The Myth of What’s Driving the Opioid Crisis,” about “a false narrative” that the opioid epidemic “is driven by patients becoming addicted to doctor-prescribed opioids.”

    Loeser told Purdue executives in an email that “we are going to work with AEI to ‘promote’ this so it comes across as what it is: their thoughtful response to other writing.” His team was working to target the Satel story “to land in social media feeds of people who have searched for opioid issues and potentially even people who have read specific stories online,” he added.

    Loeser said in an interview that he didn’t end up working with AEI to promote the story. He said Purdue is no longer a client.

    Une belle bande d’ordures accoquinée avec une brochette de journaux peu regardants (quoique parmi les meilleurs du monde, ce qui est encore plus inquiétant).

    #Opioides #Sackler #Purdue_Pharma #Médias #Fake_news #Conflits_intérêt #Complicités #New_York_Times #Public_relation