• How to fight an infodemic - The Lancet
    https://www.thelancet.com/journals/lancet/article/PIIS0140-6736(20)30461-X

    WHO’s newly launched platform aims to combat misinformation around COVID-19. John Zarocostas reports from Geneva.
    WHO is leading the effort to slow the spread of the 2019 coronavirus disease (COVID-19) outbreak. But a global epidemic of misinformation—spreading rapidly through social media platforms and other outlets—poses a serious problem for public health. “We’re not just fighting an epidemic; we’re fighting an infodemic”, said WHO Director-General Tedros Adhanom Ghebreyesus at the Munich Security Conference on Feb 15.

    Kuzmanovic said, “In my role, I am in touch with Facebook, Twitter, Tencent, Pinterest, TikTok, and also my colleagues in the China office who are working closely with Chinese social media platforms…So when we see some questions or rumours spreading, we write it down, we go back to our risk communications colleagues and then they help us find evidence-based answers”.
    “Another thing we are doing with social media platforms, and that is something we are putting our strongest efforts in, is to ensure no matter where people live….when they’re on Facebook, Twitter, or Google, when they search for ‘coronavirus’ or ‘COVID-19’ or [a] related term, they have a box that…directs them to a reliable source: either to [the] WHO website to their ministry of health or public health institute or centre for disease control”, she said.
    Google, Kuzmanovic noted, has created an SOS Alert on COVID-19 for the six official UN languages, and is also expanding in some other languages. The idea is to make the first information that the public receive be from the WHO website and the social media accounts of WHO and Dr Tedros. WHO also uses social media for real-time updates.

    Carlos Navarro, head of Public Health Emergencies at UNICEF, the children’s agency, told The Lancet that while a lot of incorrect information is spreading through social media, a lot is also coming from traditional mass media.
    “Often, they pick the most extreme pictures they can find…There is overkill on the use of [personal protective equipment] and that tends to be the photos that are published everywhere, in all major newspapers and TV…that is, in fact, sending the wrong message”, Navarro said.
    David Heymann, professor of infectious disease epidemiology at the London School of Hygiene & Tropical Medicine, told The Lancet that the traditional media has a key role in providing evidence-based information to the general public, which will then hopefully be picked up on social media.
    He also observed that for both social and conventional media, it is important that the public health community help the media to “better understand what they should be looking for, because the media sometimes gets ahead of the evidence”.

    #Fake_news #COVID-19 #Infodemics

  • An Indian politician is using deepfake technology to win new voters - MIT Technology Review
    https://www.technologyreview.com/f/615247/an-indian-politician-is-using-deepfakes-to-try-and-win-voters

    On avait tendance à penser que les deepfakes servaient à moquer ou ridiculiser ses opposants. On a ici une forme intéressante : un candidat qui produit plusieurs deepfakes de son discours dans les diverses langues de l’Inde pour mieux le partager.

    The news: A deepfake of the President of India’s ruling Bharatiya Janata Party (BJP), Manoj Tiwari, went viral on WhatsApp in the country earlier this month, ahead of Legislative Assembly elections in Delhi, according to Vice. It’s the first time a deepfake has been used by a political party anywhere for campaigning purposes. In the original video Tiwari speaks in English, criticizing his political opponent Arvind Kejriwal and encouraging voters to vote for the BJP. The second video has been manipulated using deepfake technology so he is mouth moves convincingly as he speaks in the Hindi dialect of Haryanvi, whose people are target voters for the BJP.

    The purpose: The BJP has partnered with political communications firm The Ideaz Factory to create deepfakes which let it target voters across the over 20 different languages used in India. The party told Vice that the Tiwari deepfake reached approximately 15 million people across 5,800 WhatsApp groups.

    Causing alarm: This isn’t the first time deepfakes have popped up during a political campaign. For example, last December, researchers made a fake video of the two candidates in the UK’s general election endorsing each other. It wasn’t supposed to sway the vote however—merely to raise awareness about deepfake technology. This case in India seems to be the first time deepfakes have been used for a political campaign. The big risk is that we reach a point where people can no longer trust what they see or hear. In that scenario, a video wouldn’t even need to be digitally altered for people to denounce it as fake. It’s not hard to imagine the corrosive impact that would have on an already fragile political landscape.

    #Deepfake #Fake_news #Elections #Inde

  • Une étude d’impact truquée, nous publions les chiffres corrigés - Tout savoir sur la réforme des retraites
    https://reformedesretraites.fr/etude

    Publiée ce jour, l’étude d’impact du gouvernement de près de 1 000 pages tient plus de l’opération de communication que de l’éclairage sincère du débat parlementaire. Les cas-types présentés pour rendre compte de l’impact de la réforme sont délibérément faussés.

    Par conséquent, l’étude d’impact ne rend pas compte des conséquences du projet de réforme des retraites, ce qui est pourtant l’objectif que la Constitution lui assigne. De plus elle est volontairement trompeuse quant aux résultats de la réforme.

    Le projet de loi indique clairement (article 10) que l’âge d’équilibre du système à points sera amené à évoluer d’une génération à l’autre (par défaut, de l’équivalent des deux tiers des gains d’espérance de vie de la génération en question). Mais, au moment de comparer les résultats du système à points avec le système actuel, le gouvernement rétropédale : tous les cas types sont présentés avec un âge d’équilibre gelé à 65 ans, ce qui conduit à faire disparaître une partie du malus. Ce choix est à la fois en contradiction avec le chiffrage macro-économique de l’étude d’impact (qui inclut un âge d’équilibre glissant), et avec le texte de la loi.

    Le collectif Nos retraites a donc redressé les données des 28 cas-types du gouvernement, en les corrigeant de cet effet trompeur d’un âge d’équilibre fixe et non évolutif comme le prévoit le projet de loi. Alors que pour la génération 1990 le gouvernement présente 21 situations sur 28 comme avantageuses avec un départ à la retraite à 64 ans, elles ne sont plus que 10 une fois que les données ont été redressées. Pour cette génération, les retraité·e·s perdent 7 % du niveau de leur pension avec nos corrections, 7 % qui ont donc été indûment ajoutés dans l’étude d’impact.

    De nombreuses inquiétudes sont confirmées par cette étude et méritent d’être soulignées :

    Les femmes avec enfants sont les grandes perdantes du passage au système Macron, en particulier pour un départ avant l’âge d’équilibre. Une femme, née en 1990 (au SMIC, 2 enfants) qui part à 62 ans, perdra ainsi 15 % de ses droits par rapport au système actuel.
    Dans le système à points, les employé·e·s perdent beaucoup plus que les cadres supérieur·e·s. Ces dernier·e·s seront ainsi “gagnant·e·s” quel que soit leur âge de départ, alors que les employé·e·s seront perdant·e·s pour tout départ avant 66 ans.

    #retraites #fake_news_gouvernementales #chiffres

  • #Incendies en #Australie : les climatosceptiques derrière une grande campagne de #désinformation | LCI
    https://www.lci.fr/planete/incendies-australie-les-climatosceptiques-derriere-une-grande-campagne-de-desinf

    Des chercheurs ont ainsi observé que la crise actuelle avait donné lieu à une campagne de désinformation « sans précédent » dans l’histoire du pays, avec des "#bots" (programmes informatiques qui envoient automatiquement des messages) déployés pour défendre l’idée que les feux ne sont pas liés au réchauffement climatique.

    Alors que des médias, des sites et des hommes politiques conservateurs du monde entier défendent l’idée que les feux seraient en fait criminels, le hashtag #arsonemergency ("urgence incendie criminel") est notamment utilisé en force sur les réseaux sociaux.

    Timothy Graham, expert des médias numériques à l’Université de technologie du Queensland, explique à l’AFP que, selon ses recherches, la moitié des comptes #Twitter utilisant ce #hashtag semblent se comporter comme des « bots » ou des « #trolls », ces internautes publiant des messages intentionnellement provocateurs. « Nos conclusions révèlent un effort concerté pour désinformer le public sur les causes des #feux_de_forêt », indique-t-il. « Cette campagne est sans comparaison dans son ampleur avec ce qu’on a pu voir dans d’autres pays, comme lors de la présidentielle américaine de 2016, mais ce niveau de désinformation en Australie est sans précédent. »

    #climat

  • States sur les condamnations pour viol en france
    https://www.youtube.com/watch?v=jxJbnQNrafk

    Dans cette video il est expliqué que les condamnations pour viol sont en augmentation depuis 10 ans il va meme jusqu’a prétendre que cette progression est en augmentation en synchronisation avec l’augmentation des dépôts de plainte.
    Or j’ai plutot lu l’inverse du coup j’ai été vérifié ce info et ce prétendu zététicien dit n’importe quoi et ne fournis bien sur aucune source pour ces grosses intoxes.

    condamnations pour viol
    2007 = 1 652
    2010 = 1.342
    2011 = 1.257
    2012 = 1.271
    2013 = 1.196
    2014 = 1.066
    2015 = 1.024
    2016 = 1.003

    Source https://fr.statista.com/statistiques/953012/condamnations-pour-viol-france

    ___

    states du ministère
    http://www.justice.gouv.fr/art_pix/Annuaire_ministere-justice_2018_CHAPITRE_8.pdf

    Voici les infos - en premier les condamnations pour viol sur majeur·es puis condamnation pour viol sur mineur·es

    2013 = 735 + 463 = 1198
    2014 = 656 + 410 = 1066
    2015 = 623 + 401 = 1024
    2016 = 563 + 457 = 1020
    2017 = 576 + 472 = 1048
    2018 = 527 + 501 = 1024

    Il y a bien une baisse du nombre de condamnations pour viol alors que les dépôts de plaintes augmentent.

    #viol #statistiques

    • J’ai repensé à ta remarque @marclaime ; « Savoir raison garder »

      C’est amusant car tu constitue le maillon d’une chaine de plusieurs hommes raisonneurs raisonnables qui m’as justement conduit à faire ce poste.

      A l’origine j’étais agacée par la posture « raisonnablement » sexiste de la chaine Youtube « la tronche en biais » qu’ils appellent entre eux « la teub ». Cette chaine comporte un gros biais masculiniste alors qu’elle se revendique de la raison et d’une posture scientifique la plus neutre et objective possible. Elle fait une audience importante pour de la zététique avec très peu de femmes invités et beaucoup de commentaires sexistes du présentateur, sur la question du féminisme, ils ont invité Peggy Sastre qui est entre autre l’autrice de la pétition sur la liberté (pour les hommes) d’importuner (sexuellement les femmes). Le prochain numéro de la Teb sera sur la chasse aux sorcières et le spécialiste invité sera encore une fois un homme.
      Donc agacée par la TEB je cherche si il y a des critiques de ce masculinisme de la TEB chez des zététicien·nes de zététicien·nes. Je tape « zététique + féminisme »
      Je tombe d’abord sur ce youtubeur « hypnomachie » :
      https://www.youtube.com/watch?v=ApBtsVvwXfA


      Qui explique que le féminisme n’a pas lieu d’être car les femmes transmettent 60% de leur ADN à leur progéniture lorsque les hommes ne transmette que 40% du leur... #WTF Ce youtubeur n’utilise pas le conditionnel, il ne fournis aucune source, et je passe sur la débilité de son idée que la transmission d’ADN annulerait le bien fondé de l’égalité politique entre les sexes. Ce raisonnement par la nature et l’ADN me fait d’ailleurs pensé à la #phallosophie nazie tel que décrite par Chapoutot https://seenthis.net/messages/819928

      Le youtubeur d’hypomachie est interpellé en commentaire, plusieurs personnes lui demandent ses sources, il n’en fournis aucune et se contente de répondre « ca dépend ce qu’on entend par ADN »...

      Après ce mâle raisonnement sur les femmes sensé démonté un autre mâle raisonnement sur les femmes, Youtube me propose la vidéo que j’ai mis en début de ce poste. Cette fois le youtubeur « les Echanges de Savoirs de Sénart ESS »
      à l’air un peu moins machiste que celui d’hypomachie. Mais il dit quant même n’importe quoi avec les meilleurs intentions du monde. Il ne source pas et il fait la morale aux victimes de viol en leur disant d’aller porter plainte car il en est certain, les condamnations augmentent en rapport au nombre de dépôt de plaintes...

      Du coup je prend du temps pour vérifié cette #fake_News , je fournis une source sérieuse. Ce youtubeur a d’ailleurs répondu qu’il était effectivement dans l’erreur, j’espère qu’il saisira l’occasion de faire une vidéo là dessus et réfléchir sur ses biais masculins. Et après ceci, malgré la documentation que je fournis sur seenthis sur les condamnations pour viols, à nouveau un homme m’explique en deux lignes expéditives, que selon lui je ne sais pas garder ma raison car les condamnations pour les délits doivent être confondus avec celles pour les crimes.

      Comme si l’impunité des viols pouvait être comptabilisé pour exactement l’inverse de ce que c’est.
      Et comme si il était déraisonnable pour une femme d’osé seulement prétendre vouloir raisonner.

      #dissonance_statistique #dissonance_cognitive #male_gaze #déni #culture_du_viol #fraternité #paternalisme #correctionnalisation #euphémisation #raison #hystérie
      #inversion_patriarcale #sexisme

    • « Raison garder » était de trop, il était possible d’apporter un argument sans suggérer qu’une femme était hors de sa raison...

      @antonin1 Je ne sais pas ou tu voie des arguments, je n’ai vu qu’une affirmation fausse et hors sujet qui témoigne d’une très forte solidarité avec les violeurs et d’un mépris profond pour les victimes.
      « raison gardé » n’est pas que de trop, il est le reflet du sexisme de @marclaime

    • Suggérer que la correctionnalisation est l’une des raisons de l’invisibilité de ces condamnations, pour moi c’est un argument. Après, je comprends que ça te fasse déconsidérer des arguments qui s’inscrivent dans un cadre sexiste comme ce « raison garder ».

    • C’est pas ce que j’ai compris des propos de @marclaime
      il ne parle pas d’invisibilisation, il dit que les correctionnalisations sont des condamnations pour viol qu’il serait raisonnable de confondre et comptabilisé avec les condamnations pour viols aux assisses.

      Moi je parle des condamnations pour viol par la justice française et uniquement de cela. Qu’est ce que j’en ai à faire de comptabilisé les condamnations pour des délits si je parle des condamnations pour des crimes ? Dans le meilleur des cas cette remarque est hors sujet mais comme c’est introduit par une remarque sexiste c’est pas seulement du hors sujet, c’est du déni de dominant enrobé de condescendance. C’est aussi de mansplanning car je suis tout de meme bien informé des correctionnalisations et c’est bien pour ca que j’ai documenté depuis des années ce sujet et que je parle ici des seuls condamnations aux assises et que j’ai pris la peine de l’expliqué dans mon poste.

  • Comment les Gafam sont devenus, en dix ans, des puissances impériales – Economie | L’Opinion
    https://www.lopinion.fr/edition/wsj/comment-gafam-sont-devenus-en-dix-ans-puissances-imperiales-206796

    Un bon résumé des conséquences de la concentration des géants de l’internet sur la confiance dans ce réseau

    Le tournant de la perception du public à l’égard des entreprises de la tech s’est produit en 2016, dans le sillage du référendum britannique sur le Brexit et de la présidentielle américaine, explique Margaret O’Mara, professeur d’histoire à l’université de Washington. Les autorités américaines sont arrivées à la conclusion que la Russie s’est ingérée dans les élections aux Etats-Unis en déversant des éléments de propagande sur les réseaux sociaux. Moscou est également accusée d’avoir joué un rôle similaire dans le référendum sur le Brexit.

    « On s’attendait à ce que ces entreprises aient le contrôle de leurs créations », note le professeur O’Mara. « Maintenant, cela ressemble davantage au monstre de Frankenstein. » Facebook, YouTube de Google et Amazon ont permis une croissance sans entrave de leurs plateformes depuis si longtemps qu’elles sont devenus difficiles à surveiller.

    Les sentiments des Américains à l’égard des entreprises de la tech ont changé de manière notable ces dernières années. Un sondage du Pew Research Center de juillet a montré que les adultes américains les classent au deuxième rang - derrière les églises et les organisations religieuses - pour leur impact positif sur le pays. Mais le pourcentage de ceux qui sont de cet avis cette année n’était que de 50 %, contre 71 % en 2015. Quant à ceux estimant que les entreprises de la tech ont un impact négatif, ils sont passés de 17 % à 33 %.

    Figurant au rang des plus grandes inquiétudes, Facebook a été utilisé pour diffuser des fakes news et des théories conspirationnistes, promouvoir le génocide et diffuser en direct une fusillade de masse en Nouvelle-Zélande.

    YouTube fait face à plusieurs des mêmes critiques. Il a construit des algorithmes conçus pour maximiser le « temps de visionnage » qui ont également aidé les théoriciens du complot à se constituer une audience massive. Fin 2016 et début 2017, son créateur de contenu numéro un, Felix « PewDiePie » Kjellberg, a diffusé à plusieurs reprises des images nazies et du contenu antisémite à ses plus de 50 millions d’abonnés à l’époque. Il a même été célébré par le principal site web néo-nazi. M. Kjellberg disaient à l’époque que ces contenus n’étaient qu’une « blague ».

    L’énorme main-d’œuvre contractuelle embauchée par les entreprises a eu du mal à suivre le rythme du volume de contenu violent, pornographique et autre contenu illégal qui est uploadé chaque minute.

    Dans le même temps, les entreprises sont critiquées pour leur pouvoir de déterminer ce que nous voyons et ne voyons pas.

    « Ces individus ne devraient pas décider quels discours sont autorisés dans le monde », pense Zeynep Tufekci, une professeure de l’Université de Caroline du Nord qui étudie l’impact de la technologie sur la société. Elle les décrit comme des « entités souveraines de facto » étant donné leur échelle massive, et rappelle comment, chez Facebook et Alphabet, la prise des décisions revient en ultime ressort à leurs fondateurs. Mark Zuckerberg, chez Facebook, dirige son empire par le biais du contrôle des actions, tout comme Larry Page et Sergey Brin chez Alphabet, bien que ces deux derniers aient récemment abandonné leurs postes de dirigeants.

    #Internet #Fake_news #Censure #Désamour #Médias_sociaux

  • Des medias, à droite sans vergogne | Le Club de Mediapart
    https://blogs.mediapart.fr/yves-faucoup/blog/181219/des-medias-droite-sans-vergogne

    Sur France Inter hier matin [17 décembre], Agnès Buzyn dit que le rapport Delevoye de juillet a été loué par toutes les forces syndicales : faux.

    Elle dit que la réforme est favorable aux femmes et aux carrières hachées : faux. Elle dit que les femmes actuellement n’ont pas de bonus pour le premier et le deuxième enfant : vrai pour ce qui est du montant de la pension, faux pour ce qui est de la durée de cotisation puisque les femmes gagnaient jusqu’à présent deux années par enfant, ce qui pouvait leur éviter la décote pour trimestres insuffisants. Et le bonus pourra être utilisé par l’homme du fait de salaire plus élevé.

    Elle dit que la réforme apporte des droits nouveaux : 1000 € minimum (85% du Smic). En réalité : sous réserve d’une carrière complète. Mesure déjà existante à 81% du Smic et dont le passage à 85% était prévu par une loi de... 2003.

    En réponse à une question, elle nie que cette réforme puisse réjouir les assureurs et donne pour exemple le fait que la réforme assure une retraite à toute personne qui perçoit un salaire allant jusqu’à 10.000 € par mois. Seuls ceux qui gagnent plus de 10.000 € pourraient faire appel à une assurance par capitalisation. Elle fait mine de ne pas comprendre que la réforme dans son ensemble, dans la mesure où elle attribuera des pensions réduites par rapport au système actuel (ne serait-ce que par le fait que toutes les années seront pris en compte y compris les mauvaises contrairement au calcul actuel), les assurés devront faire appel à des assurances complémentaires. [Sur ce point, je note qu’un aspect de la réforme n’est presque jamais évoqué : les retraites complémentaires (Agirc-Arrco) disparaissent.]

    Elle a semblé admettre que l’âge pivot (à 64 ans), qui a mis la CFDT en colère pourrait être abandonné puisque de toutes façons l’âge moyen de départ est déjà 63,5 ans, très bientôt 64 (pour avoir 42 ans de cotisation ceux qui ont commencé à travailler à 22 ans doivent travailler jusqu’à 64, et beaucoup d’autres à 65, 66, 67 ans). Ce qui pourrait signifier que le pouvoir fait de la provocation avec son âge pivot, que par ailleurs il pourra abandonner sans que cela change grand-chose tout en satisfaisant Laurent Berger.

    Je ne déroule pas ce qu’elle a dit sur l’hôpital : seulement le fait que, comme tout ministre macroniste, il a fallu qu’elle nous prouve son attachement à l’hôpital par le fait qu’elle y a travaillé, et que toute sa famille y travaille (le mari, les enfants). Un peu comme Darmanin qui recycle régulièrement sa mère, sa grand-mère, son grand-père, Sibeth Ndiaye son beau-père.

    Quand la politique n’est pas sûre d’elle, elle fonctionne à l’affect.

  • Making deepfake tools doesn’t have to be irresponsible. Here’s how. - MIT Technology Review
    https://www.technologyreview.com/s/614912/ethical-deepfake-tools-a-manifesto

    Synthetic media technologies—popularly known as deepfakes—have real potential for positive impact. Voice synthesis, for example, will allow us to speak in hundreds of languages in our own voice. Video synthesis may help us simulate self-driving-car accidents to avoid mistakes in the future. And text synthesis can accelerate our ability to write both programs and prose. 

    But these advances can come at a gargantuan cost if we aren’t careful: the same underlying technologies can also enable deception with global ramifications. 

    Thankfully, we can both enable the technology’s promise and mitigate its peril. It will just take some hard work.

    Approach 2: Discouraging malicious use
    For synthetic media tools that are general and may be made widely available, there are still many possible ways to reduce malicious use. Here are some examples.

    – Clear disclosure: Request that synthesized media be clearly indicated as such—particularly material that might be used to mislead. Tools may be able to support this by including clear visual or audible notices in output files, such as visible warnings or spoken disclosures. At minimum, metadata should indicate how media was synthesized or manipulated.
    – Consent protection: Require the consent of those being impersonated. The voice cloning tool Lyrebird requires users to speak particular phrases in order to model their voice. This makes it more difficult to impersonate someone without consent, which would be very possible if it simply generated voices using any provided data set. This, of course, is applicable only for tools that enable impersonation.
    – Detection friendliness: Ensure that the synthesized media is not inordinately difficult to detect; keep detector tools up to date; collaborate with those working on detection to keep them in the loop on new developments.
    – Hidden watermarks: Embed context about synthesis—or even the original media—through robust watermarks, both using methods that are accessible to anyone with the proper tools, and through approaches that are secret and difficult to remove. (For example, Modulate.ai watermarks audio that it generates, while products like Imatag and their open-source equivalents enable watermarking for imagery.)
    – Usage logs: Store information about usage and media outputs in a way that researchers and journalists can access to identify if, for example, a video was probably synthesized using a particular tool. This could include storing timestamps of synthesis with a robust hash or media embedding.
    – Use restrictions: Provide and enforce contractual terms of use that prohibit and penalize unwanted actions, such as attempting to remove disclosures or watermarks, or violating the consent of other people. A stronger version of this approach involves explicitly elaborating allowed uses of the technology or resulting outputs.

    Not all these strategies are applicable to every system. Some may have their risks, and none are perfect—or sufficient on their own. They are all part of a “defense in depth,” where more is more.

    #Deep_fakes #Deepfakes #Fake_news #Ethique

  • Inside the hate factory: how #Facebook fuels far-right profit | Australia news | The Guardian
    https://www.theguardian.com/australia-news/2019/dec/06/inside-the-hate-factory-how-facebook-fuels-far-right-profit

    Revealed: Ilhan Omar and Rashida Tlaib targeted in far-right #fake_news operation | Facebook | The Guardian
    https://www.theguardian.com/technology/2019/dec/05/ilhan-omar-rashida-tlaib-targeted-far-right-fake-news-operation-faceboo

    Israeli-based group uses Facebook to spread disinformation to more than a million followers around the world, singling out Muslim US congresswomen

    #sionisme #extrême_droite #désinformation #islamophobie

  • Retraites : la fake news de Monsieur Seux - regards.fr
    http://www.regards.fr/politique/article/retraites-la-fake-news-de-monsieur-seux

    La statistique ne porte pas sur la durée moyenne de vie passé à la retraite par l’ensemble des Français. L’âge moyen de liquidation des droits à la retraite est de 62,7 ans. L’espérance de vie moyenne des personnes, nées en France il y a 60 ans, était à la naissance de 66 ans pour les hommes et de 71,5 ans pour les femmes. Si l’on exclut celles et ceux qui sont morts avant 20 ans cela rajoute un peu plus d’un an d’espérance de vie moyen. On a donc pour tous les Français qui ont pu cotiser pour leur retraite, une durée moyenne de temps passé à la retraite de l’ordre de 5 à 6 ans pour les hommes et inférieure à 10 ans pour les femmes. On est loin, très loin, des Français qui passeraient 25 ans en moyenne à la retraite.

    #retraite #chiffres #fake_news

  • Advertisement feature: M. Moleiro Editor - HistoryExtra

    https://www.historyextra.com/advertisement-feature-m-moleiro-editor

    Atlas Miller: Cartographic fake news and the Magellan expedition

    Drawn in 1519 by Lopo Homem, Pedro Reinel and his son Jorge Reinel, with illuminations that are the work of António de Holanda, the so-called Atlas Miller is – in aesthetic terms – the culminating wonder of 16th-century Portuguese cartography.

    From an aesthetic point of view, it is undoubtedly the most luxurious work of its kind, which suggests that its royal sponsor King Manuel I of Portugal (r. 1495-1521) commissioned it as an official state gift. It can even be deemed to be a propaganda tool for Manueline imperialism, tinged with messianic airs. The illuminations give off a sense of optimism, as the exotica – elephants, camels, American fauna, brazilwood, imposing Oriental cities and even the griffin and dragon among Asia’s mythological fauna – becomes familiar, and the richness seems to be overabundant, heaping possessions upon the needy and uplifting the humble.

    #cartographie #cartographie_ancienne #fake_news #manipulations

  • Internet Companies Prepare to Fight the ‘Deepfake’ Future - The New York Times
    https://www.nytimes.com/2019/11/24/technology/tech-companies-deepfakes.html

    Deepfakes — a term that generally describes videos doctored with cutting-edge artificial intelligence — have already challenged our assumptions about what is real and what is not.

    In recent months, video evidence was at the center of prominent incidents in Brazil, Gabon in Central Africa and China. Each was colored by the same question: Is the video real? The Gabonese president, for example, was out of the country for medical care and his government released a so-called proof-of-life video. Opponents claimed it had been faked. Experts call that confusion “the liar’s dividend.”

    Though activists and artists occasionally release deepfakes as a way of showing how these videos could shift the political discourse online, these techniques are not widely used to spread disinformation. They are mostly used to spread humor or fake pornography, according to Facebook, Google and others who track the progress of deepfakes.

    Right now, deepfake videos have subtle imperfections that can be readily detected by automated systems, if not by the naked eye. But some researchers argue that the improved technology will be powerful enough to create fake images without these tiny defects. Companies like Google and Facebook hope they will have reliable detectors in place before that happens.

    “In the short term, detection will be reasonably effective,” said Mr. Kambhampati, the Arizona State professor. “In the longer term, I think it will be impossible to distinguish between the real pictures and the fake pictures.”

    #Fake_news #Deepfakes #Plateformes

  • Mapping the Deepfake Landscape - Deeptrace
    https://deeptracelabs.com/mapping-the-deepfake-landscape

    Our research revealed that the deepfake phenomenon is growing rapidly online, with the number of deepfake videos almost doubling over the last seven months to 14,678. This increase is supported by the growing commodification of tools and services that lower the barrier for non-experts to create deepfakes. Perhaps unsurprisingly, we observed a significant contribution to the creation and use of synthetic media tools from web users in China and South Korea, despite the totality of our sources coming from the English-speaking Internet.

    Another key trend we identified is the prominence of non-consensual deepfake pornography, which accounted for 96% of the total deepfake videos online. We also found that the top four websites dedicated to deepfake pornography received more than 134 million views on videos targeting hundreds of female celebrities worldwide. This significant viewership demonstrates a market for websites creating and hosting deepfake pornography, a trend that will continue to grow unless decisive action is taken.

    Non seulement c’est la pornographie qui est le support des deepfakes, mais ce sont les visages des femmes qui sont visés.

    #Fake_news #Deepfakes #Pornographie #Culture_viol

  • « Deepfakes » : faut-il avoir peur de ces vidéos trafiquées ?
    https://www.lemonde.fr/pixels/article/2019/11/24/deepfakes-faut-il-avoir-peur-de-ces-videos-trafiquees_6020333_4408996.html

    Les regards se tournent aussi vers les grandes plates-formes où ces vidéos sont diffusées. Certaines, comme le site pornographique Pornhub, les ont interdites dans leur règlement – il en subsiste toutefois, comme nous avons pu le constater. Du côté des grands réseaux sociaux, on reste frileux : pas de traitement particulier chez Facebook, et Twitter a évoqué l’idée de signaler, sans les interdire, les deepfakes aux internautes. Certaines grandes entreprises comme Google, Facebook et Microsoft encouragent par ailleurs la création de logiciels de détection à travers des concours.

    Mais les géants du Web ne se concentrent peut-être pas sur le vrai problème, laisse entendre Alexandre Alaphilippe :

    « On se focalise trop sur la création de la désinformation, qui de toute façon va exploser. Mais il faut aussi s’intéresser à la façon dont ce contenu est distribué. Pourquoi à partir d’une vidéo de rats sur YouTube, vous tombez en deux clics sur une vidéo sur l’immigration ? On ne peut pas mettre toutes les ressources sur la recherche pour repérer les deepfakes, il faut aussi en faire sur les algorithmes de recommandation. »

    L’histoire montre que l’existence même de la technologie contribue à semer le doute, et celui-ci peut être exploité pour manipuler l’opinion. Comme l’expliquait Claire Wardle, directrice exécutive de l’association de lutte contre la désinformation First Draft au New York Times : « Ce qui m’empêche de dormir n’est pas tant la technologie, mais comment est-ce qu’en tant que société, nous réagissons face à l’idée que nous ne pouvons plus croire ce que nous voyons ou ce que nous entendons. »

    #Fake_news #Deepfakes

  • Sacha Baron Cohen’s Keynote Address at ADL’s 2019 Never Is Now Summit on Anti-Semitism and Hate | Anti-Defamation League
    https://www.adl.org/news/article/sacha-baron-cohens-keynote-address-at-adls-2019-never-is-now-summit-on-anti-sem

    A propos de la logique marchande délétère, meurtrière des #GAFAM.

    I’m just a comedian and an actor, not a scholar. But one thing is pretty clear to me. All this hate and violence is being facilitated by a handful of #internet companies that amount to the greatest propaganda machine in history.

    The greatest propaganda machine in history.

    Think about it. #Facebook, #YouTube and #Google, #Twitter and others—they reach billions of people.

    [...]

    ... when discussing the difficulty of removing content, Zuckerberg asked “where do you draw the line?” Yes, drawing the line can be difficult. But here’s what he’s really saying: removing more of these lies and conspiracies is just too expensive.

    [...]

    ... if you pay them, Facebook will run any “political” ad you want, even if it’s a lie. And they’ll even help you micro-target those lies to their users for maximum effect. Under this twisted logic, if Facebook were around in the 1930s, it would have allowed Hitler to post 30-second ads on his “solution” to the “Jewish problem.”

    [...]

    Maybe it’s time to tell Mark Zuckerberg and the CEOs of these companies: you already allowed one foreign power to interfere in our elections, you already facilitated one genocide in Myanmar, do it again and you go to jail.

    #fake_news #silicon_valley

  • Inside Purdue Pharma’s Media Playbook : How It Planted the Opioid “Anti-Story” — ProPublica
    https://www.propublica.org/article/inside-purdue-pharma-media-playbook-how-it-planted-the-opioid-anti-story

    In 2004, Purdue Pharma was facing a threat to sales of its blockbuster opioid painkiller OxyContin, which were approaching $2 billion a year. With abuse of the drug on the rise, prosecutors were bringing criminal charges against some doctors for prescribing massive amounts of OxyContin.

    That October, an essay ran across the top of The New York Times’ health section under the headline “Doctors Behind Bars: Treating Pain is Now Risky Business.” Its author, Sally Satel, a psychiatrist, argued that law enforcement was overzealous, and that some patients needed large doses of opioids to relieve pain. She described an unnamed colleague who had run a pain service at a university medical center and had a patient who could only get out of bed by taking “staggering” levels of oxycodone, the active ingredient in OxyContin. She also cited a study published in a medical journal showing that OxyContin is rarely the only drug found in autopsies of oxycodone-related deaths.

    “When you scratch the surface of someone who is addicted to painkillers, you usually find a seasoned drug abuser with a previous habit involving pills, alcohol, heroin or cocaine,” Satel wrote. “Contrary to media portrayals, the typical OxyContin addict does not start out as a pain patient who fell unwittingly into a drug habit.”

    The Times identified Satel as “a resident scholar at the American Enterprise Institute and an unpaid advisory board member for the Substance Abuse and Mental Health Services Administration.” But readers weren’t told about her involvement, and the American Enterprise Institute’s, with Purdue.

    Among the connections revealed by emails and documents obtained by ProPublica: Purdue donated $50,000 annually to the institute, which is commonly known as AEI, from 2003 through this year, plus contributions for special events, for a total of more than $800,000. The unnamed doctor in Satel’s article was an employee of Purdue, according to an unpublished draft of the story. The study Satel cited was funded by Purdue and written by Purdue employees and consultants. And, a month before the piece was published, Satel sent a draft to Burt Rosen, Purdue’s Washington lobbyist and vice president of federal policy and legislative affairs, asking him if it “seems imbalanced.”

    Purdue’s tactics are reminiscent of the oil and gas industry, which has been accused of promoting misleading science that downplays its impact on climate change, and of big tobacco, which sought to undermine evidence that nicotine is addictive and secondhand smoke is dangerous.

    Media spinning was just one prong of Purdue’s strategy to fend off limits on opioid prescribing. It contested hundreds of lawsuits, winning dismissals or settling the cases with a provision that documents remain secret. The company paid leading doctors in the pain field to assure patients that OxyContin was safe. It also funded groups, like the American Pain Foundation, that described themselves as advocates for pain patients. Several of those groups minimized the risk of addiction and fought against efforts to curb opioid use for chronic pain patients.

    She has become an influential voice on opioids, addiction and pain treatment. Her writings have been published in The Wall Street Journal, USA Today, The Atlantic, Slate, Health Affairs, Forbes, Politico and elsewhere. She frequently appears on panels, television shows and in newspaper articles as an expert on the opioid crisis and pain prescribing guidelines. “We’ve entered a new era of opiophobia,” she recently told The Washington Post.

    Satel has been a resident scholar at the American Enterprise Institute since 2000. Among the notable figures who have spent time at AEI are the late Supreme Court Justice Antonin Scalia and former Trump national security adviser John Bolton. Current fellow Scott Gottlieb returned to AEI this year after serving as commissioner of the U.S. Food and Drug Administration, which approves and regulates prescription drugs like OxyContin.

    Purdue said its annual payments of $50,000 to AEI were part of the institute’s corporate program. That program offers corporations the opportunity to “gain access to the leading scholars in the most important policy areas for executive briefings and knowledge sharing,” according to the institute’s website.

    Purdue’s counterattack against an ambitious investigative series about OxyContin abuse may have contributed to that drop. An October 2003 series in the Orlando Sentinel, “OxyContin Under Fire,” found that Purdue’s aggressive marketing combined with weak regulation had contributed to “a wave of death and destruction.”

    The series, however, was marred by several errors that were detailed in a front-page correction nearly four months later. The reporter resigned, and two editors on the series were reassigned. While acknowledging the mistakes, the newspaper did not retract the series, and its review upheld the conclusion that oxycodone was involved in a large number of the overdoses in Florida.

    Dezenhall Resources, in an email, took credit for forcing the newspaper to issue the corrections. “Dezenhall’s efforts resulted in a complete front-page retraction of the erroneous 5-day, 19-part, front-page Orlando Sentinel series,” Hershow wrote in a 2006 email summarizing Dezenhall’s work for Purdue under the subject line “Success in Fighting Negative Coverage.”

    Purdue officials and the company’s public relations agencies came up with a 13-point plan to generate media coverage of the errors. It included getting a doctor to talk about how the series “frightened and mislead (sic) the people of Florida” and having a pain patient write a newspaper opinion column on the subject. The Sentinel series, one Purdue official wrote to other company executives and Dezenhall’s Hershow, was an opportunity to let the country know about “all of the sensational reporting on OxyContin abuse over the past 4 years. The conclusion: this is the most overblown health story in the last decade!”

    In the six years after Purdue challenged the Sentinel’s findings, the death rate from prescription drugs increased 84.2% in Florida. The biggest rise, 264.6%, came from deaths involving oxycodone. The state became a hotbed for inappropriate opioid prescribing as unscrupulous pain clinics attracted out of state drug seekers. The route traveled by many from small towns in Appalachia to the Florida clinics was nicknamed the “Oxycontin Express.”

    In 2017, 14 years after the Sentinel series was published, the Columbia Journalism Review described it as “right too soon” and said it “eerily prefigured today’s opioid epidemic.”

    Purdue also added Stu Loeser to its stable. The head of an eponymous media strategy company, Loeser was press secretary for Michael Bloomberg when he was mayor of New York City, and he is now a spokesman for Bloomberg’s possible presidential bid.

    Soon after Loeser began representing Purdue, Satel wrote in a 2018 piece for Politico headlined, “The Myth of What’s Driving the Opioid Crisis,” about “a false narrative” that the opioid epidemic “is driven by patients becoming addicted to doctor-prescribed opioids.”

    Loeser told Purdue executives in an email that “we are going to work with AEI to ‘promote’ this so it comes across as what it is: their thoughtful response to other writing.” His team was working to target the Satel story “to land in social media feeds of people who have searched for opioid issues and potentially even people who have read specific stories online,” he added.

    Loeser said in an interview that he didn’t end up working with AEI to promote the story. He said Purdue is no longer a client.

    Une belle bande d’ordures accoquinée avec une brochette de journaux peu regardants (quoique parmi les meilleurs du monde, ce qui est encore plus inquiétant).

    #Opioides #Sackler #Purdue_Pharma #Médias #Fake_news #Conflits_intérêt #Complicités #New_York_Times #Public_relation

  • The scary trend of internet shutdowns - Poynter
    https://www.poynter.org/reporting-editing/2019/the-scary-trend-of-internet-shutdowns

    Around the world, governments have been turning to network shutdowns with increasing frequency to quell unrest and suppress the spread of rumors and fake news. But there is no empirical evidence that proves this tactic is effective, and activists and journalists alike have raised concerns over the catastrophic side effects these shutdowns often have on communities.

    “The official justification given by governments and the impact (of these shutdowns) on the ground rarely match,” said Berhan Taye, the leader of Access Now’s #KeepItOn campaign. Access Now is an international non-profit that advocates for a free and open internet around the world, and the #KeepItOn campaign has been documenting and verifying instances of internet shutdowns since 2016.

    “Shutdowns are being normalized, as if they’re expected to happen,” Taye told the IFCN. “(There’s the sense) amongst journalists, activists and others that shutdowns during 2020 elections are going to happen, so we need to prepare.”

    Shutdowns in India: Popularly used, questionably effective

    Africa and Asia are the two continents most affected by internet shutdowns, and India is by far the greatest perpetrator: 67% of #KeepItOn’s documented shutdowns in 2018 have taken place in India, with 134 incidents.

    The Stanford study found that mass mobilization in India can occur even in the absence of social media and digital platforms.

    In fact, removing these tools “can turn a predictable situation into one that is highly volatile … Rumors and disinformation continue to spread with or without access to digital communication networks, whose primary role is that of accelerators of information diffusion.”

    Taye of the #KeepItOn campaign warned that while 33 of the shutdowns that occurred in 2018 were justified by governments claiming they wanted to curb mis/disinformation, “The spread of fake news did not start with Facebook. The issue of disinformation did not start with Facebook.”

    “The problem we have now is the speed at which it’s being shared… But when you cut people off from being able to access information, the only access they have is to previous misinformation.”

    Taye added that another side effect of the shutdown in Sri Lanka was that “people were not able to find their loved ones, not able to share information, and there was no one providing what the actual correct narrative is, and what’s happening on the ground.”

    #Censure #Internet #Coupure_réseau #Fake_news

  • Opinion | The Online Cacophony of Hate Against Ilhan Omar and Rashida Tlaib - The New York Times
    https://www.nytimes.com/2019/11/05/opinion/ilhan-omar-rashida-tlaib.html?smid=nytcore-ios-share

    Une étude très intéressante sur la propagation de haine via des robots. Si tout journaliste ou chercheur peut le faire, Twitter peut le faire. Il n’y a pas que la publicité politique qui peut détourner la démocratie, mais le coeur même de l’usage des médias sociaux, ici les tweets eux-mêmes.

    We published a study this week that found that, around the 2018 midterm elections, Ms. Omar and Ms. Tlaib were in the cross hairs of a tiny band of Islamophobes, long before Mr. Trump elevated them in his tweetstorms, and likely before they were even on his radar.

    We studied more than 113,000 tweets, posted from early September 2018 to the weekend before the election, that mentioned Ilhan Omar, Rashida Tlaib and Omar Qudrat, a Republican congressional candidate in California who lost his race.

    Ilhan Omar was the prime target. Roughly half of the 90,000 tweets mentioning her included hate speech or Islamophobic or anti-immigrant language. Put another way, almost 60 percent of the network of accounts that mentioned or tagged her had posted at least one tweet containing hate speech or overt disinformation. Almost one-third of the tweets mentioning Ms. Tlaib were Islamophobic or xenophobic. Even Mr. Qudrat, a former military terrorism prosecutor, faced online harassment.

    But the most striking thing we uncovered happened in the months after the election. When we revisited these accounts in July, a significant portion of them were simply gone. Some had been suspended by Twitter for violating standards, such as posting inappropriate content or showing characteristics of bots. Others had been deleted by the account holders. Malicious actors will often remove the accounts that make up their bot networks — like drug dealers tossing burner phones — to cover their tracks.

    During the height of the campaign, there were 50,699 accounts in Ilhan Omar’s Twitter network. By July, 14 percent of those accounts were missing. Similarly, in Ms. Tlaib’s network, 11.9 percent of accounts in the network were either suspended or deleted. Still others had gone largely dormant.

    A large percentage of these trolls were likely bots or automated accounts run by people, organizations or state actors seeking to spread political propaganda and hate speech. That’s based on telltale iconography, naming patterns, webs of linkages and the breadth of the postelection scrubbing.

    This all suggests that this Islamophobic and xenophobic narrative largely originated with a handful of bigoted activists and was then amplified by vast bot networks whose alleged owners never existed. “Ordinary” account holders, many retweeting just one post, were then swept up in the rancorous energy of the crowd.

    There was no magic to what we did. If we can find the trolls, so can Twitter. If we can single out those using hate speech, so can Twitter. If we can map the bot networks, so can Twitter. This is about the platform taking responsibility and systematically enforcing its own standards, not passing the buck and blaming advertising while ignoring the fact that it is the true currency of Twitter — the tweets themselves — that bring “significant risks to politics” and “the lives of millions.”

    #Twitter #Fake_news #Islamophobie #Démocratie #Médias_sociaux

  • Et si on parlait de la cybercriminalité boursière ?
    https://www.latribune.fr/opinions/tribunes/et-si-on-parlait-de-la-cybercriminalite-boursiere-832338.html

    ANALYSE. L’autorité des marchés financiers (AMF) a fait part d’une intéressante étude prospective sur la manière dont elle perçoit l’évolution en mode cyber des trois principales infractions boursières qu’elle poursuit : le délit d’initié, la manipulation de cours et la diffusion de fausse information. Par Jean-Jacques Quisquater, Université de Louvain, et Charles Cuvelliez, Université de Bruxelles.

    Délit d’initié
    On pourrait dire, à lire cette étude, que le délit d’initié est de moins en moins réservé aux initiés : lors d’un fusion-acquisition, explique par exemple l’AMF, toute une chaîne d’acteurs se met en place pour la réaliser. Chaque acteur, banque-conseil, cabinet d’avocats ou cabinet comptable, consultants, le régulateur, les diffuseurs d’informations financières, les agences de relations publiques et même des bureaux de traductions sont autant de portes d’entrée supplémentaire, pendant l’opération, pour un hacker qui peut se procurer des informations privilégiées sur la fusion/acquisition. Plusieurs cas concrets sont cités par l’étude où chaque fois un acteur différent a pu être pénétré avec succès. Le phishing reste la manière la plus simple et la plus efficace de pénétrer le maillon faible car il y en a souvent un dans cette longue chaîne.
    […]
    Manipulations de cours
    Les manipulations de cours ont, elles, lieu par la prise de contrôle de comptes de traders de particuliers, même en petit nombre, pour donner des tendances au marché via un comportement coordonné de ces comptes piratés, comprend-t-on, sur des actions peu liquides ou des penny stocks dont les cours peuvent varier rapidement avec quelques dizaines d’acheteurs. C’est la technique du pump & dump. En Asie, les autorités ont même peur des activités de trading qui vont se faire de plus en plus sur des interfaces non dédiées comme les messageries instantanées ou les réseaux sociaux. L’AMF met en avant le problème de la sécurisation, plus vaste qu’imaginé, des applications de comptes de trading des acteurs non bancaires. Ce sont surtout les applications de trading mobile qui sont peu sécurisées (certaines données envoyées au serveur ne sont même pas chiffrées a repéré une étude).

    Enfin, il y a aussi le risque futur de manipulation des cours via un piratage des algorithmes de trading qui occupent déjà 50 % à 80 % des échanges quotidiens sur certaines classes d’actifs. Il y a aussi le risque de manipulations d’algorithmes d’intelligence artificielle via des données volontairement erronées et orientées au profit de certains.

    Fausses informations
    La diffusion de fausses informations est sans doute l’attaque le plus facile à mettre en œuvre : elle nécessite peu de moyens et est facilement anonyme (utilisation d’un wifi public, du réseau TOR...) et ce d’autant plus que l’enregistrement de noms de domaine et l’hébergement de sites inernet qui servent à diffuser l’information ne brillent pas, rappelle l’AMF, par leurs précautions quant à celui qui les ouvre (sans compter la durée de conservation de ces informations qui est faible). Quand il y a une enquête, elle aboutit le plus souvent en regardant plutôt les transactions boursières que laissent les criminels qui ont diffusé les fausses informations et qui veulent en tirer bénéfice (quid alors quand ce sont des activistes qui ont lancé les rumeurs, sans appât du gain). Les enquêtes sont internationales par nature, ce qui les complique puisque, selon le pays, les pouvoirs d’investigation des autorités ou des régulateurs sont différents. Seuls les coupe-circuit des Bourses permettent de limiter les mouvements trop importants en capitalisation boursière qui en résultent.

    Pour l’AMF, la chaîne de diffusion des informations financières doit être sérieusement revue et contrôlée (au sens, comprend-t-on, de l’assurance-qualité) : il y a tellement d’intervenants qu’on n’en arrive à ne plus savoir qui est habilité à diffuser une information correcte et quand. Il faudrait clarifier le canal officiel de diffusion de l’information financière et renforcer la sensibilisation des agences de presse pour éviter le piratage en amont (réception d’un faux communiqué de presse considéré à tort comme vrai) ou en aval (diffusion d’un faux communiqué injecté dans les systèmes d’information même de l’agence de presse). De ce point de vue, Twitter tient le pompon. L’AMF relève à juste titre combien les gens sur des réseaux comme Twitter ont tendance à plus vite relayer du faux sensationnaliste que du vrai. Il y a, en plus, dit l’AMF, des algorithmes spécifiques qui collectent le contenu circulant sur les médias sociaux pour pouvoir réagir très vite en cas d’information cruciale. Ces algorithmes de lecture automatisée sont sensibles aux fausses informations plus que les humains, le filtrage par ces derniers reste essentiel.

    L’AMF remarque enfin qu’il existe, au-delà de la diffusion de fausses informations directement liées à une société pour en influencer le cours de Bourse, quantité d’autres voies pour arriver à ces mêmes fins. Et de citer tous les indicateurs qui influencent la Bourse comme les indices de matières premières, la confiance des ménages MCSI (calculé par l’université de Michigan puis transmis à Thomson Reuters), les conditions météorologiques... Enfin, les deepfakes représentent le défi le plus aigu : comment distinguer un deepfake du président de la FED qui fait une annonce sur les taux.

    #fake_news boursières #deepfake

    (la graisse vient de moi)

  • Devin Nunes and the Power of Keyword Signaling | WIRED
    https://www.wired.com/story/devin-nunes-and-the-dark-power-of-keyword-signaling

    We increasingly turn to search engines to seek out information. Since Google’s earliest days, marketers have relied on “search engine optimization” to try to maximize the likelihood that Google returns content that highlights their cause or company. In today’s media landscape, organizations and individuals also use these tactics to manipulate the algorithms behind Facebook/Instagram and Twitter feeds. The problem is, whether or not we’re aware, the key words we search are coded with political biases. My research demonstrates that it’s possible to position ideological searches to maximize the exposure of their content.

    When there is limited or no content available on a topic, it’s possible to game search engines to guarantee that certain keywords will be directed to content that includes these terms or is tagged accordingly. This is why conspiracy theorists were able to capitalize on the concept of a “crisis actor.” By producing a plethora of insidious content rife with the term and maximizing SEO, conspiracy theorists filled what Microsoft’s Michael Golebiewski and danah boyd referred to as a “data void.” Searches for “crisis actor” got conspiratorial results until other sources filled the void with more legitimate content debunking the theory.
    screenshot of a google search
    Courtesy of Francesca Tripodi

    To demonstrate how this works in politics, I Googled a few key phrases used in both of Nunes’ speeches. The results demonstrate how politicians and pundits can exploit data voids to create ideological information silos. During each hearing, Nunes describes “the Russia collusion hoax.” When you search for “collusion hoax,” the links returned support the position that investigations into the president are bogus. The top links are from a story in The New York Post published just last week that Dems are trying to block Barr’s probe into the “Russian collusion hoax” and a link to Amazon to purchase a book titled The Russia Hoax: The Illicit Scheme to Clear Hillary Clinton and Frame Donald Trump, by Fox News legal analyst Gregg Jarrett.

    Strategic signaling also drew attention to what the Mueller report did not focus on. On June 12, Nunes noted that the report had not procured any “useful information on figures who played key roles in the investigation such as Joseph Mifsud,” a Maltese academic and figure in the George Papadopoulos case, “or the Democrat paid operative, former spy Christopher Steele,” the British intelligence officer behind the now notorious pee tape allegations. In the days following Nunes’ remarks, the search returns were primarily conservative content published anywhere between two weeks to 12 minutes before Nunes’ speech. In addition to traditional conservative sources like Fox News, Washington Examiner, and National Review, there are also digital-first sources like the Daily Caller and the Daily Wire, as well as stories posted from more dubious publications like the Epoch Times.

    These findings reveal that existing studies on algorithms, filter bubbles, and misinformation online are missing a crucial component regarding the problem of political polarization, specifically data focused on how we access news and information. Epistemological frameworks can lead us into algorithmic rabbit holes. Understanding keyword signaling is an essential part of studying political polarization. While most focus on how output (e.g., search results or social media newsfeeds) keeps us in filter bubbles, more research is needed on how inputs are manipulated for political gain. This level of sophistication highlights how conservative groups systematically work to optimize their content for search and social media. Not unlike the tactics of Republican strategist Frank Luntz, political players and members of the right-wing media ecosystem are able to fill data voids with their own ideas and stories.

    #Politique_numérique #Moteurs_recherche #Faschosphère #Mots_clés #Fake_news

  • The New York Times published a story alleging ‘swing voters’ are repelled by impeachment. Turns out, they really interviewed Trump voters – Alternet.org
    https://www.alternet.org/2019/09/the-new-york-times-published-a-story-alleging-moderate-swing-voters-are-re

    This week, Sabrina Tavernise and other New York Times reporters have been focusing on swing voters and the issues that could sway them either for or against President Donald Trump in the 2020 election — including an impeachment inquiry in response to the Ukraine scandal. Tavernise, on Twitter, posted, “I talked with six swing voters today. Impeachment repelled every one of them. This could cost Dems at polls.” But pollster Matt McDermott responded that the voters Tavernise was referring to weren’t really swing voters, but committed conservatives or strong Trump supporters.

    McDermott, responding to Tavernise’s tweet, posted, “No, the New York Times did not talk to six ‘swing voters’ about impeachment. The article quotes a handful of devout GOP voters who the NYT has repeatedly interviewed multiple times.”

    The New York Times article that McDermott was referring to rang with the headline, “Elated, Furious, Wary: Impeachment Divides Voters, Like Everything Trump.”

    McDermott, director of Whitman Insight Strategies, specifically discussed some of the voters the Times had interviewed and explained why he didn’t consider them swing voters but rather, staunch conservatives or Trump loyalists.

    For example, a Tennessee woman named Donna Burgraff was interviewed. McDermott notes that the Times presented Donna as an example of a swing voter who “doesn’t favor impeachment. The problem? NYT interviewed the same woman last year. She voted for Trump and the Republicans again in the midterm.”

    McDermott notes that another person presented by the Times as a swing voter, Trisha Hope, has repeatedly attended Trump rallies. Hope, McDermott tweets, “admits she’s been to 23 Trump campaign rallies. 23!…. She’s a Trump fanatic, not a swing voter.”

    Reggie Dickerson is also presented by the Times as a swing voter, but Dickerson, McDermott points out, “was highlighted in an AP story last year entitled ‘In the heart of Trump country, his base remains unshaken.’ Reggie has a portrait of Robert E. Lee hanging in his living room. No, Reggie is not a swing voter.”

    McDermott asserts, “The NYT is repeating its exact same 2016 reporting antics, presenting devout Trump supporters as some sort of forgotten swing constituency. Why does this keep happening, and why do they keep going back to the same individuals for interviews?”

    #Fake_news #Micro_trottoir #Journalisme #new_York_Times

  • « Regarde, j’ai vu ça sur Facebook ! » : quand nos bavardages nourrissent les fake news
    http://theconversation.com/regarde-jai-vu-ca-sur-facebook-quand-nos-bavardages-nourrissent-les

    Que ce soit sur Facebook ou dans un groupe WhatsApp, au téléphone ou au comptoir d’un café, les réactions des individus face aux informations qu’ils reçoivent peuvent être multiples et variées. Or, il est possible qu’au sein de ces niches conversationnelles, la circulation de certaines « fake news » soit favorisée par les bavardages désinhibés et familiers que chacun d’entre nous peut avoir, avec ses proches, dans sa vie quotidienne.

    En effet, lors de ces contextes de communication informelle, nous pouvons nous permettre de discuter d’une façon plus relâchée. Il est ainsi probable que nous ne soyons pas forcément vigilants et tatillons sur la crédibilité d’un contenu informationnel car ce qui compte pour nous est d’un tout autre ordre : faire rire nos meilleurs amis ; provoquer notre belle-mère ; ou encore montrer à notre collègue – celui qui sait toujours tout sur tout – que cette fois-ci c’est nous qui avons raison.
    Les « fake news » sont massivement likées, commentées et partagées : et alors ?

    Lorsque l’on parle du phénomène de la désinformation, il est important de ne pas se focaliser uniquement sur les volumes de « fake news » partagées sur les réseaux sociaux, mais d’étudier également plus finement la manière dont elles sont reçues et interprétées par les individus dans différents contextes de la vie sociale. Et cela pour deux raisons majeures.

    Tout d’abord, parce que pris à l’état brut, ces nombres absolus ne veulent pas dire grand-chose. Par exemple, il a été montré que les 20 « fake news » les plus partagées pendant la campagne électorale américaine de 2016 ont suscité 8,7 millions de likes, partages et commentaires sur Facebook.

    A priori vertigineux, ce chiffre, qui a soulevé beaucoup d’inquiétudes auprès du grand public en raison de son importante couverture médiatique, a bien moins fière allure si on le met perspective avec le nombre total des interactions des utilisateurs américains du réseau social sur la même période car il ne représente alors plus que 0,006 % !

    Ensuite parce que ces traces numériques sont bien laconiques par rapport aux commérages, parlementages ou ergotages que la réception de « fake news » est susceptible d’engendrer dans la vie réelle. Car après tout, est-ce parce qu’une « fake news » a été partagée par des milliers d’internautes que chacun d’entre eux y a cru ?

    En effet, comme l’explique le sociologue Dominique Cardon, l’essor des réseaux sociaux a libéré la prise de parole en public.

    Désormais, tout le monde peut parler de n’importe quoi à n’importe qui, et cela au sein même de l’espace public. De cette manière, les conversations ordinaires des internautes sont venues se greffer aux informations médiatiques diffusées sur le web – lesquelles sont alors devenues des objets de discussions à demi joueuses et moqueuses.
    Les conversations quittent les espaces privés et cercles d’amis, projetées dans l’espace public qu’offrent les réseaux sociaux. Prakhar Amba/Flickr, CC BY-SA

    Elles ne sont non plus murmurées, dans des espaces privés, au sein de contextes de communication interpersonnelle, mais désormais exhibées au sein d’espaces de visibilité en « clair-obscur ». Dominique Cardon utilise cette expression pour souligner que, pour autant qu’ils soient visibles, ces bavardages sont remplis de sous-entendus et d’indices complices destinés à n’être compréhensibles que pour un cercle restreint : les proches du réseau relationnel des internautes.

    Or cette nouvelle structure de la visibilité a ainsi favorisé l’apparition de nouveaux registres d’énonciation plus familiers et désinhibés.

    Le modèle économique des plates-formes joue précisément de cet enchevêtrement entre logiques algorithmiques et dynamiques de sociabilité. En favorisant les contenus qui suscitent le plus d’interactions, les algorithmes de classement de l’information structurent en effet le marché cognitif.

    Sans doute est-ce ainsi pour cela que les « fake news » les plus diffusées sur Facebook en France et aux États-Unis ont été surtout des rumeurs grossières et stupéfiantes telles que : « Une femme augmente son quotient intellectuel en buvant du sperme tous les jours pendant un an » ou encore : « Une babysitter a fini aux urgences après avoir inséré le bébé dans son vagin ».
    Influencer les Unes des médias traditionnels

    Or ces bavardages numériques pourraient finir par imposer des thématiques au débat public en s’infiltrant jusque dans les rédactions, souvent en quête de clics pour monétiser leur audience.

    Aux États-Unis, par exemple, une étude de Harvard a montré que certains grands médias traditionnels avaient plus facilement couverts des informations provenant de rumeurs ou de ragots anecdotiques que des faits établis. Cette tendance générale les aurait ainsi incités à se concentrer plus facilement sur les scandales qui ont égrené la campagne présidentielle qu’aux programmes des candidats.

    Ainsi, en seulement six jours le New York Times a en effet mis autant de fois à la Une le scandale lié à la boîte e-mail d’Hillary Clinton que toutes les thématiques de son programme publiées au cours des soixante-neuf jours qui ont précédé les élections américaines.

    #Fake_news #Médias_sociaux #Médias

  • Est-il vrai que le gouvernement n’a pas financé de pub pour le grand débat, comme l’a dit Sibeth Ndiaye ? - Libération
    https://www.liberation.fr/checknews/2019/09/06/est-il-vrai-que-le-gouvernement-n-a-pas-finance-de-pub-pour-le-grand-deba

    Contrairement à ce qu’a affirmé la porte-parole du gouvernement sur France Inter, l’exécutif a bien dépensé plus d’un million d’euros dans un plan de communication.

  • Fraude exagérée des pauvres, fraude dissimulée des riches : les éditocrates ont choisi leur camp 10 septembre 2019 -Frustration La Revue

    Comme chaque mois, un nouveau sujet anti-pauvres arrive à la table des éditocrates, qui s’acharnent à coup d’édito et de plateaux unanimes pour s’indigner de l’incurie de leurs concitoyens. Ce début septembre, c’est un rapport parlementaire (LREM) consacré à la fraude aux cotisations sociales qui met le feu aux poudres médiatiques.

    Effectivement, alors qu’en France la protection sociale est financée à 61% par des cotisations (le reste par l’impôt, la fameuse CSG entre autres), l’Agence centrale des organismes de Sécurité sociale (Acoss) a sorti en juin dernier une note estimant le montant de la fraude liée au travail dissimulé entre 6,8 et 8,4 milliards d’euros au régime général. Au total, la fraude patronale aux cotisations sociales représenterait la somme considérable de 25 milliards d’euros par an selon le dernier rapport de la Cour des comptes (février 2018). Il y a de quoi s’indigner, effectivement !

    Sauf que, sauf que, on nous souffle à l’oreille que ce n’est pas cette fraude là qui a rempli les colonnes de vos journaux en ligne et occupé vos chroniqueurs télé et radios. La fraude patronale (25 milliards), c’est deux-trois articles par an. La fraude des particuliers, c’est des dizaines par mois !

    Pourtant, la fraude aux prestations sociales (percevoir des prestations auxquels on n’a en réalité pas le droit), est estimée à … 1 milliard par an. Et une bonne moitié est recouvré par des contrôles.

    Le rapport parlementaire LREM est venu apporter un nouvel élément de preuve à tous ceux qui s’en foutent des chiffres (tout en criant à longueur de journée contre les “mensonges des populistes”) et pensent que le Français moyen, pauvre, ou l’étranger, est un fieffé menteur. Il y aurait des “assurés fantômes” à l’assurance maladie, car le nombre de carte vitale serait bien supérieur à la population française. Une info choc qui n’a manqué de faire les gros titres, tant par son caractère spectaculaire (“assurés fantômes”, une expression qui pousse au clic) que par la confirmation du fait journalistique bien connu selon lequel les Français sont des salauds profiteurs – sans même parler des étrangers vivant en France, qui sont profiteurs ET potentiels terroristes.

    Depuis, il a été démontré que le rapport était en grande partie “fake”, comme disent les journaleux. Les estimations de fraude sociale proviennent d’une étude réalisée par l’université de Portsmouth, basée sur d’autres pays et système sociaux que le nôtre – on laisse quand même publier n’importe quoi à l’Assemblée Nationale – et non, il n’y a pas davantage de carte vitale en circulation en France que d’habitants. https://www.lemonde.fr/les-decodeurs/article/2019/09/05/y-a-t-il-vraiment-84-millions-de-cartes-vitale-actives-en-france_5506868_435

    Mais le mal est fait. Et en cela, les éditocrates bourgeois procèdent exactement comme les idéologues d’extrême-droite ou les “populistes” qu’ils se targuent de combattre : ils balancent “une fausse information” où une approximation, sans la vérifier, parce qu’elle confirme leurs préjugées de classe (quand l’extrême-droite cherche à confirmer ses préjugés racistes), ils ergotent des heures de grande écoute dessus https://www.telerama.fr/television/fraude-sociale-les-mauvais-comptes-font-les-bons-ennemis,n6411523.php et quand les éléments sont infirmés par des analyses un peu plus poussées, ils passent à autre chose. Ni ne s’excusent, ni proposent une autre analyse, ni dédouanent les gens qu’ils attaquaient. Comme ils l’ont fait avec la prétendue “invasion” de l’hôpital de la Pitié-Salpétrière par les gilets jaunes, comme ils le font continuellement en disant que les Français travaillent moins que les autres. https://www.frustrationlarevue.fr/les-fake-news-cest-mal-sauf-quand-il-sagit-de-detruire-notre-mode Les “fake news”, c’est mal, sauf quand il s’agit de détruire notre modèle social, salir les opposants au régime, décrédibiliser un mouvement citoyen.

    Extrême-droite, extrême-bourgeoisie, même moyen, même fin ?

    Source : https://www.frustrationlarevue.fr/fraude-exageree-des-pauvres-fraude-dissimulee-des-riches-les-edit

     #fake_news #en_vedette #facebook #médias #manipulation #journalisme #fake #propagande #surveillance #racisme #twitter #désinformation #france #internet #politique #réseaux_sociaux #merdias #journulliste #médiacrates #imposture