• A new Trump campaign ad depicting a police officer being attacked by protesters is actually a 2014 photo of pro-democracy protests in Ukraine

    However, the image the Trump campaign used is not from the US – or from this year. It was uploaded on Wikimedia Commons, Wikipedia’s public-domain media archive, in 2014 with the label “a police officer attacked by protesters during clashes in Ukraine, Kyiv. Events of February 18, 2014.”

    The photographer, Mstyslav Chernov, confirmed to Business Insider that this was his photo from Ukraine in 2014.

    “Photography has always been used to manipulate public opinion. And with the rise of social media and the rise of populism, this is happening even more,” he said.


    A source close to Facebook told Business Insider that the company does not plan to remove the ad.

    #désinformation #fake_news #Trump #Facebook

  • With social media, Zimbabwean youth fight pandemic ’infodemic’

    JOHANNESBURG/BULAWAYO, Zimbabwe, July 23 (Thomson Reuters Foundation) - Drinking alcohol will kill the coronavirus. It is OK to share face masks. Africans cannot get COVID-19. The pandemic is not even real.

    These are some of the coronavirus myths that a team of 20 Zimbabwean youth have been busting online since the country’s lockdown began in late March, using social media and radio shows to reach an estimated 100,000 people to date.

    “There is a common saying that ’ignorance is bliss’. Well, in this instance, ignorance is not bliss, if anything ignorance is death,” said Bridget Mutsinze, 25, a volunteer based in the capital, Harare.

    Although relatively low compared to the rest of the continent, Zimbabwe is experiencing an uptick in the number of coronavirus infections, with more than 1,800 cases and at least 26 deaths, according to a tally by Johns Hopkins University.

    To stem the spread of the disease, Zimbabwean youth working with development charity Voluntary Service Overseas (VSO) have taken to Twitter, WhatsApp, Facebook and radio to comb through online comments, identify and correct COVID-19 misinformation.

    The spread of coronavirus misinformation has been a global issue, with the World Health Organization describing it as an “infodemic”.

    While tech giants WhatsApp and Facebook have teamed up with African governments to tackle fake news through interactive bots, adverts and push notifications, VSO volunteers are leading the battle within their communities.

    Across the continent, 86% of Africans aged 18-24 own a smartphone and nearly 90% use it for social media, according to a survey by the South African-based Ichikowitz Family Foundation.

    VSO volunteers are tapping into the informal conversations taking place on these platforms.

    “If we do not get facts out there, people will continue to live as they wish and the number of people who get the virus will continue to spread,” Mutsinze told the Thomson Reuters Foundation.

    #Désinformation #Fake_News #COVID-19 #Zimbabwe

  • A TikTok Twist on ‘PizzaGate’ - The New York Times

    One of social media’s early conspiracy theories is back, but remade in creatively horrible ways.

    “PizzaGate,” a baseless notion that a Washington pizza parlor was the center of a child sex abuse ring, leading to a shooting in 2016, is catching on again with younger people on TikTok and other online hangouts, my colleagues Cecilia Kang and Sheera Frenkel wrote.

    I talked to Sheera about how young people have tweaked this conspiracy and how internet sites help spread false ideas. (And, yes, our names are pronounced the same but spelled differently.)

    Shira: How has this false conspiracy changed in four years?

    Sheera: Younger people on TikTok have made PizzaGate more relatable for them. So a conspiracy that centered on Hillary Clinton and other politicians a few years ago now instead ropes in celebrities like Justin Bieber. Everyone is at home, bored and online more than usual. When I talked to teens who were spreading these conspiracy videos, many of them said it seemed like fun.

    If it’s for “fun,” is this version of the PizzaGate conspiracy harmless?

    It’s not. We’ve seen over and over that some people can get so far into conspiracies that they take them seriously and commit real-world harm. And for people who are survivors of sexual abuse, it can be painful to see people talking about it all over social media.

    Have the internet companies gotten better at stopping false conspiracies like this?

    They have, but people who want to spread conspiracies are figuring out workarounds. Facebook banned the PizzaGate hashtag, for example, but the hashtag is not banned on Instagram, even though it’s owned by Facebook. People also migrated to private groups where Facebook has less visibility into what’s going on.

    Tech companies’ automated recommendation systems also can suck people further into false ideas. I recently tried to join Facebook QAnon conspiracy groups, and Facebook immediately recommended I join PizzaGate groups, too. On TikTok, what you see is largely decided by computer recommendations. So I watched one video about PizzaGate, and the next videos I saw in the app were all about PizzaGate.

    TikTok is a relatively new place where conspiracies can spread. What is it doing to address this?

    TikTok is not proactively going out and looking for videos with potentially false and dangerous ideas and removing them. There were more than 80 million views of TikTok videos with PizzaGate-related hashtags.

    The New York Times reached out to TikTok about the videos, pointing out their spike. After we sent our email, TikTok removed many of the videos and seemed to limit their spread. Facebook and Twitter often do this, too — they frequently remove content only after journalists reach out and point it out.

    Do you worry that writing about baseless conspiracies gives them more oxygen?

    We worry about that all the time, and spend as much time debating whether to write about false conspiracies and misinformation as we do writing about them.

    We watch for ones that reach a critical mass; we don’t want to be the place where people first find out about conspiracies. When a major news organization writes about a conspiracy — even to debunk it — people who want to believe it will twist it to appear to validate their views.

    But to ignore them completely could also be dangerous.

    #Pizzagate #complotisme #fake_news #TikTok

  • Protest misinformation is riding on the success of pandemic hoaxes | MIT Technology Review

    Misinformation about police brutality protests is being spread by the same sources as covid-19 denial. The troubling results suggest what might come next.

    by Joan Donovan
    June 10, 2020

    Police confront Black Lives Matter protesters in Los Angeles
    After months spent battling covid-19, the US is now gripped by a different fever. As the video of George Floyd being murdered by Derek Chauvin circulated across social media, the streets around America—and then the world—have filled with protesters. Floyd’s name has become a public symbol of injustice in a spiraling web of interlaced atrocities endured by Black people, including Breonna Taylor, who was shot in her home by police during a misdirected no-knock raid, and Ahmaud Arbery, who was murdered by a group of white vigilantes. 

    Meanwhile, on the digital streets, a battle over the narrative of protest is playing out in separate worlds, where truth and disinformation run parallel. 

    Related Story

    How to protect yourself online from misinformation right now
    In times of crisis it’s easy to become a spreader of incorrect information online. We asked the experts for tips on how to stay safe—and protect others.

    In one version, tens of thousands of protesters are marching to force accountability on the US justice system, shining a light on policing policies that protect white lives and property above anything else—and are being met with the same brutality and indifference they are protesting against. In the other, driven by Donald Trump, US attorney general Bill Barr, and the MAGA coalition, an alternative narrative contends that anti-fascist protesters are traveling by bus and plane to remote cities and towns to wreak havoc. This notion is inspiring roving gangs of mostly white vigilantes to take up arms. 

    These armed activists are demographically very similar to those who spread misinformation and confusion about the pandemic; the same Facebook groups have spread hoaxes about both; it’s the same older Republican base that shares most fake news. 

    The fact that those who accept protest misinformation also rose up to challenge stay-at-home orders through “reopen” rallies is no coincidence: these audiences have been primed by years of political misinformation and then driven to a frenzy by months of pandemic conspiracy theories. The infodemic helped reinforce routes for spreading false stories and rumors; it’s been the perfect breeding ground for misinformation.

    How it happened
    When covid-19 hit like a slow-moving hurricane, most people took shelter and waited for government agencies to create a plan for handling the disease. But as the weeks turned into months, and the US still struggled to provide comprehensive testing, some began to agitate. Small groups, heavily armed with rifles and misinformation, held “reopen” rallies that were controversial for many reasons. They often relied on claims that the pandemic was a hoax perpetrated by the Democratic Party, which was colluding with the billionaire donor class and the World Health Organization. The reopen message was amplified by the anti-vaccination movement, which exploited the desire for attention among online influencers and circulated rampant misinformation suggesting that a potential coronavirus vaccine was part of a conspiracy in which Bill Gates planned to implant microchips in recipients. 

    These rallies did not gain much legitimacy in the eyes of politicians, press, or the public, because they seemed unmoored from the reality of covid-19 itself. 

    But when the Black Lives Matter protests emerged and spread, it opened a new political opportunity to muddy the waters. President Trump laid the foundation by threatening to invade cities with the military after applying massive force in DC as part of a staged television event. The cinema of the state was intended to counter the truly painful images of the preceding week of protests, where footage of the police firing rubber bullets, gas, and flash grenades dominated media coverage of US cities on fire. Rather than acknowledge the pain and anguish of Black people in the US, Trump went on to blame “Antifa” for the unrest. 

    @Antifa_US was suspended by Twitter, but this screenshot continues to circulate among right wing groups on Facebook.
    For many on the left, antifa simply means “anti-fascist.” For many on the right, however, “Antifa” has become a stand-in moniker for the Democratic Party. In 2017, we similarly saw right-wing pundits and commentators try to rebrand their political opponents as the “alt-left,” but that failed to stick. 

    Shortly after Trump’s declaration, several Twitter accounts outed themselves as influence operations bent on calling for violence and collecting information about anti-fascists. Twitter, too, confirmed that an “Antifa” account, running for three years, was tied to a now-defunct white nationalist organization that had helped plan the Unite the Right rally that killed Heather Heyer and injured hundreds more. Yet the “alt-right” and other armed militia groups that planned this gruesome event in Charlottesville have not drawn this level of concern from federal authorities.

    @OCAntifa Posted this before the account was suspended on Twitter for platform manipulation.
    Disinformation stating that the protests were being inflamed by Antifa quickly traveled up the chain from impostor Twitter accounts and throughout the right-wing media ecosystem, where it still circulates among calls for an armed response. This disinformation, coupled with widespread racism, is why armed groups of white vigilantes are lining the streets in different cities and towns. Simply put, when disinformation mobilizes, it endangers the public.

    What next?
    As researchers of disinformation, we have seen this type of attack play out before. It’s called “source hacking”: a set of tactics where media manipulators mimic the patterns of their opponents, try to obfuscate the sources of their information, and then slowly become more and more dangerous in their rhetoric. Now that Trump says he will designate Antifa a domestic terror group, investigators will have to take a hard look at social-media data to discern who was actually calling for violence online. They will surely unearth this widespread disinformation campaign of far-right agitators.

    That doesn’t mean that every call to action is suspect: all protests are poly-vocal and many tactics and policy issues remain up for discussion, including the age-old debate on reform vs. revolution. But what is miraculous about public protest is how easy it is to perceive and document the demands of protesters on the ground. 

    Moments like this call for careful analysis. Journalists, politicians, and others must not waver in their attention to the ways Black organizers are framing the movement and its demands. As a researcher of disinformation, I am certain there will be attempts to co-opt or divert attention from the movement’s messaging, attack organizers, and stall the progress of this movement. Disinformation campaigns tend to proceed cyclically as media manipulators learn to adapt to new conditions, but the old tactics still work—such as impostor accounts, fake calls to action (like #BaldForBLM), and grifters looking for a quick buck. 

    Crucially, there is an entire universe of civil society organizations working to build this movement for the long haul, and they must learn to counter misinformation on the issues they care about. More than just calling for justice, the Movement for Black Lives and Color of Change are organizing actions to move police resources into community services. Media Justice is doing online trainings under the banner of #defendourmovements, and Reclaim the Block is working to defund the police in Minneapolis. 

    Through it all, one thing remains true: when thousands of people show up to protest in front of the White House, it is not reducible to fringe ideologies or conspiracy theories about invading outside agitators. People are protesting during a pandemic because justice for Black lives can’t wait for a vaccine.

    —Joan Donovan, PhD, is research director Research Director of the Shorenstein Center on Media, Politics and Public Policy at the Harvard Kennedy School.

    #Fake_news #Extrême_droite #Etats_unis

  • How Twitter Botched Its Fact-Check of Trump’s Lies – Mother Jones

    Facing widespread condemnation for not removing President Trump’s tweets falsely accusing MSNBC host Joe Scarborough of murder, Twitter finally took action. On Wednesday, the company slapped disclaimer links onto two of Trump’s tweets, the first time it has pushed back on the misinformation that regularly flows from the president’s account.

    But the tweets in question had nothing to do with the debunked conspiracy theories surrounding Scarborough and his late congressional aide, who in 2001 died after suffering a fall from an undiagnosed heart condition. Instead, the ignominious honor belonged to Trump’s false claims that mail-in voting would lead to rampant voter fraud.

    The move drew more questions than praise. Why not simply remove the tweets pushing a vile murder conspiracy, as the widower of Scarborough’s late staffer pleaded in a letter to Twitter CEO Jack Dorsey? Even top Republicans, who have remained silent about Trump’s smears against Scarborough, would have been unlikely to object to the removal of accusations so clearly false and defamatory. Why instead wade into a more politically divisive territory such as mail-in voting practices?

    #Twitter #Trump #Fake_news

  • How covid-19 conspiracy theorists are exploiting YouTube culture | MIT Technology Review

    Covid-19 conspiracy theorists are still getting millions of views on YouTube, even as the platform cracks down on health misinformation.

    The answer was obvious to Kennedy, one of many anti-vaccination leaders trying to make themselves as visible as possible during the covid-19 pandemic. “I’d love to talk to your audience,” he replied.

    Kennedy told Bet-David that he believes his own social-media accounts have been unfairly censored; making an appearance on someone else’s popular platform is the next best thing. Bet-David framed the interview as an “exclusive,” enticingly titled “Robert Kennedy Jr. Destroys Big Pharma, Fauci & Pro-Vaccine Movement.” In two days, the video passed half a million views.

    As of Wednesday, advertisements through YouTube’s ad service were playing before the videos, and Bet-David’s merchandise was for sale in a panel below the video’s description. Two other interviews, in which anti-vaccine figures aired several debunked claims about coronavirus and vaccines (largely unchallenged by Bet-David), were also showing ads. Bet-David said in an interview that YouTube had limited ads on all three videos, meaning they can generate revenue, but not as much as they would if they were fully monetized.

    We asked YouTube for comment on all three videos on Tuesday afternoon. By Thursday morning, one of the three (an interview with anti-vaccine conspiracy theorist Judy Mikovits) had been deleted for violating YouTube’s medical misinformation policies. Before it was deleted, the video had more than 1 million views.

    YouTube said that the other two videos were borderline, meaning that YouTube decided they didn’t violate rules, but would no longer be recommended or show up prominently in search results.

    I asked Bet-David whether he felt any responsibility over airing these views on his channel—particularly potentially harmful claims by his guests, urging viewers to ignore public health recommendations.

    “I do not,” he said. “I am responsible for what comes out of my mouth. I’m not responsible for what comes out of your mouth”

    For him, that lack of responsibility extends to misinformation that could be harmful to his audience. He is just giving people what they are asking for. That, in turn, drives attention, which allows him to make money from ads, merchandise, speaking gigs, and workshops. “It’s up to the audience to make the decision for themselves,” he says. Besides, he thinks he’s done interviewing anti-vaccine activists for now. He’s trying to book some “big name” interviews of what he termed “pro-vaccine” experts.

    #YouTube #Complotisme #Vaccins #Médias_sociaux #Fake_news

  • Fake news 101: A guide to help sniff out the truth - CSMonitor.com

    What is misinformation vs. disinformation?

    Misinformation is information that is misleading or wrong, but not intentionally. It includes everything from a factoid your friend reposted on Facebook to assertions made by officials or, yes, even journalists.

    Disinformation is more deliberate and is distributed with the intent to confuse, disturb, or provoke. It also includes plausible information shared through devious means, such as a fake Twitter account; done en masse, this can create a skewed impression of popular opinion. A particularly deceptive form of disinformation are “deepfake” videos, with imperceptible alterations in the footage making it appear that someone said or did something that he or she never said or did.

    Be particularly on guard against misinformation and disinformation during crises, which provide fertile ground for exploiting fear, anger, and other emotions.

    #fake_news #infox #Fausses_information #Désinformation

  • Covid hoaxes are using a loophole to stay alive—even after being deleted | MIT Technology Review

    Pandemic conspiracy theorists are using the Wayback Machine to promote ’zombie content’ that avoids content moderators and fact-checkers.

    by Joan Donovan archive page
    April 30, 2020

    Since the onset of the pandemic, the Technology and Social Change Research Project at Harvard Kennedy’s Shorenstein Center, where I am the director, has been investigating how misinformation, scams, and conspiracies about covid-19 circulate online. If fraudsters are now using the virus to dupe unsuspecting individuals, we thought, then our research on misinformation should focus on understanding the new tactics of these media manipulators. What we found was a disconcerting explosion in “zombie content.”

    While the original page failed to spread fake news, the version of the page saved on the Internet Archive’s Wayback Machine absolutely flourished on Facebook. With 649,000 interactions and 118,000 shares, the engagement on the Wayback Machine’s link was much larger than legitimate press outlets. Facebook has since placed a fact-check label over the link to the Wayback Machine link too, but it had already been seen a huge number of times.

    There are several explanations for this hidden virality. Some people use the Internet Archive to evade blocking of banned domains in their home country, but it is not simply about censorship. Others are seeking to get around fact-checking and algorithmic demotion of content.

    When looking for more evidence of hidden virality, we searched for “web.archive.org” across platforms. Unsurprisingly, Medium posts that were taken down for spreading health misinformation have found new life through Wayback Machine links. One deleted Medium story, “Covid-19 had us all fooled, but now we might have finally found its secret,” violated Medium’s policies on misleading health information. Before Medium’s takedown, the original post amassed 6,000 interactions and 1,200 shares on Facebook, but the archived version is vastly more popular—1.6 million interactions, 310,000 shares, and still climbing. This zombie content has better performance than most mainstream media news stories and, yet it only exists as an archived record.

    Perhaps the most alarming element to a researcher like me is that these harmful conspiracies permeate private pages and groups on Facebook. This means researchers have access to less than 2 % of the interaction data, and that health misinformation circulates in spaces where journalists, independent researchers and public health advocates can not assess or counterbalance these false claims with facts. Crucially, if it weren’t for the Internet Archive’s records we would not be able to do this research on deleted content in the first place, but these use cases suggest that the Internet Archive will soon have to address how their service can be adapted to deal with disinformation.

    Hidden virality is growing in places where Whatsapp is popular because it’s easy to forward misinformation through encrypted channels and evade content moderation. But when hidden virality happens on Facebook with health misinformation, it is particularly disconcerting. More than 50% of Americans rely on Facebook for their news, and still, after many years of concern and complaint, researchers have a very limited window into the data. This means it’s nearly impossible to ethically investigate how dangerous health misinformation is shared on private pages and groups.

    All of this is a threat for public health in a different way than political or news misinformation, because people do quickly change their behaviors based on medical recommendations.

    #Fake_news #Viralité #Internet_archive #zombie_content #Joan_Donovan

  • Bambou | le blog Pro de la MIOP

    Pour celles et ceux qui n’ont pas pu assister à la journée d’étude du 28 novembre dernier, organisée par Médiat Rhône-Alpes, en voici la captation audiovisuelle complète, divisée en 2 parties :

    La 1ère partie comprend les interventions de :
    – Hervé Le Crosnier pour l’introduction
    – Grégoire Borst « Le cerveau en développement face aux Fake news »
    – Julien Giry « Quelles réponses aux théories du complot et au conspirationnisme »
    – Gérald Bronner « Une révolution pédagogique contre la démocratie des crédules »

    La 2ème partie :

    – Pierre Haski « Fake news, désinformation, liberté d’informer : le nouveau défi. »

    – Rose-Marie Farinella « Ateliers de détection d’intox à l’école primaire »

    – Anne Cécile Hivernât « Les ateliers EMI à la BML »


  • Dé·mis·information : doit-on repenser le fact-checking ? - journalism.design


    Contrairement à la croyance populaire, les fake news, les infox n’auraient pas l’impact qu’on leur prête un peu abusivement. Une étude tombe à point nommé pour réveiller un peu les esprits endormis et questionner l’utilité d’un des piliers du journalisme.

    Évidemment, ce type d’étude va être immédiatement décriée par l’ensemble des professionnels de l’information qui voient dans la vérification des faits un des piliers du métier. Pourtant, l’étude publiée dans le dernier Science Advances 1 donne matière à réflexion. Si les études sur les fausses informations en ligne ne manquent pas 2 3 4 5 elles semblent principalement restreindre leur champ d’investigation à des plates-formes précises (Twitter, Facebook, Whatsapp) et ne considèrent que leur écosystème, négligeant au passage une approche plus large, davantage ancrée dans le réel et l’expérience de tous, en considérant le paysage média disponible dans son ensemble. Celle-ci, plus large, avance en conclusion que l’impact des infox sur la population reste minimal, tant la portée initiale (le reach 6 ) de celles-ci est faible. Quelles autres questions soulèvent-elle ?

    #journalisme #information #infox #fake_news

  • Opinion | What We Pretend to Know About the Coronavirus Could Kill Us - The New York Times

    Article passionnant sur l’enjeu des fausses informations, sur la différence de temps entre la réflexion et la science d’un côté et les outils de l’information de l’autre. Les fausses informations se construisent sur la multiplicité des données disponibles. En ajoutant des chiffres et des courbes, les fake news adoptent un « effet de réel » qui les rend crédibles. Une vieille technique littéraire largement exploitée par la science fiction depuis Jules verne.

    (complément : je viens de trouver une version en français à : https://teles-relay.com/2020/04/03/opinion-ce-que-nous-pretendons-savoir-sur-le-coronavirus-pourrait-nous-)

    Other than a vaccine or an extra 500,000 ventilators, tests and hospital beds, reliable information is the best weapon we have against Covid-19. It allows us to act uniformly and decisively to flatten the curve. In an ideal pandemic scenario, sound information is produced by experts and travels quickly to the public.

    But we seem to be living in a nightmare scenario. The coronavirus emerged in the middle of a golden age for media manipulation. And it is stealthy, resilient and confounding to experts. It moves far faster than scientists can study it. What seems to be true today may be wrong tomorrow. Uncertainty abounds. And an array of dangerous misinformation, disinformation and flawed amateur analysis fills the void.

    On Friday, President Trump announced that the Centers for Disease Control and Prevention had changed the recommendation on masks to say that all Americans should use “non-medical, cloth” ones. “You can do it. You don’t have to do it. I’m choosing not to do it,” Mr. Trump said. “It’s only a recommendation.”

    But the reversal may prove costly for the World Health Organization’s and the C.D.C.’s credibility. As Zeynep Tufekci, a University of North Carolina professor, wrote in a Times Op-Ed weeks ago, a lack of transparency up front created its own information crisis. “What should the authorities have said?” she asked. “The full painful truth.”

    The fear and uncertainty around the coronavirus is, of course, fertile ground for extremists and hucksters. Alex Jones of Infowars is pushing a conspiracy theory that the virus is an American-made biological weapon and is directing viewers to purchase any number of overpriced vitamin products from his stores. People who believe the myth that 5G wireless signals are harmful to health have falsely linked the technology to Covid-19.

    The anti-vaccination movement is also capitalizing on the pandemic. The New York Times used the analytics tool CrowdTangle to survey 48 prominent anti-vax Instagram accounts and found that video views spiked from 200,000 in February to more than two million in March, just as the pandemic took off globally. Another Times analysis of anti-vax accounts showed a surge in followers during the last week of March. In private groups on Facebook, junk science and unproven treatment claims proliferate.

    But you don’t have to be a science denier to end up seduced by bad information. A pandemic makes us all excellent targets for misinformation. No one has natural immunity to this coronavirus, leaving us all threatened and looking for information to make sense of the world. Unfortunately, the pace of scientific discovery doesn’t match the speed of our information ecosystems. As Wired reported in March, researchers are moving faster than ever to understand the virus — so fast that it may be compromising some of the rigor.

    But much of the pernicious false news about the coronavirus operates on the margins of believability — real facts and charts cobbled together to formulate a dangerous, wrongheaded conclusion or news reports that combine a majority of factually accurate reporting with a touch of unproven conjecture.

    The phenomenon is common enough that it already has its own name: armchair epidemiology, which Slate described as “convincing but flawed epidemiological analyses.” The prime example is a Medium blog post titled “Covid-19 — Evidence Over Hysteria” by Aaron Ginn, a Silicon Valley product manager and “growth hacker” who argued against the severity of the virus and condemned the mainstream media for hyping it.

    Without a deeper knowledge of epidemiology or evolutionary biology, it would have been easy to be seduced by Mr. Ginn’s piece. This, according to Dr. Bergstrom, is what makes armchair epidemiology so harmful. Posts like Mr. Ginn’s “deplete the critical resource you need to manage the pandemic, which is trust,” he told me. “When people are getting conflicting messages, it makes it very hard for state and local authorities to generate the political will to take strong actions downstream.”

    It’s this type of misinformation on the margins that’s most insidious. “I am seeing this playbook more and more,” Dr. Bergstrom said. “Secondhand data showing a crisis narrative that feels just a bit too well crafted. Mixing the truth with the plausible and the plausible with that which seems plausibly true in a week.” Dr. Bergstrom argues that the advances in available data make it easier than ever for junk-science peddlers to appear legitimate.

    This hybrid of true and false information is a challenge for social media platforms. Covid-19 and the immediate threat to public health means that networks like Facebook, Twitter and YouTube have been unusually decisive about taking down misinformation. “In a case of a pandemic like this, when we are seeing posts that are urging people not to get treatment,” Facebook’s chief executive, Mark Zuckerberg, said recently, “that’s a completely different class of content versus the back-and-forth of what candidates may say about each other.”

    Facebook took down a video of Mr. Bolsonaro when it became clear he was using the platform to spread unproven claims that chloroquine was an effective cure for the coronavirus. Similarly, Twitter temporarily locked the account of Rudolph Giuliani, a former mayor of New York City and Mr. Trump’s personal lawyer, for violating Twitter’s rules on Covid-19 misinformation with regard to hydroxychloroquine treatments. Depending on how you feel about technology companies, this is either heartening progress or proof that the companies could have been doing far more to tamp down misinformation over the past five years.

    The platforms are slightly more prepared than they once were to counter public-health myths, having changed their policies around medical misinformation after measles outbreaks in 2019. “With measles there was a lot of available authoritative information about measles,” Ms. DiResta told me. “The difference with coronavirus is that until months ago, nobody had seen this virus before.”

    “The really big question that haunts me is, ‘When do we return to reality?’” Mr. Pomerantsev mused over the phone from his own quarantine. “Or is it that in this partisan age absolutely everything is chopped, cut and edited to fit a different view? I’m waiting for society to finally hit up against a shared reality, like diving into the bottom of swimming pool. Instead we just go deeper.”

    #Fake_news #Culture_numérique #Trolls #Coronavirus

  • Fake Off & révisionnisme

    Coronavirus : Attention à ces photos de manifestations de soignants qui datent de dix ans

    FAKE OFF Dans le contexte d’épidémie du coronavirus, attention à ces photos trompeuses de manifestation de personnels soignants, qui remontent à 2010

    Plusieurs photos de manifestations de soignants réprimées par les forces de l’ordre circulent sur les réseaux sociaux depuis quelques jours. « C’était le temps où l’on réclamait des moyens pour mieux prendre soin !! Qui avait raison ???? », indique notamment l’auteur de l’une de ces publications virales, suggérant ainsi que la récente mobilisation des soignants pour réclamer des moyens supplémentaires, avant la crise du coronavirus, était méprisée par l’exécutif et les forces de l’ordre.

    C’est assez fort cet article qui explique que l’executif et les forces de l’ordre qui réprimaient les soignantes c’était il y a 10 ans ! Comme si les seules photos dispo dataient de Sarko et comme si on avait pas exactement les mêmes avec plus de mains et d’yeux arrachés par la police et comme si les flics ne gazaient pas jusqu’à l’intérieur de l’hopital à la Salpêtrière le premier mai dernier.

    #révisionnisme #fake_news_au_carré

    • Bon rappel de ce qu’il y aura pas mal de monde sur le banc des accusés — pas seulement des marcheures.

  • Coronavirus. Nantes n’échappe pas aux fake news

    « "L’Armée est déjà sur place" ». Au soir de l’annonce présidentielle, le 17 mars, sur le confinement de la population, les réseaux sociaux se sont enflammés. Photo à l’appui d’un convoi de véhicules militaires, d’aucuns affirmaient sur Snapchat que l’armée avait déjà pris position à Nantes.

    En toute bonne foi, ce jeune Nantais a relayé auprès de son père le screen (capture d’écran) de ladite photo sur laquelle était mentionné : « "Le périphérique de Beaujoire. Rentrez chez vous ça démarre". Ni une ni deux, le père a repoussé l’information via Messenger. « "L’Armée est déjà sur place" ».
    « Je l’ai screenée sur le compte d’un ami qui l’avait lui-même screenée sur Snapchat »

    Sauf que les véhicules militaires en question, photographiés à travers le pare-brise d’une voiture ne sont pas des véhicules de l’Armée française. Et si la photo a bien été réalisée sur une voie rapide ou une route à quatre voies, rien ne permet de localiser précisément le lieu et encore moins de dire qu’il s’agît du périphérique nantais. L’information était fausse, comme l’ont confirmé les autorités militaires. Le jeune Nantais explique l’avoir « "screenée" » sur Snapchat. « "C’est un ami qui l’avait lui-même screenée sur le compte d’un ami qui lui-même l’avait déjà screenée chez un autre…" ». Le circuit classique des fake news et de la rumeur.

    Mais les réseaux sociaux ne sont pas les seuls vecteurs de fausses nouvelles. Le bouche-à-oreille fonctionne également à plein régime. Vendredi, avec le plus grand sérieux, un habitant du nord du département nous rapportait qu’une infirmière de 28 ans était décédée au CHU de Nantes du coronavirus. Il l’avait entendu au bureau de tabac d’une femme, très persuasive, qui tenait l’information d’une cousine dont la meilleure amie connaît le mari d’une aide-soignante… Là aussi, fausse information.
    « "La d" "iffusion d’informations fausses pour alimenter une certaine vie sociale a toujours existé"

    « "La d" "iffusion d’informations fausses pour alimenter une certaine vie sociale a toujours existé. C’est la même logique qui prévaut avec les réseaux sociaux, parfois avec la volonté de nuire ou de faire pression" », constate Olivier Ertzscheid, professeur d’information et de communication à l’Université de Nantes. « "Les réseaux offrent cependant un champ de développement plus rapide et plus large qui donne cette chaîne de viralité" ». Pour Olivier Ertzscheid, la banalisation des outils de trucage, que l’on trouve facilement sur Internet, favorise également le phénomène. « "N’importe qui peut récupérer une image sur Internet et y ajouter ce qu’il veut !" ».

    [ Presse Océan vous offre 2 mois d’abonnement numérique, sans engagement et sur simple création de compte. En savoir plus ]
    « Il faut se méfier de ce qui nourrit nos propres angoisses »

    Pour autant, les réseaux sociaux, restent à ses yeux, une source d’information vitale. « "Les fake news ne sont que la partie émergée de l’iceberg. L’essentielle de l’information qui figure sur les réseaux est vérifiée et validée". Quels sont alors les bons réflexes à adopter pour faire la part des choses sur les réseaux ? « "Il faut se méfier de ce qui nourrit nos propres angoisses et nos convictions. Si on lit quelque chose qui va dans notre sens, on aura tendance à moins vérifier avant de cliquer sur partager" ». Olivier Ertzscheid met également en garde contre l’élément contextuel : « "On voit réapparaître sur les réseaux, c’est notamment vrai sur Facebook, des articles anciens. Il faut donc toujours voir la source dans son contexte maximal, la provenance, la date…"

    #Fake_news #Coronavirus

  • You are fake news: political bias in perceptions of fake news - Sander van der Linden, Costas Panagopoulos, Jon Roozenbeek,

    Although the rise of fake news is posing an increasing threat to societies worldwide, little is known about what associations the term ‘fake news’ activates in the public mind. Here, we report a psychological bias that we describe as the ‘fake news effect’: the tendency for partisans to use the term ‘fake news’ to discount and discredit ideologically uncongenial media sources. In a national sample of the US population (N = 1000), we elicited top-of-mind associations with the term ‘fake news’. Consistent with our hypothesis, we find evidence that both liberals and conservatives freely associate traditionally left-wing (e.g. CNN) and right-wing (e.g. Fox News) media sources with the term fake news. Moreover, conservatives are especially likely to associate the mainstream media with the term fake news and these perceptions are generally linked to lower trust in media, voting for Trump, and higher belief in conspiracy theories.

    #Fake_news #Association_idées

  • How to fight an infodemic - The Lancet

    WHO’s newly launched platform aims to combat misinformation around COVID-19. John Zarocostas reports from Geneva.
    WHO is leading the effort to slow the spread of the 2019 coronavirus disease (COVID-19) outbreak. But a global epidemic of misinformation—spreading rapidly through social media platforms and other outlets—poses a serious problem for public health. “We’re not just fighting an epidemic; we’re fighting an infodemic”, said WHO Director-General Tedros Adhanom Ghebreyesus at the Munich Security Conference on Feb 15.

    Kuzmanovic said, “In my role, I am in touch with Facebook, Twitter, Tencent, Pinterest, TikTok, and also my colleagues in the China office who are working closely with Chinese social media platforms…So when we see some questions or rumours spreading, we write it down, we go back to our risk communications colleagues and then they help us find evidence-based answers”.
    “Another thing we are doing with social media platforms, and that is something we are putting our strongest efforts in, is to ensure no matter where people live….when they’re on Facebook, Twitter, or Google, when they search for ‘coronavirus’ or ‘COVID-19’ or [a] related term, they have a box that…directs them to a reliable source: either to [the] WHO website to their ministry of health or public health institute or centre for disease control”, she said.
    Google, Kuzmanovic noted, has created an SOS Alert on COVID-19 for the six official UN languages, and is also expanding in some other languages. The idea is to make the first information that the public receive be from the WHO website and the social media accounts of WHO and Dr Tedros. WHO also uses social media for real-time updates.

    Carlos Navarro, head of Public Health Emergencies at UNICEF, the children’s agency, told The Lancet that while a lot of incorrect information is spreading through social media, a lot is also coming from traditional mass media.
    “Often, they pick the most extreme pictures they can find…There is overkill on the use of [personal protective equipment] and that tends to be the photos that are published everywhere, in all major newspapers and TV…that is, in fact, sending the wrong message”, Navarro said.
    David Heymann, professor of infectious disease epidemiology at the London School of Hygiene & Tropical Medicine, told The Lancet that the traditional media has a key role in providing evidence-based information to the general public, which will then hopefully be picked up on social media.
    He also observed that for both social and conventional media, it is important that the public health community help the media to “better understand what they should be looking for, because the media sometimes gets ahead of the evidence”.

    #Fake_news #COVID-19 #Infodemics

  • An Indian politician is using deepfake technology to win new voters - MIT Technology Review

    On avait tendance à penser que les deepfakes servaient à moquer ou ridiculiser ses opposants. On a ici une forme intéressante : un candidat qui produit plusieurs deepfakes de son discours dans les diverses langues de l’Inde pour mieux le partager.

    The news: A deepfake of the President of India’s ruling Bharatiya Janata Party (BJP), Manoj Tiwari, went viral on WhatsApp in the country earlier this month, ahead of Legislative Assembly elections in Delhi, according to Vice. It’s the first time a deepfake has been used by a political party anywhere for campaigning purposes. In the original video Tiwari speaks in English, criticizing his political opponent Arvind Kejriwal and encouraging voters to vote for the BJP. The second video has been manipulated using deepfake technology so he is mouth moves convincingly as he speaks in the Hindi dialect of Haryanvi, whose people are target voters for the BJP.

    The purpose: The BJP has partnered with political communications firm The Ideaz Factory to create deepfakes which let it target voters across the over 20 different languages used in India. The party told Vice that the Tiwari deepfake reached approximately 15 million people across 5,800 WhatsApp groups.

    Causing alarm: This isn’t the first time deepfakes have popped up during a political campaign. For example, last December, researchers made a fake video of the two candidates in the UK’s general election endorsing each other. It wasn’t supposed to sway the vote however—merely to raise awareness about deepfake technology. This case in India seems to be the first time deepfakes have been used for a political campaign. The big risk is that we reach a point where people can no longer trust what they see or hear. In that scenario, a video wouldn’t even need to be digitally altered for people to denounce it as fake. It’s not hard to imagine the corrosive impact that would have on an already fragile political landscape.

    #Deepfake #Fake_news #Elections #Inde

  • Une étude d’impact truquée, nous publions les chiffres corrigés - Tout savoir sur la réforme des retraites

    Publiée ce jour, l’étude d’impact du gouvernement de près de 1 000 pages tient plus de l’opération de communication que de l’éclairage sincère du débat parlementaire. Les cas-types présentés pour rendre compte de l’impact de la réforme sont délibérément faussés.

    Par conséquent, l’étude d’impact ne rend pas compte des conséquences du projet de réforme des retraites, ce qui est pourtant l’objectif que la Constitution lui assigne. De plus elle est volontairement trompeuse quant aux résultats de la réforme.

    Le projet de loi indique clairement (article 10) que l’âge d’équilibre du système à points sera amené à évoluer d’une génération à l’autre (par défaut, de l’équivalent des deux tiers des gains d’espérance de vie de la génération en question). Mais, au moment de comparer les résultats du système à points avec le système actuel, le gouvernement rétropédale : tous les cas types sont présentés avec un âge d’équilibre gelé à 65 ans, ce qui conduit à faire disparaître une partie du malus. Ce choix est à la fois en contradiction avec le chiffrage macro-économique de l’étude d’impact (qui inclut un âge d’équilibre glissant), et avec le texte de la loi.

    Le collectif Nos retraites a donc redressé les données des 28 cas-types du gouvernement, en les corrigeant de cet effet trompeur d’un âge d’équilibre fixe et non évolutif comme le prévoit le projet de loi. Alors que pour la génération 1990 le gouvernement présente 21 situations sur 28 comme avantageuses avec un départ à la retraite à 64 ans, elles ne sont plus que 10 une fois que les données ont été redressées. Pour cette génération, les retraité·e·s perdent 7 % du niveau de leur pension avec nos corrections, 7 % qui ont donc été indûment ajoutés dans l’étude d’impact.

    De nombreuses inquiétudes sont confirmées par cette étude et méritent d’être soulignées :

    Les femmes avec enfants sont les grandes perdantes du passage au système Macron, en particulier pour un départ avant l’âge d’équilibre. Une femme, née en 1990 (au SMIC, 2 enfants) qui part à 62 ans, perdra ainsi 15 % de ses droits par rapport au système actuel.
    Dans le système à points, les employé·e·s perdent beaucoup plus que les cadres supérieur·e·s. Ces dernier·e·s seront ainsi “gagnant·e·s” quel que soit leur âge de départ, alors que les employé·e·s seront perdant·e·s pour tout départ avant 66 ans.

    #retraites #fake_news_gouvernementales #chiffres

  • #Incendies en #Australie : les climatosceptiques derrière une grande campagne de #désinformation | LCI

    Des chercheurs ont ainsi observé que la crise actuelle avait donné lieu à une campagne de désinformation « sans précédent » dans l’histoire du pays, avec des "#bots" (programmes informatiques qui envoient automatiquement des messages) déployés pour défendre l’idée que les feux ne sont pas liés au réchauffement climatique.

    Alors que des médias, des sites et des hommes politiques conservateurs du monde entier défendent l’idée que les feux seraient en fait criminels, le hashtag #arsonemergency ("urgence incendie criminel") est notamment utilisé en force sur les réseaux sociaux.

    Timothy Graham, expert des médias numériques à l’Université de technologie du Queensland, explique à l’AFP que, selon ses recherches, la moitié des comptes #Twitter utilisant ce #hashtag semblent se comporter comme des « bots » ou des « #trolls », ces internautes publiant des messages intentionnellement provocateurs. « Nos conclusions révèlent un effort concerté pour désinformer le public sur les causes des #feux_de_forêt », indique-t-il. « Cette campagne est sans comparaison dans son ampleur avec ce qu’on a pu voir dans d’autres pays, comme lors de la présidentielle américaine de 2016, mais ce niveau de désinformation en Australie est sans précédent. »


  • States sur les condamnations pour viol en france

    Dans cette video il est expliqué que les condamnations pour viol sont en augmentation depuis 10 ans il va meme jusqu’a prétendre que cette progression est en augmentation en synchronisation avec l’augmentation des dépôts de plainte.
    Or j’ai plutot lu l’inverse du coup j’ai été vérifié ce info et ce prétendu zététicien dit n’importe quoi et ne fournis bien sur aucune source pour ces grosses intoxes.

    condamnations pour viol
    2007 = 1 652
    2010 = 1.342
    2011 = 1.257
    2012 = 1.271
    2013 = 1.196
    2014 = 1.066
    2015 = 1.024
    2016 = 1.003

    Source https://fr.statista.com/statistiques/953012/condamnations-pour-viol-france


    states du ministère

    Voici les infos - en premier les condamnations pour viol sur majeur·es puis condamnation pour viol sur mineur·es

    2013 = 735 + 463 = 1198
    2014 = 656 + 410 = 1066
    2015 = 623 + 401 = 1024
    2016 = 563 + 457 = 1020
    2017 = 576 + 472 = 1048
    2018 = 527 + 501 = 1024

    Il y a bien une baisse du nombre de condamnations pour viol alors que les dépôts de plaintes augmentent.

    #viol #statistiques

    • J’ai repensé à ta remarque @marclaime ; « Savoir raison garder »

      C’est amusant car tu constitue le maillon d’une chaine de plusieurs hommes raisonneurs raisonnables qui m’as justement conduit à faire ce poste.

      A l’origine j’étais agacée par la posture « raisonnablement » sexiste de la chaine Youtube « la tronche en biais » qu’ils appellent entre eux « la teub ». Cette chaine comporte un gros biais masculiniste alors qu’elle se revendique de la raison et d’une posture scientifique la plus neutre et objective possible. Elle fait une audience importante pour de la zététique avec très peu de femmes invités et beaucoup de commentaires sexistes du présentateur, sur la question du féminisme, ils ont invité Peggy Sastre qui est entre autre l’autrice de la pétition sur la liberté (pour les hommes) d’importuner (sexuellement les femmes). Le prochain numéro de la Teb sera sur la chasse aux sorcières et le spécialiste invité sera encore une fois un homme.
      Donc agacée par la TEB je cherche si il y a des critiques de ce masculinisme de la TEB chez des zététicien·nes de zététicien·nes. Je tape « zététique + féminisme »
      Je tombe d’abord sur ce youtubeur « hypnomachie » :

      Qui explique que le féminisme n’a pas lieu d’être car les femmes transmettent 60% de leur ADN à leur progéniture lorsque les hommes ne transmette que 40% du leur... #WTF Ce youtubeur n’utilise pas le conditionnel, il ne fournis aucune source, et je passe sur la débilité de son idée que la transmission d’ADN annulerait le bien fondé de l’égalité politique entre les sexes. Ce raisonnement par la nature et l’ADN me fait d’ailleurs pensé à la #phallosophie nazie tel que décrite par Chapoutot https://seenthis.net/messages/819928

      Le youtubeur d’hypomachie est interpellé en commentaire, plusieurs personnes lui demandent ses sources, il n’en fournis aucune et se contente de répondre « ca dépend ce qu’on entend par ADN »...

      Après ce mâle raisonnement sur les femmes sensé démonté un autre mâle raisonnement sur les femmes, Youtube me propose la vidéo que j’ai mis en début de ce poste. Cette fois le youtubeur « les Echanges de Savoirs de Sénart ESS »
      à l’air un peu moins machiste que celui d’hypomachie. Mais il dit quant même n’importe quoi avec les meilleurs intentions du monde. Il ne source pas et il fait la morale aux victimes de viol en leur disant d’aller porter plainte car il en est certain, les condamnations augmentent en rapport au nombre de dépôt de plaintes...

      Du coup je prend du temps pour vérifié cette #fake_News , je fournis une source sérieuse. Ce youtubeur a d’ailleurs répondu qu’il était effectivement dans l’erreur, j’espère qu’il saisira l’occasion de faire une vidéo là dessus et réfléchir sur ses biais masculins. Et après ceci, malgré la documentation que je fournis sur seenthis sur les condamnations pour viols, à nouveau un homme m’explique en deux lignes expéditives, que selon lui je ne sais pas garder ma raison car les condamnations pour les délits doivent être confondus avec celles pour les crimes.

      Comme si l’impunité des viols pouvait être comptabilisé pour exactement l’inverse de ce que c’est.
      Et comme si il était déraisonnable pour une femme d’osé seulement prétendre vouloir raisonner.

      #dissonance_statistique #dissonance_cognitive #male_gaze #déni #culture_du_viol #fraternité #paternalisme #correctionnalisation #euphémisation #raison #hystérie
      #inversion_patriarcale #sexisme

    • « Raison garder » était de trop, il était possible d’apporter un argument sans suggérer qu’une femme était hors de sa raison...

      @antonin1 Je ne sais pas ou tu voie des arguments, je n’ai vu qu’une affirmation fausse et hors sujet qui témoigne d’une très forte solidarité avec les violeurs et d’un mépris profond pour les victimes.
      « raison gardé » n’est pas que de trop, il est le reflet du sexisme de @marclaime

    • Suggérer que la correctionnalisation est l’une des raisons de l’invisibilité de ces condamnations, pour moi c’est un argument. Après, je comprends que ça te fasse déconsidérer des arguments qui s’inscrivent dans un cadre sexiste comme ce « raison garder ».

    • C’est pas ce que j’ai compris des propos de @marclaime
      il ne parle pas d’invisibilisation, il dit que les correctionnalisations sont des condamnations pour viol qu’il serait raisonnable de confondre et comptabilisé avec les condamnations pour viols aux assisses.

      Moi je parle des condamnations pour viol par la justice française et uniquement de cela. Qu’est ce que j’en ai à faire de comptabilisé les condamnations pour des délits si je parle des condamnations pour des crimes ? Dans le meilleur des cas cette remarque est hors sujet mais comme c’est introduit par une remarque sexiste c’est pas seulement du hors sujet, c’est du déni de dominant enrobé de condescendance. C’est aussi de mansplanning car je suis tout de meme bien informé des correctionnalisations et c’est bien pour ca que j’ai documenté depuis des années ce sujet et que je parle ici des seuls condamnations aux assises et que j’ai pris la peine de l’expliqué dans mon poste.

  • Comment les Gafam sont devenus, en dix ans, des puissances impériales – Economie | L’Opinion

    Un bon résumé des conséquences de la concentration des géants de l’internet sur la confiance dans ce réseau

    Le tournant de la perception du public à l’égard des entreprises de la tech s’est produit en 2016, dans le sillage du référendum britannique sur le Brexit et de la présidentielle américaine, explique Margaret O’Mara, professeur d’histoire à l’université de Washington. Les autorités américaines sont arrivées à la conclusion que la Russie s’est ingérée dans les élections aux Etats-Unis en déversant des éléments de propagande sur les réseaux sociaux. Moscou est également accusée d’avoir joué un rôle similaire dans le référendum sur le Brexit.

    « On s’attendait à ce que ces entreprises aient le contrôle de leurs créations », note le professeur O’Mara. « Maintenant, cela ressemble davantage au monstre de Frankenstein. » Facebook, YouTube de Google et Amazon ont permis une croissance sans entrave de leurs plateformes depuis si longtemps qu’elles sont devenus difficiles à surveiller.

    Les sentiments des Américains à l’égard des entreprises de la tech ont changé de manière notable ces dernières années. Un sondage du Pew Research Center de juillet a montré que les adultes américains les classent au deuxième rang - derrière les églises et les organisations religieuses - pour leur impact positif sur le pays. Mais le pourcentage de ceux qui sont de cet avis cette année n’était que de 50 %, contre 71 % en 2015. Quant à ceux estimant que les entreprises de la tech ont un impact négatif, ils sont passés de 17 % à 33 %.

    Figurant au rang des plus grandes inquiétudes, Facebook a été utilisé pour diffuser des fakes news et des théories conspirationnistes, promouvoir le génocide et diffuser en direct une fusillade de masse en Nouvelle-Zélande.

    YouTube fait face à plusieurs des mêmes critiques. Il a construit des algorithmes conçus pour maximiser le « temps de visionnage » qui ont également aidé les théoriciens du complot à se constituer une audience massive. Fin 2016 et début 2017, son créateur de contenu numéro un, Felix « PewDiePie » Kjellberg, a diffusé à plusieurs reprises des images nazies et du contenu antisémite à ses plus de 50 millions d’abonnés à l’époque. Il a même été célébré par le principal site web néo-nazi. M. Kjellberg disaient à l’époque que ces contenus n’étaient qu’une « blague ».

    L’énorme main-d’œuvre contractuelle embauchée par les entreprises a eu du mal à suivre le rythme du volume de contenu violent, pornographique et autre contenu illégal qui est uploadé chaque minute.

    Dans le même temps, les entreprises sont critiquées pour leur pouvoir de déterminer ce que nous voyons et ne voyons pas.

    « Ces individus ne devraient pas décider quels discours sont autorisés dans le monde », pense Zeynep Tufekci, une professeure de l’Université de Caroline du Nord qui étudie l’impact de la technologie sur la société. Elle les décrit comme des « entités souveraines de facto » étant donné leur échelle massive, et rappelle comment, chez Facebook et Alphabet, la prise des décisions revient en ultime ressort à leurs fondateurs. Mark Zuckerberg, chez Facebook, dirige son empire par le biais du contrôle des actions, tout comme Larry Page et Sergey Brin chez Alphabet, bien que ces deux derniers aient récemment abandonné leurs postes de dirigeants.

    #Internet #Fake_news #Censure #Désamour #Médias_sociaux

  • Des medias, à droite sans vergogne | Le Club de Mediapart

    Sur France Inter hier matin [17 décembre], Agnès Buzyn dit que le rapport Delevoye de juillet a été loué par toutes les forces syndicales : faux.

    Elle dit que la réforme est favorable aux femmes et aux carrières hachées : faux. Elle dit que les femmes actuellement n’ont pas de bonus pour le premier et le deuxième enfant : vrai pour ce qui est du montant de la pension, faux pour ce qui est de la durée de cotisation puisque les femmes gagnaient jusqu’à présent deux années par enfant, ce qui pouvait leur éviter la décote pour trimestres insuffisants. Et le bonus pourra être utilisé par l’homme du fait de salaire plus élevé.

    Elle dit que la réforme apporte des droits nouveaux : 1000 € minimum (85% du Smic). En réalité : sous réserve d’une carrière complète. Mesure déjà existante à 81% du Smic et dont le passage à 85% était prévu par une loi de... 2003.

    En réponse à une question, elle nie que cette réforme puisse réjouir les assureurs et donne pour exemple le fait que la réforme assure une retraite à toute personne qui perçoit un salaire allant jusqu’à 10.000 € par mois. Seuls ceux qui gagnent plus de 10.000 € pourraient faire appel à une assurance par capitalisation. Elle fait mine de ne pas comprendre que la réforme dans son ensemble, dans la mesure où elle attribuera des pensions réduites par rapport au système actuel (ne serait-ce que par le fait que toutes les années seront pris en compte y compris les mauvaises contrairement au calcul actuel), les assurés devront faire appel à des assurances complémentaires. [Sur ce point, je note qu’un aspect de la réforme n’est presque jamais évoqué : les retraites complémentaires (Agirc-Arrco) disparaissent.]

    Elle a semblé admettre que l’âge pivot (à 64 ans), qui a mis la CFDT en colère pourrait être abandonné puisque de toutes façons l’âge moyen de départ est déjà 63,5 ans, très bientôt 64 (pour avoir 42 ans de cotisation ceux qui ont commencé à travailler à 22 ans doivent travailler jusqu’à 64, et beaucoup d’autres à 65, 66, 67 ans). Ce qui pourrait signifier que le pouvoir fait de la provocation avec son âge pivot, que par ailleurs il pourra abandonner sans que cela change grand-chose tout en satisfaisant Laurent Berger.

    Je ne déroule pas ce qu’elle a dit sur l’hôpital : seulement le fait que, comme tout ministre macroniste, il a fallu qu’elle nous prouve son attachement à l’hôpital par le fait qu’elle y a travaillé, et que toute sa famille y travaille (le mari, les enfants). Un peu comme Darmanin qui recycle régulièrement sa mère, sa grand-mère, son grand-père, Sibeth Ndiaye son beau-père.

    Quand la politique n’est pas sûre d’elle, elle fonctionne à l’affect.

  • Making deepfake tools doesn’t have to be irresponsible. Here’s how. - MIT Technology Review

    Synthetic media technologies—popularly known as deepfakes—have real potential for positive impact. Voice synthesis, for example, will allow us to speak in hundreds of languages in our own voice. Video synthesis may help us simulate self-driving-car accidents to avoid mistakes in the future. And text synthesis can accelerate our ability to write both programs and prose. 

    But these advances can come at a gargantuan cost if we aren’t careful: the same underlying technologies can also enable deception with global ramifications. 

    Thankfully, we can both enable the technology’s promise and mitigate its peril. It will just take some hard work.

    Approach 2: Discouraging malicious use
    For synthetic media tools that are general and may be made widely available, there are still many possible ways to reduce malicious use. Here are some examples.

    – Clear disclosure: Request that synthesized media be clearly indicated as such—particularly material that might be used to mislead. Tools may be able to support this by including clear visual or audible notices in output files, such as visible warnings or spoken disclosures. At minimum, metadata should indicate how media was synthesized or manipulated.
    – Consent protection: Require the consent of those being impersonated. The voice cloning tool Lyrebird requires users to speak particular phrases in order to model their voice. This makes it more difficult to impersonate someone without consent, which would be very possible if it simply generated voices using any provided data set. This, of course, is applicable only for tools that enable impersonation.
    – Detection friendliness: Ensure that the synthesized media is not inordinately difficult to detect; keep detector tools up to date; collaborate with those working on detection to keep them in the loop on new developments.
    – Hidden watermarks: Embed context about synthesis—or even the original media—through robust watermarks, both using methods that are accessible to anyone with the proper tools, and through approaches that are secret and difficult to remove. (For example, Modulate.ai watermarks audio that it generates, while products like Imatag and their open-source equivalents enable watermarking for imagery.)
    – Usage logs: Store information about usage and media outputs in a way that researchers and journalists can access to identify if, for example, a video was probably synthesized using a particular tool. This could include storing timestamps of synthesis with a robust hash or media embedding.
    – Use restrictions: Provide and enforce contractual terms of use that prohibit and penalize unwanted actions, such as attempting to remove disclosures or watermarks, or violating the consent of other people. A stronger version of this approach involves explicitly elaborating allowed uses of the technology or resulting outputs.

    Not all these strategies are applicable to every system. Some may have their risks, and none are perfect—or sufficient on their own. They are all part of a “defense in depth,” where more is more.

    #Deep_fakes #Deepfakes #Fake_news #Ethique

  • Inside the hate factory: how #Facebook fuels far-right profit | Australia news | The Guardian

    Revealed: Ilhan Omar and Rashida Tlaib targeted in far-right #fake_news operation | Facebook | The Guardian

    Israeli-based group uses Facebook to spread disinformation to more than a million followers around the world, singling out Muslim US congresswomen

    #sionisme #extrême_droite #désinformation #islamophobie