• Téléshopping, tuto, influence : Facebook, Snapchat, Instagram sont has been
    https://www.ladn.eu/media-mutants/reseaux-sociaux-grand-retour-formats-ringards

    L’arrivée des smartphones a bouleversé les médias traditionnels. Vraiment ? Rien n’est moins sûr. Le bon vieux format bien ringard a de beaux jours devant lui.

    En matière de média, je crois que je peux le dire : je suis au top de la tendance. Je demande à Alexa la météo, je scrolle Pinterest pour trouver des idées de look et je finis par poster à mes 546 abonnés (hé oui mon gars, je sais, ça calme) ma life sur Insta. Et puis un jour... le choc. Le drame ! J’ai réalisé que mon feed ressemblait à celui de ma grand-mère. Pire : à celui de ma mère ! En 2019, je découvre (enfin) que les réseaux sociaux sont ringards.

    Vous aussi vous avez cru que les réseaux sociaux avaient tout changé en décapitant la télé du salon ? Faux, faux, faux, archi faux. Si l’écran a changé, les programmes sont restés. Ok, on a eu la peau des « Oh, oh, mais dites donc ! » de Maïté, la restauratrice rubiconde qui mijotait pour nous des testicules de canard. Mais la belle de Rion-des-Landes a été remplacée par les petites vidéos impersonnelles de Chefclub ou Tasty sur Facebook.

    Le tout petit écran a tout piqué au grand

    Il va falloir s’y faire, le tout petit écran a tout du grand. Insta, Facebook et Snapchat sont entrés dans le game et n’ont pas l’intention de lâcher le peu qu’il reste de notre temps de cerveau disponible. En juin 2018, après les stories d’une minute maximum, Instagram lance IGTV, avec des vidéos verticales de 10 minutes. Côté Facebook, on ne se cache même pas d’avoir une grille de programmes digne de France 2 : info le matin et à midi, magazine le soir. De son côté, Snapchat a étoffé son offre médias et lancé en novembre ses « Shows » avec 13 médias partenaires dont Loopsider, Konbini, MAD (le média sous LSD du Figaro) ou encore Slash de France TV.

    #Médias #Médias_sociaux

  • Secret Experiment in Alabama Senate Race Imitated Russian Tactics - The New York Times
    https://www.nytimes.com/2018/12/19/us/alabama-senate-roy-jones-russia.html

    Ah, cette logique des « expériences » en direct live sans que les cobayes soient au courant... En fait, c’est cela le fonds de commerce de facebook : devenir un lieux d’expérimentation de la manipulation mentale. Voir le livre de Jaron Lanier, « Ten arguments for Deleting Your Social Media Accounts ».

    As Russia’s online election machinations came to light last year, a group of Democratic tech experts decided to try out similarly deceptive tactics in the fiercely contested Alabama Senate race, according to people familiar with the effort and a report on its results.

    The secret project, carried out on Facebook and Twitter, was likely too small to have a significant effect on the race, in which the Democratic candidate it was designed to help, Doug Jones, edged out the Republican, Roy S. Moore. But it was a sign that American political operatives of both parties have paid close attention to the Russian methods, which some fear may come to taint elections in the United States.

    One participant in the Alabama project, Jonathon Morgan, is the chief executive of New Knowledge, a small cyber security firm that wrote a scathing account of Russia’s social media operations in the 2016 election that was released this week by the Senate Intelligence Committee.

    An internal report on the Alabama effort, obtained by The New York Times, says explicitly that it “experimented with many of the tactics now understood to have influenced the 2016 elections.”

    The project’s operators created a Facebook page on which they posed as conservative Alabamians, using it to try to divide Republicans and even to endorse a write-in candidate to draw votes from Mr. Moore. It involved a scheme to link the Moore campaign to thousands of Russian accounts that suddenly began following the Republican candidate on Twitter, a development that drew national media attention.

    “We orchestrated an elaborate ‘false flag’ operation that planted the idea that the Moore campaign was amplified on social media by a Russian botnet,” the report says.

    Mr. Morgan said in an interview that the Russian botnet ruse “does not ring a bell,” adding that others had worked on the effort and had written the report. He said he saw the project as “a small experiment” designed to explore how certain online tactics worked, not to affect the election.

    Mr. Morgan said he could not account for the claims in the report that the project sought to “enrage and energize Democrats” and “depress turnout” among Republicans, partly by emphasizing accusations that Mr. Moore had pursued teenage girls when he was a prosecutor in his 30s.

    “The research project was intended to help us understand how these kind of campaigns operated,” said Mr. Morgan. “We thought it was useful to work in the context of a real election but design it to have almost no impact.”
    Editors’ Picks
    A Struggling Desert Town Bets Its Future on Pot
    In a Texas Art Mecca, Humble Adobe Now Carries a High Cost
    A ‘Time Capsule’ for Scientists, Courtesy of Peter the Great

    The project had a budget of just $100,000, in a race that cost approximately $51 million, including the primaries, according to Federal Election Commission records.

    #Médias_sociaux #Manipulation_mentale #Politique #USA

  • Here’s why this media scholar changed her mind and now thinks there’s a ’very strong’ case Russia won the 2016 election for Trump | Alternet
    https://www.alternet.org/news-amp-politics/heres-why-media-scholar-changed-her-mind-and-now-thinks-theres-very-strong

    I originally thought that the idea that the Russians could have used social media to create a substantial impact on the election was absurd. I started to change my mind when I saw the first release of Russian social media and troll campaign ads and messaging during the U.S. Senate hearings in October and November of last year. These ads were a coherent plan and understanding of the presidential election which was consistent with Donald Trump’s political needs.

    If acted on systematically, these ads would have produced a communication effect that on the margins could have affected enough votes to change the outcome of the election in his favor. If the Russians didn’t have a coherent theory of what it took for Donald Trump to win — or what it would take to make it more likely that Hillary Clinton would lose — then all their machinations would not have mattered. But the Russians knew who to mobilize.

    The Russians were trying to mobilize evangelicals and white conservative Catholics. The Russians also knew that they needed to mobilize veterans and military households. The Russians knew they had to demobilize Bernie Sanders supporters and liberals, especially young people. The Russians were also attempting to shift the voters they could not demobilize over to Jill Stein.

    You add that together with demobilizing African-American voters with messaging that Hillary Clinton is bad for the black community, and then Clinton’s whole messaging strategy is at risk. If Hillary Clinton can’t mobilize the black vote at levels near Barack Obama’s, although not the same level, then she is in trouble.

    I then started to examine where the Russians and their trolls spent their time and attention. They were spending more of it on trying to demobilize African-American voters by emphasizing things that group may not like about Hillary Clinton. When a person casts a vote they are not thinking about every detail or issue relative to a candidate. Voters make decisions based on what is most important in that moment of time, what is on the top of their mind.

    So if you remind voters who are African-American that at the end of Bill Clinton’s presidency there was a very high level of increased incarceration of African-Americans on drug charges then an African-American voter may say, “Maybe I should think about Hillary Clinton differently.”

    If you remember her “superpredator” comment and take it to be about black people in general and not about gangs specifically, then you as an African-American voter may be less likely to support her.

    By featuring these types of messages, the Russians were increasing the likelihood that while you may not be likely to cast a vote for Donald Trump, you are more likely to stay home and not vote for Hillary Clinton.

    I then started to wonder whether maybe there was enough troll activity that was addressed to the right constituencies to have impacted the margins of the vote. The question then becomes, did the Russians and their trolls target the right voters in the right places? We still don’t know that.

    The social media platforms know the answer, but they have not released the information. The trolls alone could have swung the electorate. But in my judgment the WikiLeaks hacks against the DNC is a much stronger case. There we see a clear effect on the news media agenda. We know from decades of communication scholarship that if you change the media agenda you then change the criteria that people vote on. The shift in the media agenda from October forward was decisively against Hillary Clinton. And the questions in the presidential debates which were based on information stolen by WikiLeaks and the Russians disadvantaged Clinton and, looking at the polling data, predicted the vote.

    President Trump is better at commanding the agenda than he is at any other single thing that he as a communicator does. The press has been an accomplice in the process of ceding agenda control to him by virtue of his tweeting — and having the press respond immediately, as if every tweet is presumed to be newsworthy. Donald Trump has the capacity to get whatever he wants the public to focus on by directing the cable news agenda. We really should ask: Aren’t there other things we ought to be paying more attention to? How often are we being distracted from something that Trump does not want us to pay attention to? Being distracted by his effective use of tweets to set an alternative agenda.

    Fox News is de facto Trump’s state-sponsored media. How does this impact American political culture?

    We are increasingly going into ideological enclaves to get our news. To the extent that people find the news compatible with what they already believe, that means they are not being exposed to alternative interpretations of reality and alternative points of view. What is unprecedented about the relationship between Fox News and the president of the United States is the extent to which what is said and shown on Fox News appears to influence what is said and featured by the president of the United States. The traditional model of agenda-setting is that the president sets the agenda and the news media follows. This reversal with Donald Trump and Fox News is something new.

    #Politique #Médias_sociaux #USA #Trump

  • How Russia Hacked U.S. Politics With Instagram Marketing – Foreign Policy
    https://foreignpolicy.com/2018/12/17/how-russia-hacked-us-politics-with-instagram-marketing

    While the message itself was not aimed at swaying voters in any direction, researchers now believe it served another purpose for the Russian group: It boosted the reach of its account, likely won it new followers, and tried to establish the account’s bona fides as an authentic voice for the black community.

    That advertising pitch was revealed in a report released Monday by the Senate Intelligence Committee and produced by the cybersecurity firm New Knowledge. The report provides the most comprehensive look to date at the Kremlin’s attempt to boost Trump’s candidacy and offers a surprising insight regarding that campaign: Moscow’s operatives operated much like digital marketers, making use of Instagram to reach a huge audience.

    By blending marketing tactics with political messaging, the Internet Research Agency (IRA) established a formidable online presence in the run-up to the 2016 election (and later), generating 264 million total engagements—a measure of activity such as liking and sharing content—and building a media ecosystem across Facebook and Instagram.

    The authors of the report believe @blackstagram__ served as a vehicle for Kremlin propaganda targeting the American black community, skillfully adopting the language of Instagram, where viral marketing schemes exist side by side with artfully arranged photographs of toast.

    As Americans streamed to the polls on Nov. 8, 2016, @blackstagram__ offered its contribution to the Kremlin’s campaign to depress turnout, borrowing a line from a Michael Jackson song to tell African-Americans that their votes didn’t matter: “Think twice before you vote. All I wanna say is that they don’t really care about us. #Blacktivist #hotnews.”

    While the effect of the IRA’s coordinated campaign to depress voter turnout is difficult to assess, the evidence of the group’s online influence is stark. Of its 133 Instagram accounts, 12 racked up more than 100,000 followers—the typical threshold for being considered an online “influencer” in the world of digital marketing. Around 50 amassed more than 10,000 followers, making them what marketers call “micro-influencers.”

    These accounts made savvy use of hashtags, built relationships with real people, promoted merchandise, and targeted niche communities. The IRA’s most popular Instagram accounts included pages devoted to veterans’ issues (@american.veterans), American Christianity (@army_of_jesus), and feminism (@feminism_tag).

    In a measure of the agency’s creativity, @army_of_jesus appears to have been launched in 2015 as a meme account featuring Kermit the Frog. It then switched subjects and began exclusively posting memes related to the television show The Simpsons. By January 2016, the account had amassed a significant following and reached its final iteration with a post making extensive use of religious hashtags: ““#freedom #love #god #bible #trust #blessed #grateful.” It later posted memes comparing Democratic presidential nominee Hillary Clinton to Satan.

    “The Internet Research Agency operated like a digital marketing agency: develop a brand (both visual and voice), build presences on all channels across the entire social ecosystem, and grow an audience with paid ads as well as partnerships, influencers, and link-sharing,” the New Knowledge report concludes. “Instagram was perhaps the most effective platform.”

    #Instagram #Politique #USA #Russie #Médias_sociaux

  • USA : l’ingérence russe visait à inciter les Noirs à s’abstenir à la présidentielle
    https://www.linformaticien.com/actualites/id/51008/usa-l-ingerence-russe-visait-a-inciter-les-noirs-a-s-abstenir-a-la-p

    L’agence Internet Research Agency (IRA), basée à Saint-Pétersbourg et considérée par la justice américaine comme une ferme à « trolls » payée par le Kremlin, a cherché pendant la campagne présidentielle à dissuader des franges de la population plutôt proches des démocrates, comme les jeunes, les minorités ethniques et la communauté LGBT, de voter, selon ces textes.

    Elle a mis un accent particulier sur les électeurs noirs d’après l’analyse la plus complète à ce jour des milliers de messages et publications diffusés sur les réseaux sociaux par l’IRA, entre 2015 et 2017, menée conjointement par l’Université d’Oxford et des spécialistes des nouveaux médias Graphika.

    L’autre rapport commandé par le Sénat a lui été élaboré par la compagnie New Knowledge et l’université de Columbia notamment.

    L’IRA avait ainsi créé de nombreux comptes sous de faux profils américains destinés à la communauté noire. L’un d’eux, intitulé « Blacktivist », envoyait des messages négatifs sur la candidate démocrate Hillary Clinton, accusée d’être une opportuniste, seulement soucieuse de gagner des voix.

    « Cette campagne visait à convaincre que la meilleure manière d’améliorer la cause de la communauté afro-américaine était de boycotter les élections et de se concentrer sur d’autres sujets », écrivent les auteurs du rapport.

    Parallèlement, une partie des 3.841 comptes Facebook, Instagram, Twitter ou Youtube étudiés cherchait à pousser les électeurs blancs proches des républicains à participer au scrutin.

    Initialement, les messages soutenaient les thèses républicaines - la défense du port d’armes ou la lutte contre l’immigration - sans citer de favori. Une fois que la candidature de Donald Trump a pris de la consistance, les messages de l’IRA lui ont été clairement favorables, selon cette étude.

    Selon une étude du Pew Research Center, le taux de participation des électeurs blancs avait augmenté en 2016, alors que celui des Noirs, à 59,6%, était en recul de cinq points par rapport à 2012.

    Plusieurs employés de l’IRA, financée par l’oligarque Evguéni Prigojine, ont été inculpés par la justice américaine pour ingérence dans l’élection de 2016.

    La campagne de propagande a ensuite évolué pour se trouver une nouvelle cible après la victoire de Donald Trump : le procureur spécial Robert Mueller, chargé d’enquêter sur les soupçons de collusion entre l’équipe de campagne du républicain et la Russie, a indiqué lundi soir le Washington Post.

    Des comptes alimentés par des Russes sur les réseaux sociaux ont ainsi partagé des publications affirmant que M. Mueller était corrompu, un post sur Instagram allant jusqu’à prétendre qu’il avait par le passé travaillé avec « des groupes islamistes radicaux ».

    #Médias_sociaux #Politique #Russie #USA

  • Facebook isn’t a tech company — let’s stop calling it that - CNN
    https://edition.cnn.com/2018/12/15/perspectives/facebook-regulation-tech-company/index.html

    Sometimes it takes an old guy to call out a youngster. Hatch knew that it was time for us to stop referring to Facebook as a tech company. As his spokesman reportedly noted later, Hatch was just using “a common tactic used in Congressional hearings to make a point.”
    Facebook runs ads based on the information it has collected about you. And it has used the imprimatur of “technology” to shift our attention so it — as well as Google — can operate under a different set of rules than all the other media companies that run ads. By clinging to its definition of being a technology company, Facebook and other social media companies enjoy protections under the Communications Decency Act that immunize them from being held liable for hate and other objectionable speech, libel and falsehoods in news stories and advertising that media companies do not.

    To be sure, Facebook utilizes technology, but that doesn’t make it a tech company any more than Exxon Mobil (because it uses instruments to find oil) or Burlington Northern (because it’s based on the invention of the steam engine)."

    David Dodson

    For media companies that run ads, especially ones that use public networks, we tell them that they can’t lie or mislead, that it’s not okay to advertise cigarettes to children or push prescription drugs without including the risks. We have laws governing deceptive advertisements and Truth in Advertising laws. Companies that run ads can’t say a car gets 40 miles per gallon unless it’s true. They can’t say a movie won an Academy Award unless it did. If you say the wool comes from New Zealand, it must.
    Technology companies invent cars that drive themselves, satellites that can identify a license plate from miles away, phones that can guide us through traffic jams, and machines that see inside our bodies. That’s what tech companies do.

    To be sure, Facebook utilizes technology, but that doesn’t make it a tech company any more than Exxon Mobil (because it uses instruments to find oil) or Burlington Northern (because it’s based on the invention of the steam engine).
    Zuckerberg’s genius was harnessing an already existing network and previously developed computer code to allow people to share words and pictures with one another. In return, he runs ads.

    When nearly half of Americans get their news from Facebook, its newsfeed should be subjected to the same standards of fairness, decency and accuracy as newspapers, television and other media outlets.

    For decades, CBS sold beer during weekend football games and toys during Saturday morning cartoons. Long before the internet, folks figured out that by targeting the right audience, they could charge a higher price for running ads. Facebook just does it better.

    #Facebook #Médias_sociaux

  • [Essay] Machine Politics by Fred Turner | Harper’s Magazine
    https://harpers.org/archive/2019/01/machine-politics-facebook-political-polarization

    The rise of the internet and a new age of authoritarianism

    par Fred Turner

    “The Goliath of totalitarianism will be brought down by the David of the microchip,” Ronald Reagan said in 1989. He was speaking to a thousand British notables in London’s historic Guildhall, several months before the fall of the Berlin Wall. Reagan proclaimed that the world was on the precipice of “a new era in human history,” one that would bring “peace and freedom for all.” Communism was crumbling, just as fascism had before it. Liberal democracies would soon encircle the globe, thanks to the innovations of Silicon Valley. “I believe,” he said, “that more than armies, more than diplomacy, more than the best intentions of democratic nations, the communications revolution will be the greatest force for the advancement of human freedom the world has ever seen.”

    At the time, most everyone thought Reagan was right. The twentieth century had been dominated by media that delivered the same material to millions of people at the same time—radio and newspapers, movies and television. These were the kinds of one-to-many, top-down mass media that Orwell’s Big Brother had used to stay in power. Now, however, Americans were catching sight of the internet. They believed that it would do what earlier media could not: it would allow people to speak for themselves, directly to one another, around the world. “True personalization is now upon us,” wrote MIT professor Nicholas Negroponte in his 1995 bestseller Being Digital. Corporations, industries, and even whole nations would soon be transformed as centralized authorities were demolished. Hierarchies would dissolve and peer-to-peer collaborations would take their place. “Like a force of nature,” wrote Negroponte, “the digital age cannot be denied or stopped.”

    One of the deepest ironies of our current situation is that the modes of communication that enable today’s authoritarians were first dreamed up to defeat them. The same technologies that were meant to level the political playing field have brought troll farms and Russian bots to corrupt our elections. The same platforms of self-expression that we thought would let us empathize with one another and build a more harmonious society have been co-opted by figures such as Milo Yiannopoulos and, for that matter, Donald Trump, to turn white supremacy into a topic of dinner-­table conversation. And the same networked methods of organizing that so many thought would bring down malevolent states have not only failed to do so—think of the Arab Spring—but have instead empowered autocrats to more closely monitor protest and dissent.

    If we’re going to resist the rise of despotism, we need to understand how this happened and why we didn’t see it coming. We especially need to grapple with the fact that today’s right wing has taken advantage of a decades-long liberal effort to decentralize our media. That effort began at the start of the Second World War, came down to us through the counterculture of the 1960s, and flourishes today in the high-tech hothouse of Silicon Valley. It is animated by a deep faith that when engineering replaces politics, the alienation of mass society and the threat of totalitarianism will melt away. As Trump fumes on Twitter, and Facebook posts are linked to genocide in Myanmar, we are beginning to see just how misplaced that faith has been. Even as they grant us the power to communicate with others around the globe, our social-­media networks have spawned a new form of authoritarianism.

    #Fred_Turner #Autoritarisme #Médias_sociaux #Mobilisation #Extrême_droite

  • Facebook-Gilets jaunes : l’heure de la remise en question des médias a-t-elle sonné ?
    https://www.franceculture.fr/emissions/la-fabrique-mediatique/facebook-sonne-t-il-le-glas-des-medias-traditionnels


    Avec David Dufresne, journaliste indépendant, documentariste, observateur des médias et d’Internet depuis vingt ans <> Olivier Ertzscheid, maître de conférence en Sciences de l’information et de la communication.

    #Médias #Médias_sociaux #Facebook

  • How Do You Recover After Millions Have Watched You Overdose? - The New York Times
    https://www.nytimes.com/2018/12/11/us/overdoses-youtube-opioids-drugs.html

    The first time Kelmae Hemphill watched herself overdose, she sobbed. There she was in a shaky video filmed by her own heroin dealer, sprawled out on a New Jersey road while a stranger pounded on her chest. “Come on, girl,” someone pleaded.

    Ms. Hemphill’s 11-year drug addiction, her criminal record, her struggles as a mother — they were now everybody’s business, splashed across the news and social media with a new genre of American horror film: the overdose video.

    As opioid deaths have soared in recent years, police departments and strangers with cameras have started posting raw, uncensored images of drug users passed out with needles in their arms and babies in the back seats of their cars. The videos rack up millions of views and unleash avalanches of outrage. Then some other viral moment comes along, and the country clicks away.

    But life is never the same for the people whose bleakest, most humiliating moments now live online forever. In interviews with The New York Times, they talked — some for the very first time — about the versions of themselves captured in the videos.

    “Why bother saving her?” asked one YouTube commenter. “I would’ve let her die,” said another. Angry Facebook messages arrived months, even years, later, when strangers stumbled across the videos.

    Addiction experts say the videos are doing little else than publicly shaming drug users, and the blunt horror of the images may actually increase the stigma against them. Users themselves disagree on whether the humiliation helped them clean up their lives.

    “We’re showing you this video of them at the worst, most humiliating moment of their life,” said Daniel Raymond, deputy director of policy and planning at the Harm Reduction Coalition, an advocacy group. “The intent is not to help these people. The intent is to use them as an object lesson by scapegoating them.”

    Mandy McGowan, 38, knows that. She was the mother unconscious in that video, the woman who became known as the “Dollar Store Junkie.” But she said the video showed only a few terrible frames of a complicated life.

    As a child, she said, she was sexually molested. She survived relationships with men who beat her. She barely graduated from high school.

    She said her addiction to opioids began after she had neck surgery in 2006 for a condition that causes spasms and intense pain. Her neurologist prescribed a menu of strong painkillers including OxyContin, Percocet and fentanyl patches.

    As a teenager, Ms. McGowan had smoked marijuana and taken mushrooms and ecstasy. But she always steered clear of heroin, she said, thinking it was for junkies, for people living in alleys. But her friends were using it, and over the last decade, she sometimes joined them.

    She tried to break her habit by buying Suboxone — a medication used to treat addiction — on the street. But the Suboxone often ran out, and she turned to heroin to tide her over.

    On Sept. 18, 2016, a friend came to Ms. McGowan’s house in Salem, N.H., and offered her a hit of fentanyl, a deadly synthetic painkiller 50 times more potent than heroin. They sniffed a line and drove to the Family Dollar across the state line in Lawrence, where Ms. McGowan collapsed with her daughter beside her. At least two people in the store recorded the scene on their cellphones.

    Medics revived her and took her to the hospital, where child welfare officials took custody of her daughter, and the police charged Ms. McGowan with child neglect and endangerment. (She eventually pleaded guilty to both and was sentenced to probation.) Two days later, the video of her overdose was published by The Eagle-Tribune and was also released by the Lawrence police.

    The video played in a loop on the local news, and vaulted onto CNN and Fox News, ricocheting across the web.

    “For someone already dealing with her own demons, she now has to deal with public opinion, too,” said Matt Ganem, the executive director of the Banyan Treatment Center, about 15 miles north of Boston, which gave Ms. McGowan six months of free treatment after being contacted by intermediaries. “You’re a spectacle. Everyone is watching.”

    Ms. McGowan had only seen snippets of the video on the news. But two months later, she watched the whole thing. She felt sick with regret.

    “I see it, and I’m like, I was a piece of freaking [expletive],” she said. “That was me in active use. It’s not who I am today.”

    But she also wondered: Why didn’t anyone help her daughter? She was furious that bystanders seemed to feel they had license to gawk and record instead of comforting her screaming child.

    She writes letters to her two teenage sons, who live with her former husband in New Hampshire. Her daughter, now 4, lives with the girl’s uncle. Ms. McGowan knows she will probably not regain custody, but hopes to develop a relationship with her and supplant the image embedded in her own mind of the sobbing girl in the pink pajamas.

    “I know if I do the right thing, I can be involved in her life,” Ms. McGowan said. “It’s going to be a long road for me. You don’t just get clean and your life is suddenly all put back together.”

    Still, the video lives on, popping up online almost constantly.

    Ms. McGowan is bracing herself for the day when her daughter sees it, when her daughter lashes out at her for it, when she throws it back in her mother’s face when Ms. McGowan tries to warn her not to use drugs.

    “That video is PTSD for my children,” she said. “The questions are going to come as my daughter gets older. And I have to be prepared for it. I did this. And it cost me my children.”

    #Opioides #Vidéos #Médias_sociaux #Addiction #Traitements

  • MobiliZon : reprendre le pouvoir sur ce qui nous rassemble – Framablog
    https://framablog.org/2018/12/11/mobilizon-reprendre-le-pouvoir-sur-ce-qui-nous-rassemble

    Pauvre MeetUp ! Pauvre Facebook avec ses événements et ses groupes ! Vous imaginez combien c’est dur, d’être une des plus grandes capitalisations boursières au monde ? Non mais c’est que les actionnaires ils sont jamais contents, alors il faut les arracher avec les dents, ces dividendes !

    Nos pauvres petits géants du Web sont o-bli-gés de coder des outils qui ne vous donnent que très peu de contrôle sur vos communautés (familiales, professionnelles, militantes, etc.). Parce qu’au fond, les centres d’intérêt que vous partagez avec d’autres, c’est leur fonds de commerce ! Nos pauvres vendeurs de temps de cerveau disponible sont trop-for-cés de vous enfermer dans leurs plateformes où tout ce que vous ferez sera retenu envers et contre vous. Parce qu’un profil publicitaire complet, ça se vend plus cher, et ça, ça compte, dans leurs actions…
    Cliquez sur l’image pour aller voir la conférence « Comment internet a facilité l’organisation des révolutions sociales mais en a compromis la victoire » de Zeynep Tufekci sur TED Talk

    Et nous, internautes prétentieuses, on voudrait qu’ils nous fassent en plus un outil complet, éthique et pratique pour nous rassembler… ? Mais on leur en demande trop, à ces milliardaires du marketing digital !

    Comme on est choubidou chez Framasoft, on s’est dit qu’on allait leur enlever une épine du pied. Oui, il faut un outil pour organiser ces moments où on se regroupe, que ce soit pour le plaisir ou pour changer le monde. Alors on accepte le défi et on se relève les manches.

    #Framasoft #Médias_sociaux

  • PLUS POLITIQUES QUE DANS LES JOURNAUX : LES GILETS JAUNES DANS LE MIROIR DE FACEBOOK

    Quatre chercheurs d’un labo toulousain en sciences sociales ont décortiqué des milliers de tweets, posts Facebook et commentaires des Gilets jaunes. Ils les ont comparés au traitement du mouvement par la presse écrite. Leur verdict : de l’Huma au Figaro en passant par le Monde, les journaux dépeignent des automobilistes fâchés, parfois racistes, et indifférents aux enjeux climatiques. Sur les réseaux sociaux, les chercheurs, dans ce rapport révélé par ASI, ont vu au contraire l’affirmation croissante et argumentée d’une citoyenneté.

    https://www.arretsurimages.net/articles/plus-politiques-que-dans-les-journaux-les-gilets-jaunes-dans-le-miro

    #giletsjaunes #presse #médias #médias_sociaux

  • Le fisc peut-il croire à nos profils Facebook ?
    https://www.franceinter.fr/emissions/la-fenetre-de-la-porte/la-fenetre-de-la-porte-13-novembre-2018

    Mais, à mon sens, les vraies questions sont ailleurs.

    Tout ça repose sur l’idée que ce que les gens versent dans les réseaux sociaux, c’est vraiment leur vie. Il suffit de les fréquenter un peu pour s’apercevoir que non. Pas vraiment… C’est la vie mise en scène. Concrètement, ça veut dire quoi : qu’on peut mentir sur la date d’une photo, sur qui y apparaît, et qu’on transforme vite une chaumière en château… C’est assez drôle parce que l’administration fiscale est habituée à débusquer des gens qui essaient de se faire passer pour moins riches qu’ils le sont. Là elle risque de devoir dénouer le problème inverse : être confrontée à des gens qui essaient de se faire passer pour plus riches qu’ils ne le sont. Le risque n’est-il pas de perdre beaucoup de temps ?

    Par ailleurs, je ne suis pas un pro de la fraude, mais je me pose une question : est-ce vraiment chez les gens qui s’affichent dans les réseaux sociaux qu’on va débusquer les gros fraudeurs ? Je dis ça parce qu’après l’affaire Cahuzac, l’administration fiscale a ouvert un guichet pour les fraudeurs qui voulaient régulariser leur situation. 36 000 dossiers ont été traités entre 2013 et fin 2017, 35 milliards d’euros cachés à l’étranger, 7,8 milliards de redressements fiscaux. Savez-vous quel était l’âge moyen du repenti ? 72 ans… Pas sûr qu’on les ait beaucoup vus s’afficher sur Instagram allongés en string sur leurs Porsche ceux-là… Et il me semble que les affaires de fraude ou d’évasion massive - révélées par exemple par les Panama Papers - n’ont rien à voir avec la différence entre un train de vie annoncé au fisc et train de vie réel : le problème est celui de montages financiers hyper complexes, de l’alliance entre banques et sociétés off-shore etc…

    #Médias_sociaux #Xavier_de_La_Porte #Fraude_Fiscale

  • A White Woman, Teresa Klein, Called the Police on a Black Child She Falsely Said Groped Her - The New York Times
    https://www.nytimes.com/2018/10/12/nyregion/woman-calls-police-black-boy-brooklyn.html

    Une histoire fabuleuse, et si significative. Elle pourrait être drôle, cette femme ayant confondu le sac à dos du gamin avec une volonté de la toucher. Mais elle est si triste de l’état de nos relations sociales, du racisme ambiant, de l’incapacité des gens à se respecter. Significative également de l’usage des médias sociaux et des vidéos sur téléphone.

    A white woman who called the police after claiming that a young black boy touched her behind in a Brooklyn deli drew a storm of ridicule and criticism on social media, and late on Friday she made a public apology to the child.

    Critics characterized the incident as the latest example of a hypersensitive white person calling the police to report black people for dubious reasons. Many detractors imputed racist motives to the woman, Teresa Klein.

    #Racisme #Médias_sociaux

  • À mesure qu’elles croissent, les plateformes deviennent-elles plus hostiles ?
    http://www.internetactu.net/a-lire-ailleurs/a-mesure-quelles-croissent-les-plateformes-deviennent-elles-plus-hosti

    Adam Clair (@awaytobuildit) dans le toujours aussi excellent magazine Real Life (@_reallifemag) expliquait qu’à mesure que les #médias_sociaux grossissaient, ils avaient tendance à devenir plus hostiles envers leurs utilisateurs. La croissance est le but des plateformes de partage de contenus. Pour attirer le plus grand nombre possible d’utilisateurs, elles (...)

    #A_lire_ailleurs #Services #désinformation #modération

  • What worries me about AI – François Chollet – Medium
    https://medium.com/@francois.chollet/what-worries-me-about-ai-ed9df072b704

    This data, in theory, allows the entities that collect it to build extremely accurate psychological profiles of both individuals and groups. Your opinions and behavior can be cross-correlated with that of thousands of similar people, achieving an uncanny understanding of what makes you tick — probably more predictive than what yourself could achieve through mere introspection (for instance, Facebook “likes” enable algorithms to better assess your personality that your own friends could). This data makes it possible to predict a few days in advance when you will start a new relationship (and with whom), and when you will end your current one. Or who is at risk of suicide. Or which side you will ultimately vote for in an election, even while you’re still feeling undecided. And it’s not just individual-level profiling power — large groups can be even more predictable, as aggregating data points erases randomness and individual outliers.
    Digital information consumption as a psychological control vector

    Passive data collection is not where it ends. Increasingly, social network services are in control of what information we consume. What see in our newsfeeds has become algorithmically “curated”. Opaque social media algorithms get to decide, to an ever-increasing extent, which political articles we read, which movie trailers we see, who we keep in touch with, whose feedback we receive on the opinions we express.

    In short, social network companies can simultaneously measure everything about us, and control the information we consume. And that’s an accelerating trend. When you have access to both perception and action, you’re looking at an AI problem. You can start establishing an optimization loop for human behavior, in which you observe the current state of your targets and keep tuning what information you feed them, until you start observing the opinions and behaviors you wanted to see. A large subset of the field of AI — in particular “reinforcement learning” — is about developing algorithms to solve such optimization problems as efficiently as possible, to close the loop and achieve full control of the target at hand — in this case, us. By moving our lives to the digital realm, we become vulnerable to that which rules it — AI algorithms.

    From an information security perspective, you would call these vulnerabilities: known exploits that can be used to take over a system. In the case of the human minds, these vulnerabilities never get patched, they are just the way we work. They’re in our DNA. The human mind is a static, vulnerable system that will come increasingly under attack from ever-smarter AI algorithms that will simultaneously have a complete view of everything we do and believe, and complete control of the information we consume.

    The issue is not AI itself. The issue is control.

    Instead of letting newsfeed algorithms manipulate the user to achieve opaque goals, such as swaying their political opinions, or maximally wasting their time, we should put the user in charge of the goals that the algorithms optimize for. We are talking, after all, about your news, your worldview, your friends, your life — the impact that technology has on you should naturally be placed under your own control. Information management algorithms should not be a mysterious force inflicted on us to serve ends that run opposite to our own interests; instead, they should be a tool in our hand. A tool that we can use for our own purposes, say, for education and personal instead of entertainment.

    Here’s an idea — any algorithmic newsfeed with significant adoption should:

    Transparently convey what objectives the feed algorithm is currently optimizing for, and how these objectives are affecting your information diet.
    Give you intuitive tools to set these goals yourself. For instance, it should be possible for you to configure your newsfeed to maximize learning and personal growth — in specific directions.
    Feature an always-visible measure of how much time you are spending on the feed.
    Feature tools to stay control of how much time you’re spending on the feed — such as a daily time target, past which the algorithm will seek to get you off the feed.

    Augmenting ourselves with AI while retaining control

    We should build AI to serve humans, not to manipulate them for profit or political gain.

    You may be thinking, since a search engine is still an AI layer between us and the information we consume, could it bias its results to attempt to manipulate us? Yes, that risk is latent in every information-management algorithm. But in stark contrast with social networks, market incentives in this case are actually aligned with users needs, pushing search engines to be as relevant and objective as possible. If they fail to be maximally useful, there’s essentially no friction for users to move to a competing product. And importantly, a search engine would have a considerably smaller psychological attack surface than a social newsfeed. The threat we’ve profiled in this post requires most of the following to be present in a product:

    Both perception and action: not only should the product be in control of the information it shows you (news and social updates), it should also be able to “perceive” your current mental states via “likes”, chat messages, and status updates. Without both perception and action, no reinforcement learning loop can be established. A read-only feed would only be dangerous as a potential avenue for classical propaganda.
    Centrality to our lives: the product should be a major source of information for at least a subset of its users, and typical users should be spending several hours per day on it. A feed that is auxiliary and specialized (such as Amazon’s product recommendations) would not be a serious threat.
    A social component, enabling a far broader and more effective array of psychological control vectors (in particular social reinforcement). An impersonal newsfeed has only a fraction of the leverage over our minds.
    Business incentives set towards manipulating users and making users spend more time on the product.

    Most AI-driven information-management products don’t meet these requirements. Social networks, on the other hand, are a frightening combination of risk factors.

    #Intelligence_artificielle #Manipulation #Médias_sociaux

    • This is made all the easier by the fact that the human mind is highly vulnerable to simple patterns of social manipulation. Consider, for instance, the following vectors of attack:

      Identity reinforcement: this is an old trick that has been leveraged since the first very ads in history, and still works just as well as it did the first time, consisting of associating a given view with markers that you identify with (or wish you did), thus making you automatically siding with the target view. In the context of AI-optimized social media consumption, a control algorithm could make sure that you only see content (whether news stories or posts from your friends) where the views it wants you to hold co-occur with your own identity markers, and inversely for views the algorithm wants you to move away from.
      Negative social reinforcement: if you make a post expressing a view that the control algorithm doesn’t want you to hold, the system can choose to only show your post to people who hold the opposite view (maybe acquaintances, maybe strangers, maybe bots), and who will harshly criticize it. Repeated many times, such social backlash is likely to make you move away from your initial views.
      Positive social reinforcement: if you make a post expressing a view that the control algorithm wants to spread, it can choose to only show it to people who will “like” it (it could even be bots). This will reinforce your belief and put you under the impression that you are part of a supportive majority.
      Sampling bias: the algorithm may also be more likely to show you posts from your friends (or the media at large) that support the views it wants you to hold. Placed in such an information bubble, you will be under the impression that these views have much broader support than they do in reality.
      Argument personalization: the algorithm may observe that exposure to certain pieces of content, among people with a psychological profile close to yours, has resulted in the sort of view shift it seeks. It may then serve you with content that is expected to be maximally effective for someone with your particular views and life experience. In the long run, the algorithm may even be able to generate such maximally-effective content from scratch, specifically for you.

      From an information security perspective, you would call these vulnerabilities: known exploits that can be used to take over a system. In the case of the human minds, these vulnerabilities never get patched, they are just the way we work. They’re in our DNA. The human mind is a static, vulnerable system that will come increasingly under attack from ever-smarter AI algorithms that will simultaneously have a complete view of everything we do and believe, and complete control of the information we consume.

  • Dans les coulisses du plus grand dépotoir au monde de déchets numériques | Slate.fr via @rezo
    https://www.slate.fr/story/165767/travailleurs-horreur-quotidien-philipines-moderateurs-contenu-choquant-images-

    C’est à ces petites mains du web que rend hommage The Cleaners, le premier documentaire de Moritz Riesewieck et Hans Block. Le film nous plonge dans le quotidien des modératrices et modérateurs philippins dont certains témoignages ont de quoi glacer le sang : il y a, par exemple, cette employée devenue experte dans « l’art » de la décapitation, qui, à force de visionnages, sait reconnaître dès le premier coup d’œil si une tête a été tranchée à coup de machette ou au couteau de cuisine… Cette autre se décrit comme une « sniper » et compare le visionnage de milliers de vidéos à « un virus envahissant son cerveau ».

    À voir à la fin de l’été sur Arte donc :
    https://www.imdb.com/title/tt7689936/mediaviewer/rm68899584

    La suite : « Pendant deux ans, il a nettoyé Facebook »
    https://www.slate.fr/story/165866/decapitations-censure-confidentialite-moderateur-facebook

    Autopromo, ft. Sarah T. Roberts & @antoniocasilli il y a qq mois : « Les tâcherons du clic » (@mdiplo, décembre 2017)
    https://www.monde-diplomatique.fr/mav/156/HENNETON/58116

    Voir aussi : https://seenthis.net/messages/599738

    #modération #médias_sociaux #digital_labor #inégalités #capitalisme_numérique

  • Quantifying Biases in Online Information Exposure | Center for Complex Networks and Systems Research, Indiana University
    https://arxiv.org/abs/1807.06958
    https://arxiv.org/pdf/1807.06958.pdf

    Our consumption of online #information is mediated by filtering, ranking, and recommendation algorithms that introduce unintentional biases as they attempt to deliver relevant and engaging content. It has been suggested that our reliance on online technologies such as search engines and social media may limit exposure to diverse points of view and make us vulnerable to manipulation by disinformation. In this paper, we mine a massive dataset of Web traffic to quantify two kinds of bias: (i) homogeneity bias, which is the tendency to consume content from a narrow set of information sources, and (ii) popularity bias, which is the selective exposure to content from top sites. Our analysis reveals different bias levels across several widely used Web platforms. Search exposes users to a diverse set of sources, while social media traffic tends to exhibit high popularity and homogeneity #bias. When we focus our analysis on traffic to news sites, we find higher levels of popularity bias, with smaller differences across applications. Overall, our results quantify the extent to which our choices of online systems confine us inside “social bubbles.”

    #personnalisation #médias_sociaux #algorithme via @pomeranian99

  • #Kathleen_STOCK : Les philosophes universitaires face à la loi sur la reconnaissance de l’identité sexuelle (UK Gender Recognition Act)
    https://tradfem.wordpress.com/2018/07/17/les-philosophes-universitaires-face-a-la-loi-sur-la-reconnaissanc

    Il se passe un phénomène particulier dans le monde universitaire de la philosophie. Hors des murs de l’université a lieu une discussion immense et passionnée sur le conflit apparent entre les droits et les intérêts des femmes non-transfemmes et les droits et intérêts des transfemmes. Et pourtant la quasi-totalité des philosophes universitaires – y compris, étonnamment, les philosophes féministes – reste à l’écart de ce débat.

    Ce conflit est particulièrement aigu en ce moment au Royaume-Uni, où les deux principaux partis politiques soutiennent actuellement l’apport d’amendements à la Loi sur la reconnaissance de l’identité sexuelle (Gender Recognition Act), afin de faciliter le fait de « s’autodéclarer » juridiquement comme étant d’un sexe ou d’un autre, sans recours à quelque expertise de nature psychologique ou médicale. Il semble probable que cet acte d’autocertification sera tout ce qui sera nécessaire pour « devenir » légalement une femme ou un homme ; on ne jugera plus pertinents l’apport de changements au style de vie, à la tenue ou à la physionomie, ou le fait d’avoir vécu ou non « en tant que femme » durant une période donnée.

    Vu le niveau élevé de controverse entourant la terminologie dans ce domaine, nous allons, aux seules fins du présent texte, raccourcir l’expression « femmes non-transfemmes » à l’acronyme « FNT » et celle de « transfemmes » à l’acronyme « TF ».

    Traduction : #Tradfem
    Version originale : https://medium.com/@kathleenstock/academic-philosophy-and-the-uk-gender-recognition-act-6179b315b9dd

    Kathleen Stock enseigne la philosophie à l’Université du Sussex. Ses essais brisent un silence qu’elle déplore au sein de cette communauté concernant les enjeux associés aux revendications transgenristes. Elle subit présentement une cabale du lobby trans : piquetage de ses cours, diffamations diverses, revendication qu’elle soit congédiée, etc. On peut lire d’autres textes (bientôt traduits) détaillant sa position sur le site medium.com/@kathleenstock et s’abonner à son fil Twitter : https://twitter.com/Docstockk

    #trans #critique_du_genre #Royaume-uni #féminisme #médias_sociaux

  • Twitter ou les ressources du conflit – L’image sociale
    http://imagesociale.fr/6298

    Le jugement de l’intelligenstia sur les pratiques interactives est comme toujours un avis mal informé. Car quiconque a eu l’occasion de pratiquer la polémique sur Twitter sait non seulement qu’un échange peut y être fort long, mais aussi qu’il est toujours argumenté, et souvent intéressant. La réduction de toute conversation au tweet-clash ou au harcèlement est une caricature qui refuse de voir que ces excès regrettables sont d’abord la conséquence de la fluidité sociale et intellectuelle qui caractérise les réseaux, favorisant les échanges entre des groupes autrefois protégés par l’étanchéité des habitus.

    Car le premier constat qu’impose la multiplication des affrontements est bien que les plates-formes numériques, volontiers accusées par les mêmes détracteurs de n’être que des bulles, sont des lieux beaucoup plus ouverts à l’altérité que l’ancien univers médiatique, dont la faible conflictualité atteste qu’il préservait bien mieux le confort de l’entre-soi.

    Si la discussion est vive dès que le sexisme se manifeste, c’est d’abord parce qu’il existe deux camps aux intérêts opposés, qui se disputent la légitimité de la sphère publique. Ramener toute conflictualité à un effet de loupe des réseaux sociaux, c’est refuser de voir les antagonismes qui traversent la société. Si l’on peut réclamer la civilité comme une règle de l’échange, il faut aussi apercevoir, comme l’explique François Cusset, que l’exigence de pacification n’est bien souvent que le masque de l’ordre apposé sur les colères des plus faibles.

    Ceux qui fuient l’échange musclé sur Twitter l’ignorent : l’insulte n’y est jamais un signe de victoire, mais un aveu de faiblesse. Car la caractéristique la plus fascinante de la conversation sur les réseaux sociaux est qu’elle est un échange public. La discussion y est donc toujours un spectacle, où la pertinence des arguments est évaluée par un groupe plus large que les seuls participants directs à l’échange. C’est la raison pour laquelle la conversation en ligne reste pour l’essentiel fidèle aux règles habermassiennes : celles de la rationalité et de la force argumentative (les cas de harcèlement, qui sont l’exception, renversent cette logique en remplaçant la force de l’argument par la puissance du nombre).

    #Twitter #Médias_sociaux #Débats_publics

  • Étude : les français et leur consommation de l’information en 2018
    https://www.blogdumoderateur.com/etude-consommation-information-france-2018

    Reuters vient de publier les résultats de son étude sur la consommation de l’#information dans le monde en 2018. Le rapport, très fourni, est basé sur l’étude de plus de 74 000 personnes vivant dans 37 pays différents. Au niveau des enseignements pour la France, on y apprend entre autres que : la télévision reste la source privilégiée pour s’informer, que les français sont assez sceptiques sur la véracité des informations, et que Facebook reste le réseau social le plus utilisé pour diffuser des news.

    En ce qui concerne les sources d’information, on constate que la télévision n’a plus le même statut qu’il y a 6 ans. En 2013, les français étaient 84% à s’informer via la télé, il ne sont désormais plus que 71%. Le recours à Internet reste constant avec 68%. On constate cependant une augmentation notable de l’usage des réseaux sociaux pour s’informer, passant de 18% en 2013 à 36% en 2018. Le print, quant à lui, continue de chuter lourdement. Il y a 6 ans, 46% des français s’informaient par ce biais, ils ne sont plus que 20% actuellement.

    (…) Au niveau des appareils utilisés, on constate que l’ordinateur reste l’outil privilégié (56%), talonné par le smartphone dont l’usage a plus que doublé en 6 ans (51% en 2018 contre 24% en 2013). La tablette progresse également passant de 11% en 2013 à 20% en 2018.

    Autre donnée intéressante, on constate que les français ne sont pas du tout prêts à payer pour avoir accès à l’information. Ils sont en effet seulement 11% à payer pour lire des contenus en ligne, ce qui en fait le 20ème pays sur les 37 analysés.

    (…) D’après l’étude, les français sont assez méfiants par rapport aux informations qu’ils obtiennent et à leur véracité. Ils sont en effet 35% en moyenne à faire confiance aux médias en général, un faible taux par rapport à leurs voisins européens qui en fait le 29ème pays sur les 37 sondés. Les plateformes utilisées influent également sur le taux de confiance. Toujours selon le rapport, seuls 19% des français ont confiance en ce qu’ils lisent sur les réseaux sociaux et 26% en ce qu’ils lisent sur les moteurs de recherche.

    #médias #médias_sociaux via @opironet

  • De quelle éducation aux médias avons-nous besoin ? | InternetActu.net
    http://www.internetactu.net/2018/06/06/de-quelle-education-aux-medias-avons-nous-besoin/#comment-1200553
    /assets/images/logo_ia.png

    Lors du dernier SXSW consacré à l’éducation, la chercheuse américaine danah boyd (@zephoria) a, comme à son habitude, délivré une très intéressante conférence sur la question de l’éducation aux médias (vidéo) devant un parterre de spécialistes. Intéressante parce qu’elle remettait en question certaines approches faciles ou rapides de la façon dont on considère l’éducation aux médias

    L’éducation aux médias à l’heure de la post-vérité

    danah boyd avait commencé à éclairer ces questions dans un article publié l’année dernière. Elle y soulignait déjà que pour elle, les deux solutions pour combattre la désinformation, à savoir l’éducation aux médias et les initiatives de vérification de l’information, oublient de prendre en compte le contexte culturel de notre consommation d’information.

    « Lorsque les élèves sont invités à comprendre le fonctionnement des médias, on leur enseigne à être critique, tout en soulignant que certaines publications sont plus dignes de respect que d’autres. Or, tout le monde n’est pas d’accord sur ce qui fait une source fiable. Aux États-Unis (pas seulement) nous vantons la responsabilité personnelle. » Chacun est son propre maître : tant et si bien que chacun est sensé comprendre par exemple la finance pour gérer efficacement sa retraite. Cette logique culturelle libérale est très forte. Mais elle a également des conséquences pour la connaissance et l’information. « Tout ce qu’ils ont à faire est de « faire les recherches » par eux-mêmes et ils sauront mieux que quiconque ce qui est réel ». Ce qui n’est pas sans poser problème, comme le pointe une étude récente de Francesca Tripodi pour Data & Society, l’Institution de recherche que dirige danah boyd, qui a observé les pratiques de recherches d’information de conservateurs américains et qui souligne que ni Google, ni les termes que l’on recherche ne sont neutres. Les recherches visant à vérifier des faits finissent par les imposer. Tripodi parle ainsi « d’inférence scripturale » pour décrire les méthodes de recherche de ces publics, profondément influencés par leurs propres convictions et par les termes qu’utilisent les médias conservateurs auprès de leurs publics qui les invite à s’informer sur ceux-ci plutôt que sur d’autres, comme l’explique le Washington Post. Les différences de termes utilisés vous conduisent à faire des recherches différentes et à des résultats différents et orientés.

    #danah_boyd #Médias_sociaux #EMI #Education_Médias_information #Pensée_critique #Culture_participative

  • Online Harassment, Digital Abuse, and Cyberstalking in America | Data & Society
    https://datasociety.net/output/online-harassment-digital-abuse-cyberstalking

    The internet and digital tools play an increasingly central role in how Americans engage with their communities: How they find and share information; how they connect with their friends, family, and professional networks; how they entertain themselves; how they seek answers to sensitive questions; how they learn about—and access—the world around them. The internet is built on the ideal of the free flow of information, but it is also built on the ideal of free-flowing discourse.

    However, one persistent challenge to this ideal has been online harassment and abuse—unwanted contact that is used to create an intimidating, annoying, frightening, or even hostile environment for the victim and that uses digital means to reach the victim. As with their traditional expressions, online harassment and abuse can affect many aspects of our digital lives. Even those who do not experience online harassment directly can see it and respond to its effects; even the threat of harassment can suppress the voices of many of our citizens.

    In order to explore these issues and the ways that online environments affect our experiences online, this report examines American teens’ and adults’ experiences with witnessing, experiencing, and responding to the aftermath of online harassment and abuse.

    #Cyberharcèlement #Médias_sociaux

  • affordance.info : Fifty Shades of Fake. Le jour des fous et des mensonges. Et les 364 autres.
    http://affordance.typepad.com/mon_weblog/2018/04/fifty-shades-of-fake.html
    http://www.affordance.info/.a/6a00d8341c622e53ef0224e033b5f3200d-600wi

    par Olivier Ertzscheid

    De mon point de vue, trois raisons suffisent à expliquer et à circonscrire l’ampleur actuelle du phénomène des Fake News et à constater qu’à rebours du poisson qui n’est pas que d’Avril, l’affaire, elle, est quasi-insoluble :

    une architecture technique toxique au service du faux,
    nos biais cognitifs (dont notre appétence pour le faux),
    les régimes de vérité propres à chaque plateforme.

    Au demeurant la différence entre ces régimes de vérité explique le récent (22 mars 2018) « clash » entre Google et Facebook sur le sujet des Fake News. Facebook défend un positionnement « hybride » qui l’amènerait à accréditer certaines sources et certains journalistes alors que Google s’y refuse en y voyant un risque pour la liberté d’expression. De fait, la popularité - le régime de vérité de Google - est une externalité, alors que celui de Facebook - l’engagement - suppose un contrôle total des internalités. De son côté, Twitter ayant toujours autant de mal à trouver un modèle économique qu’un régime de vérité, préfère officiellement se reposer sur un postulat d’auto-organisation en feignant d’oublier les effets de la tyrannie des agissants qu’entretient là encore sa propre architecture de la viralité.

    Il serait naïf de croire que les changements de règle annoncés (comme par exemple le fait de « purger » des pages ou des sites de presse qui masqueraient délibérément leur pays d’origine) seront pérennes. Chacun des GAFAM nous a habitué à des évolutions de leurs CGU aussi floues que brutales et ne correspondant à aucune autre logique que celle d’éteindre un incendie médiatique entamant leur image ou de permettre d’augmenter leurs marges et leurs revenus. La seule règle que les plateformes appliquent avec constance est celle de la dérégulation.

    Il est illusoire de croire que les actionnaires des plateformes renonceront à une partie de leurs dividendes au prix d’une lutte contre la désinformation. Ils l’ont explicitement indiqué, la garantie de leurs marges ne se négocie pas. Un écho aux fabriquants de Fake News qui assument à titre individuel des motivations au moins autant financières qu’idéologiques (lire également le reportage saisissant de Wired sur les jeunes rédacteurs de Fake News en Macédoine).

    Il n’y a rien à attendre de la rémunération des éditeurs et des sites de presse par des plateformes, plateformes dont l’architecture technique est la condition d’existence du problème qu’elles prétendent vouloir régler. Facebook rémunérant des Fact-Checkers c’est aussi pertinent que l’industrie du tabac rémunérant des pneumologues.

    Sinon on peut aussi laisser le même Facebook financer un programme de recherche sur la désinformation, ou faire confiance au Figaro pour enquêter sur Serge Dassault.

    De son côté Facebook avait annoncé en Août 2017 qu’il allait priver de publicité (= de la possibilité de lui acheter de la publicité) les pages diffusant des Fake News. Mais que la mesure était temporaire et que si les pages se remettaient à publier de vraies informations elles pourraient de nouveau acheter de la publicité, et que bien sûr les pages (détectées on ne sait pas trop sur quelle base ni avec quel systématisme ou quelle régularité) ne seraient pas supprimées. Notez bien que dès Novembre 2016, au lendemain de l’élection de Trump, Google et Facebook annonçaient déjà leur intention de restreindre et de limiter l’accès à leurs régies publicitaire pour les sites « douteux ». Il faut croire que ces mesures n’ont pas été suivies d’effet probants. A moins bien sûr qu’elles n’aient que très mollement été mises en oeuvre ...

    Internet a bouleversé, durablement et radicalement, les régimes de construction des opinions. C’est un fait et non un faux. Et il faut l’accepter et le comprendre comme tel.

    Internet a - entre autres - inauguré une société des avis. Tout est noté et notable. Avisé et avisable. Des avis déposés sur tout et sur n’importe quoi, des objets, des compétences, des gens, des lieux, et des avis autorisés seulement par l’entremise des mêmes infrastructures et architectures techniques qui les nécessitent pour entretenir un modèle d’affaire qui devient toxique pour toute forme de diversité dès qu’il passe à l’échelle industrielle.

    A ce stade du raisonnement, du constat et des propositions ci-dessus, n’oublions pas que le principal problème de nos sociétés, démocratiques autant que connectées, n’est pas celui des Fake News mais celui de phénomènes spéculatifs qui relèvent d’une triple forme de capitalisme : capitalisme cognitif (à l’échelle macro), capitalisme de la surveillance (à l’échelle structurelle) et sémio-capitalisme à l’échelle conjoncturelle

    Plus globalement ce qui est en cause ici c’est l’explosion circonstancielle ou délibérée de nos cadres collectifs d’énonciation, d’éducation et d’entendement. Et des repères mémoriels qu’ils contribuent à construire, à préserver et à expliciter. Et à ce titre lutter contre les architectures techniques toxiques doit être une priorité. Une priorité absolue. En profiter pour lutter pied à pied contre chaque nouvelle avancée du capitalisme de la surveillance doit en être une autre. Et plus que tout, par-dessus et au-delà de tout, il nous faut investir massivement dans l’éducation. La mémoire collective construite par l’éducation comme rempart aux contre-vérités individuelles instruites par des logiques marchandes se déployant au sein d’architectures techniques toxiques. Le combat est celui-là. Et aucun autre.

    #Fake_news #Médias_sociaux #Vérité #Olivier_Ertzscheid

  • Facebook, Twitter, Snapchat, Instagram... Enquête sur une méfiance généralisée - Le Parisien
    http://www.leparisien.fr/high-tech/facebook-twitter-snapchat-instagram-enquete-sur-une-mefiance-generalisee-

    La promesse des réseaux sociaux est pourtant séduisante. Ils nous permettent de communiquer facilement avec nos amis, notre famille, d’être connectés à eux en permanence. Même plus besoin d’un ordinateur : les smartphones rendent ces services accessibles de partout. Tous nos proches dans la poche, à portée de main et gratuitement !

    Lancé en 2004, Facebook a conquis la planète et compte aujourd’hui 2,13 milliards d’utilisateurs actifs dans le monde. En 2013, son patron, Mark Zuckerberg, comparait sa création à l’électricité : les deux, assurait-il, sont indispensables à notre quotidien... Sauf que les tuiles s’enchaînent pour la société de Menlo Park, dans la Silicon Valley.

    « Ceux qui connaissent Internet savent très bien que leurs données sont récoltées, commente Michaël Stora, psychologue, spécialiste du numérique, coauteur d’Hyperconnexion (Larousse). Mais on ne savait pas qu’elles allaient être utilisées pour nous influencer. » La légèreté avec laquelle elles sont traitées explique la défiance croissante à l’égard des géants du Net.

    Dans notre sondage, parmi les Français qui se méfient des réseaux sociaux, 65 % des personnes interrogées mettent en avant cette raison (42 % d’entre eux la citent en premier). « Les gens prennent conscience que le problème n’est pas tant l’outil, qui nous permet de rester en contact les uns avec les autres, mais le modèle économique derrière, estime Olivier Ertzscheid, enseignant-chercheur en sciences de l’information et des nouvelles technologies à l’université de Nantes. Par sa nature, Facebook est contraint de nous inciter à lui confier toujours plus de données, quitte à franchir la ligne rouge. »

    Comment ? En jouant sur nos bas instincts : notre curiosité vis-à-vis des autres, notre besoin d’amour. On quémande les « J’aime » que nous décernent les internautes dans une quête insatiable de reconnaissance. Justin Rosenstein, l’un des créateurs de ce bouton « J’aime », a lui-même critiqué le « pseudo-plaisir » provoqué par son invention, qui nous incite à rester connecté, même si on a mieux à faire.

    #Facebook#Médias_sociaux #Confiance

  • How to Fix Facebook | The New Yorker
    https://www.newyorker.com/science/elements/how-to-fix-facebook

    Adrian, I think you’re exactly right that this is both a technical problem and a human problem, and that Zuckerberg is pushing the narrative of bad actors who exploited a loophole. But if we can call it a loophole at all, then it’s a policy loophole: Facebook was operating exactly as it was intended to. It was and is an ad network. The scope of the metadata that developers could harvest (and retain) probably isn’t surprising to anyone who has worked in ad tech, or at any tech company, really. Facebook trusted developers to do the right thing, and I think this reliance on good faith—a phrase that gets a lot of exercise in the tech industry—tracks with a sort of tech-first, developer-is-king mind-set.

    In some ways, this trust in developers is a product of carelessness, but it’s also a product of a lack of imagination: it rests on the assumption that what begins as a technical endeavor remains a technical endeavor. It also speaks to a greater tension in the industry, I think, between technical interests (what’s exciting, new, useful for developers) and the social impact of these products. I don’t know how software is built at Facebook, but I imagine that the engineering team working on the Graph A.P.I., a developer tool that enables interaction with the platform’s user relationships, probably wasn’t considering the ways in which metadata could be exploited. It’s not necessarily their job to hypothesize about developers who might create, say, fifteen apps, then correlate the data sets in order to build out comprehensive user profiles. That said, maybe it should be the job of the product-management team. I don’t mean to lean too heavily on conjecture; Facebook is a black box, and it’s nearly impossible to know the company’s internal politics.

    In any case, the underlying issues aren’t specific to Facebook. The question of good faith is an industry-wide problem. Data retention is an industry-wide problem. Transparency is touted as a virtue in Silicon Valley, but when it comes to the end user, transparency is still treated as more of a privilege than a right.

    Anna Wiener: Nathan, I think your point about Facebook’s commercial orientation is really important. Facebook’s customers are not its users. It’s a developer-oriented attention magnet that makes its money from advertisers based on the strength of its users’ data. For Facebook to truly prioritize user privacy could mean the collapse of its revenue engine. So when Zuckerberg says, “We have a responsibility to protect your data, and if we can’t then we don’t deserve to serve you,” it’s very strange, because it assumes that Facebook’s primary orientation is toward users. Zuckerberg runs a business, not a community; my understanding is that Facebook sees itself as a software company, not a social institution, and behaves accordingly.

    #Facebook #Médias_sociaux