• How Do You Recover After Millions Have Watched You Overdose? - The New York Times
    https://www.nytimes.com/2018/12/11/us/overdoses-youtube-opioids-drugs.html

    The first time Kelmae Hemphill watched herself overdose, she sobbed. There she was in a shaky video filmed by her own heroin dealer, sprawled out on a New Jersey road while a stranger pounded on her chest. “Come on, girl,” someone pleaded.

    Ms. Hemphill’s 11-year drug addiction, her criminal record, her struggles as a mother — they were now everybody’s business, splashed across the news and social media with a new genre of American horror film: the overdose video.

    As opioid deaths have soared in recent years, police departments and strangers with cameras have started posting raw, uncensored images of drug users passed out with needles in their arms and babies in the back seats of their cars. The videos rack up millions of views and unleash avalanches of outrage. Then some other viral moment comes along, and the country clicks away.

    But life is never the same for the people whose bleakest, most humiliating moments now live online forever. In interviews with The New York Times, they talked — some for the very first time — about the versions of themselves captured in the videos.

    “Why bother saving her?” asked one YouTube commenter. “I would’ve let her die,” said another. Angry Facebook messages arrived months, even years, later, when strangers stumbled across the videos.

    Addiction experts say the videos are doing little else than publicly shaming drug users, and the blunt horror of the images may actually increase the stigma against them. Users themselves disagree on whether the humiliation helped them clean up their lives.

    “We’re showing you this video of them at the worst, most humiliating moment of their life,” said Daniel Raymond, deputy director of policy and planning at the Harm Reduction Coalition, an advocacy group. “The intent is not to help these people. The intent is to use them as an object lesson by scapegoating them.”

    Mandy McGowan, 38, knows that. She was the mother unconscious in that video, the woman who became known as the “Dollar Store Junkie.” But she said the video showed only a few terrible frames of a complicated life.

    As a child, she said, she was sexually molested. She survived relationships with men who beat her. She barely graduated from high school.

    She said her addiction to opioids began after she had neck surgery in 2006 for a condition that causes spasms and intense pain. Her neurologist prescribed a menu of strong painkillers including OxyContin, Percocet and fentanyl patches.

    As a teenager, Ms. McGowan had smoked marijuana and taken mushrooms and ecstasy. But she always steered clear of heroin, she said, thinking it was for junkies, for people living in alleys. But her friends were using it, and over the last decade, she sometimes joined them.

    She tried to break her habit by buying Suboxone — a medication used to treat addiction — on the street. But the Suboxone often ran out, and she turned to heroin to tide her over.

    On Sept. 18, 2016, a friend came to Ms. McGowan’s house in Salem, N.H., and offered her a hit of fentanyl, a deadly synthetic painkiller 50 times more potent than heroin. They sniffed a line and drove to the Family Dollar across the state line in Lawrence, where Ms. McGowan collapsed with her daughter beside her. At least two people in the store recorded the scene on their cellphones.

    Medics revived her and took her to the hospital, where child welfare officials took custody of her daughter, and the police charged Ms. McGowan with child neglect and endangerment. (She eventually pleaded guilty to both and was sentenced to probation.) Two days later, the video of her overdose was published by The Eagle-Tribune and was also released by the Lawrence police.

    The video played in a loop on the local news, and vaulted onto CNN and Fox News, ricocheting across the web.

    “For someone already dealing with her own demons, she now has to deal with public opinion, too,” said Matt Ganem, the executive director of the Banyan Treatment Center, about 15 miles north of Boston, which gave Ms. McGowan six months of free treatment after being contacted by intermediaries. “You’re a spectacle. Everyone is watching.”

    Ms. McGowan had only seen snippets of the video on the news. But two months later, she watched the whole thing. She felt sick with regret.

    “I see it, and I’m like, I was a piece of freaking [expletive],” she said. “That was me in active use. It’s not who I am today.”

    But she also wondered: Why didn’t anyone help her daughter? She was furious that bystanders seemed to feel they had license to gawk and record instead of comforting her screaming child.

    She writes letters to her two teenage sons, who live with her former husband in New Hampshire. Her daughter, now 4, lives with the girl’s uncle. Ms. McGowan knows she will probably not regain custody, but hopes to develop a relationship with her and supplant the image embedded in her own mind of the sobbing girl in the pink pajamas.

    “I know if I do the right thing, I can be involved in her life,” Ms. McGowan said. “It’s going to be a long road for me. You don’t just get clean and your life is suddenly all put back together.”

    Still, the video lives on, popping up online almost constantly.

    Ms. McGowan is bracing herself for the day when her daughter sees it, when her daughter lashes out at her for it, when she throws it back in her mother’s face when Ms. McGowan tries to warn her not to use drugs.

    “That video is PTSD for my children,” she said. “The questions are going to come as my daughter gets older. And I have to be prepared for it. I did this. And it cost me my children.”

    #Opioides #Vidéos #Médias_sociaux #Addiction #Traitements


  • MobiliZon : reprendre le pouvoir sur ce qui nous rassemble – Framablog
    https://framablog.org/2018/12/11/mobilizon-reprendre-le-pouvoir-sur-ce-qui-nous-rassemble

    Pauvre MeetUp ! Pauvre Facebook avec ses événements et ses groupes ! Vous imaginez combien c’est dur, d’être une des plus grandes capitalisations boursières au monde ? Non mais c’est que les actionnaires ils sont jamais contents, alors il faut les arracher avec les dents, ces dividendes !

    Nos pauvres petits géants du Web sont o-bli-gés de coder des outils qui ne vous donnent que très peu de contrôle sur vos communautés (familiales, professionnelles, militantes, etc.). Parce qu’au fond, les centres d’intérêt que vous partagez avec d’autres, c’est leur fonds de commerce ! Nos pauvres vendeurs de temps de cerveau disponible sont trop-for-cés de vous enfermer dans leurs plateformes où tout ce que vous ferez sera retenu envers et contre vous. Parce qu’un profil publicitaire complet, ça se vend plus cher, et ça, ça compte, dans leurs actions…
    Cliquez sur l’image pour aller voir la conférence « Comment internet a facilité l’organisation des révolutions sociales mais en a compromis la victoire » de Zeynep Tufekci sur TED Talk

    Et nous, internautes prétentieuses, on voudrait qu’ils nous fassent en plus un outil complet, éthique et pratique pour nous rassembler… ? Mais on leur en demande trop, à ces milliardaires du marketing digital !

    Comme on est choubidou chez Framasoft, on s’est dit qu’on allait leur enlever une épine du pied. Oui, il faut un outil pour organiser ces moments où on se regroupe, que ce soit pour le plaisir ou pour changer le monde. Alors on accepte le défi et on se relève les manches.

    #Framasoft #Médias_sociaux


  • PLUS POLITIQUES QUE DANS LES JOURNAUX : LES GILETS JAUNES DANS LE MIROIR DE FACEBOOK

    Quatre chercheurs d’un labo toulousain en sciences sociales ont décortiqué des milliers de tweets, posts Facebook et commentaires des Gilets jaunes. Ils les ont comparés au traitement du mouvement par la presse écrite. Leur verdict : de l’Huma au Figaro en passant par le Monde, les journaux dépeignent des automobilistes fâchés, parfois racistes, et indifférents aux enjeux climatiques. Sur les réseaux sociaux, les chercheurs, dans ce rapport révélé par ASI, ont vu au contraire l’affirmation croissante et argumentée d’une citoyenneté.

    https://www.arretsurimages.net/articles/plus-politiques-que-dans-les-journaux-les-gilets-jaunes-dans-le-miro

    #giletsjaunes #presse #médias #médias_sociaux


  • Le fisc peut-il croire à nos profils Facebook ?
    https://www.franceinter.fr/emissions/la-fenetre-de-la-porte/la-fenetre-de-la-porte-13-novembre-2018

    Mais, à mon sens, les vraies questions sont ailleurs.

    Tout ça repose sur l’idée que ce que les gens versent dans les réseaux sociaux, c’est vraiment leur vie. Il suffit de les fréquenter un peu pour s’apercevoir que non. Pas vraiment… C’est la vie mise en scène. Concrètement, ça veut dire quoi : qu’on peut mentir sur la date d’une photo, sur qui y apparaît, et qu’on transforme vite une chaumière en château… C’est assez drôle parce que l’administration fiscale est habituée à débusquer des gens qui essaient de se faire passer pour moins riches qu’ils le sont. Là elle risque de devoir dénouer le problème inverse : être confrontée à des gens qui essaient de se faire passer pour plus riches qu’ils ne le sont. Le risque n’est-il pas de perdre beaucoup de temps ?

    Par ailleurs, je ne suis pas un pro de la fraude, mais je me pose une question : est-ce vraiment chez les gens qui s’affichent dans les réseaux sociaux qu’on va débusquer les gros fraudeurs ? Je dis ça parce qu’après l’affaire Cahuzac, l’administration fiscale a ouvert un guichet pour les fraudeurs qui voulaient régulariser leur situation. 36 000 dossiers ont été traités entre 2013 et fin 2017, 35 milliards d’euros cachés à l’étranger, 7,8 milliards de redressements fiscaux. Savez-vous quel était l’âge moyen du repenti ? 72 ans… Pas sûr qu’on les ait beaucoup vus s’afficher sur Instagram allongés en string sur leurs Porsche ceux-là… Et il me semble que les affaires de fraude ou d’évasion massive - révélées par exemple par les Panama Papers - n’ont rien à voir avec la différence entre un train de vie annoncé au fisc et train de vie réel : le problème est celui de montages financiers hyper complexes, de l’alliance entre banques et sociétés off-shore etc…

    #Médias_sociaux #Xavier_de_La_Porte #Fraude_Fiscale


  • A White Woman, Teresa Klein, Called the Police on a Black Child She Falsely Said Groped Her - The New York Times
    https://www.nytimes.com/2018/10/12/nyregion/woman-calls-police-black-boy-brooklyn.html

    Une histoire fabuleuse, et si significative. Elle pourrait être drôle, cette femme ayant confondu le sac à dos du gamin avec une volonté de la toucher. Mais elle est si triste de l’état de nos relations sociales, du racisme ambiant, de l’incapacité des gens à se respecter. Significative également de l’usage des médias sociaux et des vidéos sur téléphone.

    A white woman who called the police after claiming that a young black boy touched her behind in a Brooklyn deli drew a storm of ridicule and criticism on social media, and late on Friday she made a public apology to the child.

    Critics characterized the incident as the latest example of a hypersensitive white person calling the police to report black people for dubious reasons. Many detractors imputed racist motives to the woman, Teresa Klein.

    #Racisme #Médias_sociaux


  • À mesure qu’elles croissent, les plateformes deviennent-elles plus hostiles ?
    http://www.internetactu.net/a-lire-ailleurs/a-mesure-quelles-croissent-les-plateformes-deviennent-elles-plus-hosti

    Adam Clair (@awaytobuildit) dans le toujours aussi excellent magazine Real Life (@_reallifemag) expliquait qu’à mesure que les #médias_sociaux grossissaient, ils avaient tendance à devenir plus hostiles envers leurs utilisateurs. La croissance est le but des plateformes de partage de contenus. Pour attirer le plus grand nombre possible d’utilisateurs, elles (...)

    #A_lire_ailleurs #Services #désinformation #modération


  • What worries me about AI – François Chollet – Medium
    https://medium.com/@francois.chollet/what-worries-me-about-ai-ed9df072b704

    This data, in theory, allows the entities that collect it to build extremely accurate psychological profiles of both individuals and groups. Your opinions and behavior can be cross-correlated with that of thousands of similar people, achieving an uncanny understanding of what makes you tick — probably more predictive than what yourself could achieve through mere introspection (for instance, Facebook “likes” enable algorithms to better assess your personality that your own friends could). This data makes it possible to predict a few days in advance when you will start a new relationship (and with whom), and when you will end your current one. Or who is at risk of suicide. Or which side you will ultimately vote for in an election, even while you’re still feeling undecided. And it’s not just individual-level profiling power — large groups can be even more predictable, as aggregating data points erases randomness and individual outliers.
    Digital information consumption as a psychological control vector

    Passive data collection is not where it ends. Increasingly, social network services are in control of what information we consume. What see in our newsfeeds has become algorithmically “curated”. Opaque social media algorithms get to decide, to an ever-increasing extent, which political articles we read, which movie trailers we see, who we keep in touch with, whose feedback we receive on the opinions we express.

    In short, social network companies can simultaneously measure everything about us, and control the information we consume. And that’s an accelerating trend. When you have access to both perception and action, you’re looking at an AI problem. You can start establishing an optimization loop for human behavior, in which you observe the current state of your targets and keep tuning what information you feed them, until you start observing the opinions and behaviors you wanted to see. A large subset of the field of AI — in particular “reinforcement learning” — is about developing algorithms to solve such optimization problems as efficiently as possible, to close the loop and achieve full control of the target at hand — in this case, us. By moving our lives to the digital realm, we become vulnerable to that which rules it — AI algorithms.

    From an information security perspective, you would call these vulnerabilities: known exploits that can be used to take over a system. In the case of the human minds, these vulnerabilities never get patched, they are just the way we work. They’re in our DNA. The human mind is a static, vulnerable system that will come increasingly under attack from ever-smarter AI algorithms that will simultaneously have a complete view of everything we do and believe, and complete control of the information we consume.

    The issue is not AI itself. The issue is control.

    Instead of letting newsfeed algorithms manipulate the user to achieve opaque goals, such as swaying their political opinions, or maximally wasting their time, we should put the user in charge of the goals that the algorithms optimize for. We are talking, after all, about your news, your worldview, your friends, your life — the impact that technology has on you should naturally be placed under your own control. Information management algorithms should not be a mysterious force inflicted on us to serve ends that run opposite to our own interests; instead, they should be a tool in our hand. A tool that we can use for our own purposes, say, for education and personal instead of entertainment.

    Here’s an idea — any algorithmic newsfeed with significant adoption should:

    Transparently convey what objectives the feed algorithm is currently optimizing for, and how these objectives are affecting your information diet.
    Give you intuitive tools to set these goals yourself. For instance, it should be possible for you to configure your newsfeed to maximize learning and personal growth — in specific directions.
    Feature an always-visible measure of how much time you are spending on the feed.
    Feature tools to stay control of how much time you’re spending on the feed — such as a daily time target, past which the algorithm will seek to get you off the feed.

    Augmenting ourselves with AI while retaining control

    We should build AI to serve humans, not to manipulate them for profit or political gain.

    You may be thinking, since a search engine is still an AI layer between us and the information we consume, could it bias its results to attempt to manipulate us? Yes, that risk is latent in every information-management algorithm. But in stark contrast with social networks, market incentives in this case are actually aligned with users needs, pushing search engines to be as relevant and objective as possible. If they fail to be maximally useful, there’s essentially no friction for users to move to a competing product. And importantly, a search engine would have a considerably smaller psychological attack surface than a social newsfeed. The threat we’ve profiled in this post requires most of the following to be present in a product:

    Both perception and action: not only should the product be in control of the information it shows you (news and social updates), it should also be able to “perceive” your current mental states via “likes”, chat messages, and status updates. Without both perception and action, no reinforcement learning loop can be established. A read-only feed would only be dangerous as a potential avenue for classical propaganda.
    Centrality to our lives: the product should be a major source of information for at least a subset of its users, and typical users should be spending several hours per day on it. A feed that is auxiliary and specialized (such as Amazon’s product recommendations) would not be a serious threat.
    A social component, enabling a far broader and more effective array of psychological control vectors (in particular social reinforcement). An impersonal newsfeed has only a fraction of the leverage over our minds.
    Business incentives set towards manipulating users and making users spend more time on the product.

    Most AI-driven information-management products don’t meet these requirements. Social networks, on the other hand, are a frightening combination of risk factors.

    #Intelligence_artificielle #Manipulation #Médias_sociaux

    • This is made all the easier by the fact that the human mind is highly vulnerable to simple patterns of social manipulation. Consider, for instance, the following vectors of attack:

      Identity reinforcement: this is an old trick that has been leveraged since the first very ads in history, and still works just as well as it did the first time, consisting of associating a given view with markers that you identify with (or wish you did), thus making you automatically siding with the target view. In the context of AI-optimized social media consumption, a control algorithm could make sure that you only see content (whether news stories or posts from your friends) where the views it wants you to hold co-occur with your own identity markers, and inversely for views the algorithm wants you to move away from.
      Negative social reinforcement: if you make a post expressing a view that the control algorithm doesn’t want you to hold, the system can choose to only show your post to people who hold the opposite view (maybe acquaintances, maybe strangers, maybe bots), and who will harshly criticize it. Repeated many times, such social backlash is likely to make you move away from your initial views.
      Positive social reinforcement: if you make a post expressing a view that the control algorithm wants to spread, it can choose to only show it to people who will “like” it (it could even be bots). This will reinforce your belief and put you under the impression that you are part of a supportive majority.
      Sampling bias: the algorithm may also be more likely to show you posts from your friends (or the media at large) that support the views it wants you to hold. Placed in such an information bubble, you will be under the impression that these views have much broader support than they do in reality.
      Argument personalization: the algorithm may observe that exposure to certain pieces of content, among people with a psychological profile close to yours, has resulted in the sort of view shift it seeks. It may then serve you with content that is expected to be maximally effective for someone with your particular views and life experience. In the long run, the algorithm may even be able to generate such maximally-effective content from scratch, specifically for you.

      From an information security perspective, you would call these vulnerabilities: known exploits that can be used to take over a system. In the case of the human minds, these vulnerabilities never get patched, they are just the way we work. They’re in our DNA. The human mind is a static, vulnerable system that will come increasingly under attack from ever-smarter AI algorithms that will simultaneously have a complete view of everything we do and believe, and complete control of the information we consume.


  • Dans les coulisses du plus grand dépotoir au monde de déchets numériques | Slate.fr via @rezo
    https://www.slate.fr/story/165767/travailleurs-horreur-quotidien-philipines-moderateurs-contenu-choquant-images-

    C’est à ces petites mains du web que rend hommage The Cleaners, le premier documentaire de Moritz Riesewieck et Hans Block. Le film nous plonge dans le quotidien des modératrices et modérateurs philippins dont certains témoignages ont de quoi glacer le sang : il y a, par exemple, cette employée devenue experte dans « l’art » de la décapitation, qui, à force de visionnages, sait reconnaître dès le premier coup d’œil si une tête a été tranchée à coup de machette ou au couteau de cuisine… Cette autre se décrit comme une « sniper » et compare le visionnage de milliers de vidéos à « un virus envahissant son cerveau ».

    À voir à la fin de l’été sur Arte donc :
    https://www.imdb.com/title/tt7689936/mediaviewer/rm68899584

    La suite : « Pendant deux ans, il a nettoyé Facebook »
    https://www.slate.fr/story/165866/decapitations-censure-confidentialite-moderateur-facebook

    Autopromo, ft. Sarah T. Roberts & @antoniocasilli il y a qq mois : « Les tâcherons du clic » (@mdiplo, décembre 2017)
    https://www.monde-diplomatique.fr/mav/156/HENNETON/58116

    Voir aussi : https://seenthis.net/messages/599738

    #modération #médias_sociaux #digital_labor #inégalités #capitalisme_numérique


  • Quantifying Biases in Online Information Exposure | Center for Complex Networks and Systems Research, Indiana University
    https://arxiv.org/abs/1807.06958
    https://arxiv.org/pdf/1807.06958.pdf

    Our consumption of online #information is mediated by filtering, ranking, and recommendation algorithms that introduce unintentional biases as they attempt to deliver relevant and engaging content. It has been suggested that our reliance on online technologies such as search engines and social media may limit exposure to diverse points of view and make us vulnerable to manipulation by disinformation. In this paper, we mine a massive dataset of Web traffic to quantify two kinds of bias: (i) homogeneity bias, which is the tendency to consume content from a narrow set of information sources, and (ii) popularity bias, which is the selective exposure to content from top sites. Our analysis reveals different bias levels across several widely used Web platforms. Search exposes users to a diverse set of sources, while social media traffic tends to exhibit high popularity and homogeneity #bias. When we focus our analysis on traffic to news sites, we find higher levels of popularity bias, with smaller differences across applications. Overall, our results quantify the extent to which our choices of online systems confine us inside “social bubbles.”

    #personnalisation #médias_sociaux #algorithme via @pomeranian99


  • #Kathleen_STOCK : Les philosophes universitaires face à la loi sur la reconnaissance de l’identité sexuelle (UK Gender Recognition Act)
    https://tradfem.wordpress.com/2018/07/17/les-philosophes-universitaires-face-a-la-loi-sur-la-reconnaissanc

    Il se passe un phénomène particulier dans le monde universitaire de la philosophie. Hors des murs de l’université a lieu une discussion immense et passionnée sur le conflit apparent entre les droits et les intérêts des femmes non-transfemmes et les droits et intérêts des transfemmes. Et pourtant la quasi-totalité des philosophes universitaires – y compris, étonnamment, les philosophes féministes – reste à l’écart de ce débat.

    Ce conflit est particulièrement aigu en ce moment au Royaume-Uni, où les deux principaux partis politiques soutiennent actuellement l’apport d’amendements à la Loi sur la reconnaissance de l’identité sexuelle (Gender Recognition Act), afin de faciliter le fait de «  s’autodéclarer  » juridiquement comme étant d’un sexe ou d’un autre, sans recours à quelque expertise de nature psychologique ou médicale. Il semble probable que cet acte d’autocertification sera tout ce qui sera nécessaire pour «  devenir  » légalement une femme ou un homme  ; on ne jugera plus pertinents l’apport de changements au style de vie, à la tenue ou à la physionomie, ou le fait d’avoir vécu ou non «  en tant que femme  » durant une période donnée.

    Vu le niveau élevé de controverse entourant la terminologie dans ce domaine, nous allons, aux seules fins du présent texte, raccourcir l’expression «  femmes non-transfemmes  » à l’acronyme «  FNT  » et celle de «  transfemmes  » à l’acronyme «  TF  ».

    Traduction : #Tradfem
    Version originale : https://medium.com/@kathleenstock/academic-philosophy-and-the-uk-gender-recognition-act-6179b315b9dd

    Kathleen Stock enseigne la philosophie à l’Université du Sussex. Ses essais brisent un silence qu’elle déplore au sein de cette communauté concernant les enjeux associés aux revendications transgenristes. Elle subit présentement une cabale du lobby trans : piquetage de ses cours, diffamations diverses, revendication qu’elle soit congédiée, etc. On peut lire d’autres textes (bientôt traduits) détaillant sa position sur le site medium.com/@kathleenstock et s’abonner à son fil Twitter : https://twitter.com/Docstockk

    #trans #critique_du_genre #Royaume-uni #féminisme #médias_sociaux


  • Twitter ou les ressources du conflit – L’image sociale
    http://imagesociale.fr/6298

    Le jugement de l’intelligenstia sur les pratiques interactives est comme toujours un avis mal informé. Car quiconque a eu l’occasion de pratiquer la polémique sur Twitter sait non seulement qu’un échange peut y être fort long, mais aussi qu’il est toujours argumenté, et souvent intéressant. La réduction de toute conversation au tweet-clash ou au harcèlement est une caricature qui refuse de voir que ces excès regrettables sont d’abord la conséquence de la fluidité sociale et intellectuelle qui caractérise les réseaux, favorisant les échanges entre des groupes autrefois protégés par l’étanchéité des habitus.

    Car le premier constat qu’impose la multiplication des affrontements est bien que les plates-formes numériques, volontiers accusées par les mêmes détracteurs de n’être que des bulles, sont des lieux beaucoup plus ouverts à l’altérité que l’ancien univers médiatique, dont la faible conflictualité atteste qu’il préservait bien mieux le confort de l’entre-soi.

    Si la discussion est vive dès que le sexisme se manifeste, c’est d’abord parce qu’il existe deux camps aux intérêts opposés, qui se disputent la légitimité de la sphère publique. Ramener toute conflictualité à un effet de loupe des réseaux sociaux, c’est refuser de voir les antagonismes qui traversent la société. Si l’on peut réclamer la civilité comme une règle de l’échange, il faut aussi apercevoir, comme l’explique François Cusset, que l’exigence de pacification n’est bien souvent que le masque de l’ordre apposé sur les colères des plus faibles.

    Ceux qui fuient l’échange musclé sur Twitter l’ignorent : l’insulte n’y est jamais un signe de victoire, mais un aveu de faiblesse. Car la caractéristique la plus fascinante de la conversation sur les réseaux sociaux est qu’elle est un échange public. La discussion y est donc toujours un spectacle, où la pertinence des arguments est évaluée par un groupe plus large que les seuls participants directs à l’échange. C’est la raison pour laquelle la conversation en ligne reste pour l’essentiel fidèle aux règles habermassiennes : celles de la rationalité et de la force argumentative (les cas de harcèlement, qui sont l’exception, renversent cette logique en remplaçant la force de l’argument par la puissance du nombre).

    #Twitter #Médias_sociaux #Débats_publics


  • Étude : les français et leur consommation de l’information en 2018
    https://www.blogdumoderateur.com/etude-consommation-information-france-2018

    Reuters vient de publier les résultats de son étude sur la consommation de l’#information dans le monde en 2018. Le rapport, très fourni, est basé sur l’étude de plus de 74 000 personnes vivant dans 37 pays différents. Au niveau des enseignements pour la France, on y apprend entre autres que : la télévision reste la source privilégiée pour s’informer, que les français sont assez sceptiques sur la véracité des informations, et que Facebook reste le réseau social le plus utilisé pour diffuser des news.

    En ce qui concerne les sources d’information, on constate que la télévision n’a plus le même statut qu’il y a 6 ans. En 2013, les français étaient 84% à s’informer via la télé, il ne sont désormais plus que 71%. Le recours à Internet reste constant avec 68%. On constate cependant une augmentation notable de l’usage des réseaux sociaux pour s’informer, passant de 18% en 2013 à 36% en 2018. Le print, quant à lui, continue de chuter lourdement. Il y a 6 ans, 46% des français s’informaient par ce biais, ils ne sont plus que 20% actuellement.

    (…) Au niveau des appareils utilisés, on constate que l’ordinateur reste l’outil privilégié (56%), talonné par le smartphone dont l’usage a plus que doublé en 6 ans (51% en 2018 contre 24% en 2013). La tablette progresse également passant de 11% en 2013 à 20% en 2018.

    Autre donnée intéressante, on constate que les français ne sont pas du tout prêts à payer pour avoir accès à l’information. Ils sont en effet seulement 11% à payer pour lire des contenus en ligne, ce qui en fait le 20ème pays sur les 37 analysés.

    (…) D’après l’étude, les français sont assez méfiants par rapport aux informations qu’ils obtiennent et à leur véracité. Ils sont en effet 35% en moyenne à faire confiance aux médias en général, un faible taux par rapport à leurs voisins européens qui en fait le 29ème pays sur les 37 sondés. Les plateformes utilisées influent également sur le taux de confiance. Toujours selon le rapport, seuls 19% des français ont confiance en ce qu’ils lisent sur les réseaux sociaux et 26% en ce qu’ils lisent sur les moteurs de recherche.

    #médias #médias_sociaux via @opironet


  • De quelle éducation aux médias avons-nous besoin ? | InternetActu.net
    http://www.internetactu.net/2018/06/06/de-quelle-education-aux-medias-avons-nous-besoin/#comment-1200553
    /assets/images/logo_ia.png

    Lors du dernier SXSW consacré à l’éducation, la chercheuse américaine danah boyd (@zephoria) a, comme à son habitude, délivré une très intéressante conférence sur la question de l’éducation aux médias (vidéo) devant un parterre de spécialistes. Intéressante parce qu’elle remettait en question certaines approches faciles ou rapides de la façon dont on considère l’éducation aux médias

    L’éducation aux médias à l’heure de la post-vérité

    danah boyd avait commencé à éclairer ces questions dans un article publié l’année dernière. Elle y soulignait déjà que pour elle, les deux solutions pour combattre la désinformation, à savoir l’éducation aux médias et les initiatives de vérification de l’information, oublient de prendre en compte le contexte culturel de notre consommation d’information.

    « Lorsque les élèves sont invités à comprendre le fonctionnement des médias, on leur enseigne à être critique, tout en soulignant que certaines publications sont plus dignes de respect que d’autres. Or, tout le monde n’est pas d’accord sur ce qui fait une source fiable. Aux États-Unis (pas seulement) nous vantons la responsabilité personnelle. » Chacun est son propre maître : tant et si bien que chacun est sensé comprendre par exemple la finance pour gérer efficacement sa retraite. Cette logique culturelle libérale est très forte. Mais elle a également des conséquences pour la connaissance et l’information. « Tout ce qu’ils ont à faire est de « faire les recherches » par eux-mêmes et ils sauront mieux que quiconque ce qui est réel ». Ce qui n’est pas sans poser problème, comme le pointe une étude récente de Francesca Tripodi pour Data & Society, l’Institution de recherche que dirige danah boyd, qui a observé les pratiques de recherches d’information de conservateurs américains et qui souligne que ni Google, ni les termes que l’on recherche ne sont neutres. Les recherches visant à vérifier des faits finissent par les imposer. Tripodi parle ainsi « d’inférence scripturale » pour décrire les méthodes de recherche de ces publics, profondément influencés par leurs propres convictions et par les termes qu’utilisent les médias conservateurs auprès de leurs publics qui les invite à s’informer sur ceux-ci plutôt que sur d’autres, comme l’explique le Washington Post. Les différences de termes utilisés vous conduisent à faire des recherches différentes et à des résultats différents et orientés.

    #danah_boyd #Médias_sociaux #EMI #Education_Médias_information #Pensée_critique #Culture_participative


  • Online Harassment, Digital Abuse, and Cyberstalking in America | Data & Society
    https://datasociety.net/output/online-harassment-digital-abuse-cyberstalking

    The internet and digital tools play an increasingly central role in how Americans engage with their communities: How they find and share information; how they connect with their friends, family, and professional networks; how they entertain themselves; how they seek answers to sensitive questions; how they learn about—and access—the world around them. The internet is built on the ideal of the free flow of information, but it is also built on the ideal of free-flowing discourse.

    However, one persistent challenge to this ideal has been online harassment and abuse—unwanted contact that is used to create an intimidating, annoying, frightening, or even hostile environment for the victim and that uses digital means to reach the victim. As with their traditional expressions, online harassment and abuse can affect many aspects of our digital lives. Even those who do not experience online harassment directly can see it and respond to its effects; even the threat of harassment can suppress the voices of many of our citizens.

    In order to explore these issues and the ways that online environments affect our experiences online, this report examines American teens’ and adults’ experiences with witnessing, experiencing, and responding to the aftermath of online harassment and abuse.

    #Cyberharcèlement #Médias_sociaux


  • affordance.info : Fifty Shades of Fake. Le jour des fous et des mensonges. Et les 364 autres.
    http://affordance.typepad.com/mon_weblog/2018/04/fifty-shades-of-fake.html
    http://www.affordance.info/.a/6a00d8341c622e53ef0224e033b5f3200d-600wi

    par Olivier Ertzscheid

    De mon point de vue, trois raisons suffisent à expliquer et à circonscrire l’ampleur actuelle du phénomène des Fake News et à constater qu’à rebours du poisson qui n’est pas que d’Avril, l’affaire, elle, est quasi-insoluble :

    une architecture technique toxique au service du faux,
    nos biais cognitifs (dont notre appétence pour le faux),
    les régimes de vérité propres à chaque plateforme.

    Au demeurant la différence entre ces régimes de vérité explique le récent (22 mars 2018) « clash » entre Google et Facebook sur le sujet des Fake News. Facebook défend un positionnement « hybride » qui l’amènerait à accréditer certaines sources et certains journalistes alors que Google s’y refuse en y voyant un risque pour la liberté d’expression. De fait, la popularité - le régime de vérité de Google - est une externalité, alors que celui de Facebook - l’engagement - suppose un contrôle total des internalités. De son côté, Twitter ayant toujours autant de mal à trouver un modèle économique qu’un régime de vérité, préfère officiellement se reposer sur un postulat d’auto-organisation en feignant d’oublier les effets de la tyrannie des agissants qu’entretient là encore sa propre architecture de la viralité.

    Il serait naïf de croire que les changements de règle annoncés (comme par exemple le fait de « purger » des pages ou des sites de presse qui masqueraient délibérément leur pays d’origine) seront pérennes. Chacun des GAFAM nous a habitué à des évolutions de leurs CGU aussi floues que brutales et ne correspondant à aucune autre logique que celle d’éteindre un incendie médiatique entamant leur image ou de permettre d’augmenter leurs marges et leurs revenus. La seule règle que les plateformes appliquent avec constance est celle de la dérégulation.

    Il est illusoire de croire que les actionnaires des plateformes renonceront à une partie de leurs dividendes au prix d’une lutte contre la désinformation. Ils l’ont explicitement indiqué, la garantie de leurs marges ne se négocie pas. Un écho aux fabriquants de Fake News qui assument à titre individuel des motivations au moins autant financières qu’idéologiques (lire également le reportage saisissant de Wired sur les jeunes rédacteurs de Fake News en Macédoine).

    Il n’y a rien à attendre de la rémunération des éditeurs et des sites de presse par des plateformes, plateformes dont l’architecture technique est la condition d’existence du problème qu’elles prétendent vouloir régler. Facebook rémunérant des Fact-Checkers c’est aussi pertinent que l’industrie du tabac rémunérant des pneumologues.

    Sinon on peut aussi laisser le même Facebook financer un programme de recherche sur la désinformation, ou faire confiance au Figaro pour enquêter sur Serge Dassault.

    De son côté Facebook avait annoncé en Août 2017 qu’il allait priver de publicité (= de la possibilité de lui acheter de la publicité) les pages diffusant des Fake News. Mais que la mesure était temporaire et que si les pages se remettaient à publier de vraies informations elles pourraient de nouveau acheter de la publicité, et que bien sûr les pages (détectées on ne sait pas trop sur quelle base ni avec quel systématisme ou quelle régularité) ne seraient pas supprimées. Notez bien que dès Novembre 2016, au lendemain de l’élection de Trump, Google et Facebook annonçaient déjà leur intention de restreindre et de limiter l’accès à leurs régies publicitaire pour les sites « douteux ». Il faut croire que ces mesures n’ont pas été suivies d’effet probants. A moins bien sûr qu’elles n’aient que très mollement été mises en oeuvre ...

    Internet a bouleversé, durablement et radicalement, les régimes de construction des opinions. C’est un fait et non un faux. Et il faut l’accepter et le comprendre comme tel.

    Internet a - entre autres - inauguré une société des avis. Tout est noté et notable. Avisé et avisable. Des avis déposés sur tout et sur n’importe quoi, des objets, des compétences, des gens, des lieux, et des avis autorisés seulement par l’entremise des mêmes infrastructures et architectures techniques qui les nécessitent pour entretenir un modèle d’affaire qui devient toxique pour toute forme de diversité dès qu’il passe à l’échelle industrielle.

    A ce stade du raisonnement, du constat et des propositions ci-dessus, n’oublions pas que le principal problème de nos sociétés, démocratiques autant que connectées, n’est pas celui des Fake News mais celui de phénomènes spéculatifs qui relèvent d’une triple forme de capitalisme : capitalisme cognitif (à l’échelle macro), capitalisme de la surveillance (à l’échelle structurelle) et sémio-capitalisme à l’échelle conjoncturelle

    Plus globalement ce qui est en cause ici c’est l’explosion circonstancielle ou délibérée de nos cadres collectifs d’énonciation, d’éducation et d’entendement. Et des repères mémoriels qu’ils contribuent à construire, à préserver et à expliciter. Et à ce titre lutter contre les architectures techniques toxiques doit être une priorité. Une priorité absolue. En profiter pour lutter pied à pied contre chaque nouvelle avancée du capitalisme de la surveillance doit en être une autre. Et plus que tout, par-dessus et au-delà de tout, il nous faut investir massivement dans l’éducation. La mémoire collective construite par l’éducation comme rempart aux contre-vérités individuelles instruites par des logiques marchandes se déployant au sein d’architectures techniques toxiques. Le combat est celui-là. Et aucun autre.

    #Fake_news #Médias_sociaux #Vérité #Olivier_Ertzscheid


  • Facebook, Twitter, Snapchat, Instagram... Enquête sur une méfiance généralisée - Le Parisien
    http://www.leparisien.fr/high-tech/facebook-twitter-snapchat-instagram-enquete-sur-une-mefiance-generalisee-

    La promesse des réseaux sociaux est pourtant séduisante. Ils nous permettent de communiquer facilement avec nos amis, notre famille, d’être connectés à eux en permanence. Même plus besoin d’un ordinateur : les smartphones rendent ces services accessibles de partout. Tous nos proches dans la poche, à portée de main et gratuitement !

    Lancé en 2004, Facebook a conquis la planète et compte aujourd’hui 2,13 milliards d’utilisateurs actifs dans le monde. En 2013, son patron, Mark Zuckerberg, comparait sa création à l’électricité : les deux, assurait-il, sont indispensables à notre quotidien... Sauf que les tuiles s’enchaînent pour la société de Menlo Park, dans la Silicon Valley.

    « Ceux qui connaissent Internet savent très bien que leurs données sont récoltées, commente Michaël Stora, psychologue, spécialiste du numérique, coauteur d’Hyperconnexion (Larousse). Mais on ne savait pas qu’elles allaient être utilisées pour nous influencer. » La légèreté avec laquelle elles sont traitées explique la défiance croissante à l’égard des géants du Net.

    Dans notre sondage, parmi les Français qui se méfient des réseaux sociaux, 65 % des personnes interrogées mettent en avant cette raison (42 % d’entre eux la citent en premier). « Les gens prennent conscience que le problème n’est pas tant l’outil, qui nous permet de rester en contact les uns avec les autres, mais le modèle économique derrière, estime Olivier Ertzscheid, enseignant-chercheur en sciences de l’information et des nouvelles technologies à l’université de Nantes. Par sa nature, Facebook est contraint de nous inciter à lui confier toujours plus de données, quitte à franchir la ligne rouge. »

    Comment ? En jouant sur nos bas instincts : notre curiosité vis-à-vis des autres, notre besoin d’amour. On quémande les « J’aime » que nous décernent les internautes dans une quête insatiable de reconnaissance. Justin Rosenstein, l’un des créateurs de ce bouton « J’aime », a lui-même critiqué le « pseudo-plaisir » provoqué par son invention, qui nous incite à rester connecté, même si on a mieux à faire.

    #Facebook#Médias_sociaux #Confiance


  • How to Fix Facebook | The New Yorker
    https://www.newyorker.com/science/elements/how-to-fix-facebook

    Adrian, I think you’re exactly right that this is both a technical problem and a human problem, and that Zuckerberg is pushing the narrative of bad actors who exploited a loophole. But if we can call it a loophole at all, then it’s a policy loophole: Facebook was operating exactly as it was intended to. It was and is an ad network. The scope of the metadata that developers could harvest (and retain) probably isn’t surprising to anyone who has worked in ad tech, or at any tech company, really. Facebook trusted developers to do the right thing, and I think this reliance on good faith—a phrase that gets a lot of exercise in the tech industry—tracks with a sort of tech-first, developer-is-king mind-set.

    In some ways, this trust in developers is a product of carelessness, but it’s also a product of a lack of imagination: it rests on the assumption that what begins as a technical endeavor remains a technical endeavor. It also speaks to a greater tension in the industry, I think, between technical interests (what’s exciting, new, useful for developers) and the social impact of these products. I don’t know how software is built at Facebook, but I imagine that the engineering team working on the Graph A.P.I., a developer tool that enables interaction with the platform’s user relationships, probably wasn’t considering the ways in which metadata could be exploited. It’s not necessarily their job to hypothesize about developers who might create, say, fifteen apps, then correlate the data sets in order to build out comprehensive user profiles. That said, maybe it should be the job of the product-management team. I don’t mean to lean too heavily on conjecture; Facebook is a black box, and it’s nearly impossible to know the company’s internal politics.

    In any case, the underlying issues aren’t specific to Facebook. The question of good faith is an industry-wide problem. Data retention is an industry-wide problem. Transparency is touted as a virtue in Silicon Valley, but when it comes to the end user, transparency is still treated as more of a privilege than a right.

    Anna Wiener: Nathan, I think your point about Facebook’s commercial orientation is really important. Facebook’s customers are not its users. It’s a developer-oriented attention magnet that makes its money from advertisers based on the strength of its users’ data. For Facebook to truly prioritize user privacy could mean the collapse of its revenue engine. So when Zuckerberg says, “We have a responsibility to protect your data, and if we can’t then we don’t deserve to serve you,” it’s very strange, because it assumes that Facebook’s primary orientation is toward users. Zuckerberg runs a business, not a community; my understanding is that Facebook sees itself as a software company, not a social institution, and behaves accordingly.

    #Facebook #Médias_sociaux


  • Facebook Turned Our Economy Into a Spying Operation | Alternet
    https://www.alternet.org/news-amp-politics/our-economy-based-spying

    George H.W. Bush and Bill Clinton sold us on the idea that we no longer needed a manufacturing economy in the U.S. because the internet was coming and it would provide entirely new business models.

    Now we’ve seen what that new economy looks like: spying for sale.

    Facebook takes all the information you give them, which they then use to create profiles to sell advertising to people who want your money or your vote.

    Your internet service provider, with former Verizon lawyer and now head of the FCC Ajit Pai having destroyed net neutrality, will soon begin (if they haven’t already started) tracking every single mouse click, reading every email, and checking out every one of your online purchases to get information they can sell for a profit.

    Your “smart" TV is tracking every show you watch, when and for how long and selling that information to marketers and networks.

    And even your credit card company is now selling your information—what have you bought that you’d rather not have the world know?

    To paraphrase Dwight Eisenhower’s Cross of Iron speech, this is not a real economy at all, in any true sense. It’s a parody of an economy, with a small number of winners and all the rest of us as losers/suckers/“product.”

    While it’s true that Facebook’s malignant business model may well provide a huge opportunity for a competitor to offer a “$3 a month and we don’t track you, spy on you, or sell your data” plan (or even for Facebook to shift to that), it still fails to address the importance of privacy in the context of society and law/rule-making.

    We cannot trust corporations in America with our personal information, as long as that information can make them more and more money. Even your doctor or hospital will now require you sign a form allowing them to sell your information to third parties.

    It’s been decades since we’ve had a conversation in America about privacy. What does the word mean? How should it be applied?

    Just this simple transparency requirement would solve a lot of these problems.

    Business, of course, will scream that they can’t afford compliance with such an onerous requirement. Every time they sell the fact that you love dogs but have a cat allergy and buy anti-allergy medications, they’ll only make a few cents per sale, but it’ll cost them more than that to let you know what part of you and your collective body of information they sold to the allergy medicine manufacturers.

    And that may well be true. It will decrease the profitability of companies like Facebook whose primary business model is spy-and-sell, and will incrementally reduce the revenue to medical groups, credit card companies, and websites/ISPs who make money on the side doing spy-and-sell.

    #Facebook #Médias_sociaux #Vie_privée #Economie_influence


  • Pourquoi sommes-nous « accro » à Facebook ? - Santé - LeVif.be
    http://www.levif.be/actualite/sante/pourquoi-sommes-nous-accro-a-facebook/article-normal-817479.html

    Si Facebook est de plus en plus critiqué, peu d’utilisateurs ferment leur compte, pris entre injonction sociale et piège des algorithmes, soulignent les chercheurs qui s’inquiètent de l’opacité des plateformes de réseaux sociaux.

    Pourquoi sommes-nous « accro » à Facebook ?

    Face au scandale autour de l’utilisation indue de données personnelles par la firme britannique Cambridge Analytica à des fins électorales, les adeptes de Facebook « sont choqués mais pas surpris », estime Eric Baumer, professeur en sciences de l’information à Lehigh University, aux Etats-Unis.

    « Est-ce que cela va les inciter à quitter Facebook définitivement, c’est une autre question... », dit-il à l’AFP.

    En 2014, le groupe s’était déjà retrouvé dans la tourmente pour avoir secrètement manipulé les émotions d’utilisateurs dans le cadre d’une étude sur la « contagion émotionnelle », une affaire qui l’avait amené à changer les règles encadrant les recherches mais n’avait freiné l’expansion de la plateforme.

    Sur internet, « on a presque l’habitude que nos données fassent l’objet d’une utilisation mercantile », remarque Nathalie Nadaud-Albertini, sociologue française des médias. « Mais que cela puisse servir dans le cadre de campagnes électorales nous gêne beaucoup plus, car cela touche au domaine des idéaux, des valeurs et des idées », dit-elle.

    – « Réaction pulsionnelle » -

    Pour autant, elle ne s’attend pas un exode des utilisateurs : « C’est devenu tellement central dans notre socialisation et nos interactions que supprimer Facebook et les autres réseaux est possible, mais suppose de se mettre un peu en marge de la société », analyse-t-elle, pointant « l’injonction sociale » à rejoindre ce site au plus de deux milliards d’inscrits.

    Une étude sur l’addiction à cette plateforme « a montré que ce n’est pas forcément le lien social qui attire sur Facebook mais un phénomène d’addiction : certains utilisateurs nous disaient taper instinctivement sur la lettre F de leur clavier quand ils se connectaient », dit pour sa part Eric Baumer, auteur de cette recherche pour l’université Cornell.

    Les mécanismes de cette addiction ? « Facebook joue sur la dimension émotionnelle en nous exposant à des informations qui sollicitent une réaction pulsionnelle et non rationnelle. Ils savent aussi parfaitement quel type d’info va être virale », explique Olivier Ertzscheid, chercheur français en sciences de l’information à l’Université de Nantes.

    « La question que cela pose, c’est que le jour où Facebook va décider de manipuler l’opinion sur tel ou tel sujet, sera-t-on en capacité de le détecter ? Ce n’est pas évident », alerte ce spécialiste, estimant que la plateforme en est techniquement capable.

    – « Point Oppenheimer » -

    Un risque également soulevé par Andrew Przybylski, psychologue à l’Université d’Oxford, qui dresse une analogie avec la trilogie de Tolkien et son anneau magique qui corrompt le commun des mortels : « Aujourd’hui, quand scientifiques et chercheurs travaillent avec Facebook, ils doivent avoir conscience que c’est un peu comme donner l’anneau à Frodon ».

    Selon lui, la recherche sur les données et la psychologie quantitative a franchi son « point Oppenheimer », du nom de l’un des pères de la bombe atomique américaine : maintenant qu’une arme extrêmement dangereuse existe, qu’est-ce qu’on en fait ?

    « Nous devons nous assurer que les recherches sont conformes à l’éthique et menées dans l’intérêt du public », estime le chercheur, qui a remis une proposition en ce sens à Facebook — lui-même n’a plus de compte.

    Si le public fait de plus en plus attention aux données privées qu’il livre publiquement, « le problème, c’est où l’on met le curseur » entre ce qu’on partage avec tous et ce qu’on réserve aux proches, signale Nathalie Nadaud-Albertini, qui prône l’éducation numérique des plus jeunes pour « sortir de ce rapport de confiance où l’on se dit que tout va bien se passer, sans trop savoir ce que l’on risque ».

    Les jeunes utilisateurs ont toutefois tendance à délaisser Facebook au profit d’autres réseaux, souligne Eric Baumer, regrettant au passage « l’opacité des conglomérats de médias sociaux » (Facebook détient Instagram et WhatsApp, Google possède YouTube...) qui peut induire en erreur ceux qui pensent éviter Facebook.

    Pour Olivier Ertzscheid, une solution est de développer des alternatives à Facebook car « on sait aujourd’hui construire des réseaux sociaux respectueux de la vie privée ».

    #Facebook #Recherche #Médias_sociaux


  • Olivier Ertzscheid : “ Le moment le plus opportun pour mener le combat ” sur Internet
    https://www.lanouvellerepublique.fr/a-la-une/olivier-ertzscheid-le-moment-le-plus-opportun-pour-mener-le-com

    Olivier Ertzscheid est maître de conférences en sciences de l’information à l’université de Nantes. Il a notamment étudié la multiplication et la propagation des discours haineux sur Internet (à lire notamment sur son blog) et juge « positif » que le gouvernement s’empare enfin de la question.
    > Le moment opportun. La lutte contre les discours haineux sur Internet est « d’abord une question politique, juge Olivier Ertzscheid. Pendant longtemps, les politiques ont oublié que la loi sur le territoire s’applique aussi en ligne. » Selon lui, avec la multiplication des polémiques sur les réseaux sociaux, l’image dans l’opinion de ces géants du Net commence à être écornée. « Avant, on pouvait considérer qu’ils étaient intouchables mais on a peut-être là l’opportunité de mener le combat. Les plateformes elles-mêmes commencent à dire que si elles ne veulent pas perdre trop de points en terme d’image elles doivent donner des signes explicites » de lutte contre ces discours.
    > Un modèle économique en question. La loi ne peut pas tout régler estime Olivier Ertzscheid. « Le problème est que ces discours haineux sont très liés aux modèles économiques de ces plateformes. Ce sont ces polémiques nées de discours haineux qui ont la logique de viralité la plus importante sur ces réseaux. Car pour un tweet antisémite insupportable, il y a dix, cent ou plusieurs milliers de tweets qui le dénoncent. Tout ceci arrangeait bien jusqu’ici les plateformes. Ces discours de haine qui déclenchent des polémiques, qui entraînent des engagements des utilisateurs… ce sont autant de données que les plateformes peuvent revendre à leurs annonceurs. Malgré tout, des groupes comme Facebook ont perçu les limites de ce modèle et viennent d’annoncer le recrutement de modérateurs humains. »
    > L’échelle européenne. Même si la France décide d’agir, la bonne échelle d’action est « l’échelle européenne ». Car les plateformes jouent sur l’ambiguïté du principe de territorialité du droit. « Pour les utilisateurs français de Facebook, c’est la loi française qui s’applique ».
    > La lutte contre l’anonymat. Chercher à trouver qui se cache derrière un pseudonyme pour attiser la haine « peut éventuellement dissuader la personne qui, sans être initiatrice, peut être séduite par des contenus haineux. Mais l’anonymat est une vraie/fausse question. Pendant longtemps Internet a été anonyme et n’a pas créé pour autant de multiples discours haineux. Il est très facile aujourd’hui pour les plateformes de retrouver qui se cache derrière un pseudonyme. Ceux qui tiennent volontairement des propos haineux l’assument complètement et savent flirter avec les limites de la loi. »

    #Olivier_Ertzscheid #Plateformes #Médias_sociaux #Fake_news


  • On a chopé la puberté : l’ignorance, premier combustible du bûcher
    https://www.actualitte.com/article/edito/on-a-chope-la-puberte-l-ignorance-premier-combustible-du-bucher/87722

    L’ignorance, premier combustible du bûcher

    Avec On a chopé la puberté, deux choses sont à retenir : celle connue de la vendetta que facilitent les réseaux sociaux, et l’instinct grégaire qui gagne les internautes en quelques minutes. Mais ce fait est connu. L’autre, plus sournois, relève des pétitions en ligne, qui catalysent l’engouement, provoquant une boule de neige mortifère.

    Pour l’ouvrage, imprimé à 5000 exemplaires, ce sont plus de 148.000 personnes qui ont signé. Combien ont pu lire ce livre avant d’apposer leur signature dans ce qui était devenu une chasse à l’homme ? Combien de commentaires, sur les réseaux, ces agoras modernes, de personnes qui ignoraient presque tout du livre ? De fait, quelques extraits ont suffi à cristalliser la colère, et condamnant quelques parties, c’est le tout qui méritait alors le bûcher.

    Et chacun de s’indigner à bon compte.

    Tout cela est inquiétant : autant de gens ne peuvent pas avoir tort, peut-on lire. Ici, le cap est franchi : on s’exonère du paradigme premier de toute société, savoir de quoi on parle, avant de s’exprimer. Le pire des scénarios de Margaret Atwood se concrétise : Trump a gagné.

    Depuis quand pour devenir populaire faut faire des trucs de geeks ?
    Ils posteraient des Sextape de leurs parents pour plus de « clics »,

    Orelsan — Plus rien ne m’étonne

    On clique, on partage et on like, dans la plus totale ignorance. Et l’on s’y complaît, parce que son profil Facebook brillera de cette indignation aveuglée. Facebook, Twitter ou les pétitions restent des outils dont l’incidence dépend de notre intelligence. En parvenant à se substituer à la loi, seule dans un État de droit à juger un livre, ce cocktail ne conduit qu’à une violente gueule de bois. Et la quantité d’aspirine pour la faire passer dépasse l’imagination.

    Le scandale est là : qu’en 2018, nous en arrivions à voir des livres disparaître, par la seule force d’une marée inhumaine, devenue folle.

    #Médias_sociaux #Censure #Fake_news


  • On a chopé la puberté : explication sur la polémique des réseaux sociaux
    http://www.madmoizelle.com/on-a-chope-la-puberte-illustratrice-reponse-894247

    Que peut-on tirer de cette histoire ?

    On a chopé la puberté est un livre maladroit, qui a du mal à s’éloigner des clichés sexistes solidement attachés à la société. De plus, il reste trop pudique voire tristement silencieux sur des problématiques importantes pour la tranche d’âge concernée, comme le sexe.

    Mais il n’est pas non plus le plus gros ramassis de bêtises qui soit ! J’ai lu des livres pour enfants bien plus dangereux que ça, qu’ils soient racistes, homophobes, ou même anti-avortement, qui n’ont pas eu le droit à leur pétition, mais qui ont eu le droit à la punition du silence, ce qui est un premier pas.

    Ici l’enjeu d’On a chopé la puberté est avant tout de donner confiance aux personnes qui le lisent, de les faire relativiser et accepter leur corps, avec tous les changements voire désagréments qui peuvent se produire.

    L’intention est bonne. Le cheminement est déjà plus chaotique.

    Du coup, j’ai envie de tirer deux principales conclusions de cette histoire.

    La première, c’est de toujours prendre le temps de remettre en contexte ce que l’on voit passer sur les réseaux sociaux, surtout ce qui se la joue très sensationnaliste. Certes, des critiques proférées à l’encontre de ce livre sont fondées. Mais isoler des passages sans avoir pris en compte la globalité d’une création ne peut jamais aboutir à une critique construite.

    La seconde, c’est l’importance de l’éducation à la sexualité des plus jeunes. Il vaudra toujours mieux discuter avec un ou une préadolescente que lui donner un livre pour qu’il ou elle se renseigne.

    #Edition #Censure #Sexisme #Médias_sociaux


  • affordance.info : Autodafécebook. De l’interdiction des livres sur Facebook et de l’inquisition de certaines formes instrumentales de viralité.
    http://affordance.typepad.com/mon_weblog/2018/03/de-linterdiction-des-livres-sur-facebook-et-de-linquisition-de-l
    http://www.affordance.info/.a/6a00d8341c622e53ef01bb09f9ae7d970d-600wi

    Par Olivier Ertzscheid

    L’histoire occupe probablement une bonne partie de votre mur Facebook depuis quelques jours. L’histoire c’est celle du livre « on a chopé la puberté » publié par les éditions Milan Jeunesse.

    Il ne s’agissait bien sûr que d’un extrait et très peu de journaux et de journalistes ont fait le travail d’aller lire en intégralité l’ouvrage, beaucoup préférant se contenter de décrire la montée du bad buzz sur les réseaux sociaux en reprenant d’ailleurs uniquement les éléments visuels déjà jetés en pâture. Exception notable, cet article de Madmoizelle paru le 2 Mars qui fut l’un des rares (le seul ?) à prendre le temps de rappeler que les extraits diffusés ne rendaient pas compte de l’ensemble et devaient à tout le moins être regardés avec davantage de circonspection et dans le contexte général de l’ouvrage, bien moins caricatural que ce qu’en donnaient à voir les extraits choisis.

    Quelques jours plus tard, 148 249 personnes avaient signé une pétition réclamant, et obtenant le retrait du livre paru à ... 5000 exemplaires.

    Ce qui est en train de se jouer c’est que nous avons tous pris conscience de l’immense pouvoir que nous conférait la viralité.

    Et que les grandes plateformes, où ce sentiment de toute puissance est seul à pouvoir se construire et s’exercer, jouent l’exacerbation de manière systématique, programmatique.

    Dans cette affaire comme dans d’autres les mécanismes de la viralité sont tout à fait connus et documentés, comme le sont les effets souvent pervers qui l’alimentent : tyrannie des agissants et autres biais cognitifs surjouent une indignation qui vise surtout à marquer notre appartenance opportuniste à une agitation organisée en catharsis d’on ne sait plus vraiment trop quoi, plutôt que notre adhésion sincère aux thèses à l’origine de ladite agitation.

    Puisqu’il est à peu près certain que jamais les plateformes ne renonceront à instrumentaliser cette viralité qui est le paradigme premier de leur modèle d’affaire, puisqu’il est également certain qu’il faudra encore beaucoup de temps pour que le design attentionnel en vienne à intégrer des perspectives éthiques « by default », alors il faut nous éduquer à ces grammaires du pulsionnel qui font de la viralité une forme de partage qui ne vise rien d’autre que la reproduction de sa propre et formidable inertie en se nourrissant d’une hystérisation qu’elle secrète elle-même. Nous éduquer donc à ces grammaires du pulsionnel, et s’efforcer d’y éduquer nos proches. Ou nous en éloigner avec eux par différents moyens.

    #Edition #Censure #Médias_sociaux #Viralité #Olivier_Ertzscheid


  • “En France, chacun est libre d’écrire ce qu’il veut, dans les limites de la loi”
    https://www.actualitte.com/article/monde-edition/en-france-chacun-est-libre-d-ecrire-ce-qu-il-veut-dans-les-limites-de-la-loi/87714

    Sous la pression d’une mobilisation sur les réseaux sociaux, les éditions Milan ont pris la décision de ne pas réimprimer On a chopé la puberté, un ouvrage présenté comme un manuel destiné aux jeunes filles, pour répondre à leurs questions sur l’adolescence. Sur les réseaux, le titre a été accusé de promouvoir la « culture du viol » et de véhiculer une image rétrograde de la femme. Vincent Cuvellier, écrivain, a publié une pétition pour défendre la liberté des auteurs, même celle d’« écrire de mauvais livres » et s’exprime sur un phénomène qu’il juge inquiétant.

    #Edition #Censure #Médias_sociaux