• It’s the (Democracy-Poisoning) Golden Age of Free Speech | WIRED
    https://www.wired.com/story/free-speech-issue-tech-turmoil-new-censorship

    Par Zeynep Tufekci

    In today’s networked environment, when anyone can broadcast live or post their thoughts to a social network, it would seem that censorship ought to be impossible. This should be the golden age of free speech.

    And sure, it is a golden age of free speech—if you can believe your lying eyes. Is that footage you’re watching real? Was it really filmed where and when it says it was? Is it being shared by alt-right trolls or a swarm of Russian bots? Was it maybe even generated with the help of artificial intelligence? (Yes, there are systems that can create increasingly convincing fake videos.)

    Or let’s say you were the one who posted that video. If so, is anyone even watching it? Or has it been lost in a sea of posts from hundreds of millions of content pro­ducers? Does it play well with Facebook’s algorithm? Is YouTube recommending it?

    Maybe you’re lucky and you’ve hit a jackpot in today’s algorithmic public sphere: an audience that either loves you or hates you. Is your post racking up the likes and shares? Or is it raking in a different kind of “engagement”: Have you received thousands of messages, mentions, notifications, and emails threatening and mocking you? Have you been doxed for your trouble? Have invisible, angry hordes ordered 100 pizzas to your house? Did they call in a SWAT team—men in black arriving, guns drawn, in the middle of dinner?

    These companies—which love to hold themselves up as monuments of free expression—have attained a scale unlike anything the world has ever seen; they’ve come to dominate media distribution, and they increasingly stand in for the public sphere itself. But at their core, their business is mundane: They’re ad brokers. To virtually anyone who wants to pay them, they sell the capacity to precisely target our eyeballs. They use massive surveillance of our behavior, online and off, to generate increasingly accurate, automated predictions of what advertisements we are most susceptible to and what content will keep us clicking, tapping, and scrolling down a bottomless feed.

    So what does this algorithmic public sphere tend to feed us? In tech parlance, Facebook and YouTube are “optimized for engagement,” which their defenders will tell you means that they’re just giving us what we want. But there’s nothing natural or inevitable about the specific ways that Facebook and YouTube corral our attention. The patterns, by now, are well known. As Buzzfeed famously reported in November 2016, “top fake election news stories generated more total engagement on Facebook than top election stories from 19 major news outlets combined.”

    For Facebook, YouTube, and Twitter, all speech —whether it’s a breaking news story, a saccharine animal video, an anti-Semitic meme, or a clever advertisement for razors— is but “content,” each post just another slice of pie on the carousel. A personal post looks almost the same as an ad, which looks very similar to a New York Times article, which has much the same visual feel as a fake newspaper created in an afternoon.

    What’s more, all this online speech is no longer public in any traditional sense. Sure, Facebook and Twitter sometimes feel like places where masses of people experience things together simultaneously. But in reality, posts are targeted and delivered privately, screen by screen by screen. Today’s phantom public sphere has been fragmented and submerged into billions of individual capillaries. Yes, mass discourse has become far easier for everyone to participate in—but it has simultaneously become a set of private conversations happening behind your back. Behind everyone’s backs.

    The most effective forms of censorship today involve meddling with trust and attention, not muzzling speech itself. As a result, they don’t look much like the old forms of censorship at all. They look like viral or coordinated harassment campaigns, which harness the dynamics of viral outrage to impose an unbearable and disproportionate cost on the act of speaking out. They look like epidemics of disinformation, meant to undercut the credibility of valid information sources. They look like bot-fueled campaigns of trolling and distraction, or piecemeal leaks of hacked materials, meant to swamp the attention of traditional media.

    This idea that more speech—more participation, more connection—constitutes the highest, most unalloyed good is a common refrain in the tech industry. But a historian would recognize this belief as a fallacy on its face. Connectivity is not a pony. Facebook doesn’t just connect democracy-­loving Egyptian dissidents and fans of the videogame Civilization; it brings together white supremacists, who can now assemble far more effectively. It helps connect the efforts of radical Buddhist monks in Myanmar, who now have much more potent tools for spreading incitement to ethnic cleansing—fueling the fastest- growing refugee crisis in the world.

    The freedom of speech is an important democratic value, but it’s not the only one. In the liberal tradition, free speech is usually understood as a vehicle—a necessary condition for achieving certain other societal ideals: for creating a knowledgeable public; for engendering healthy, rational, and informed debate; for holding powerful people and institutions accountable; for keeping communities lively and vibrant. What we are seeing now is that when free speech is treated as an end and not a means, it is all too possible to thwart and distort everything it is supposed to deliver.

    By this point, we’ve already seen enough to recognize that the core business model underlying the Big Tech platforms—harvesting attention with a massive surveillance infrastructure to allow for targeted, mostly automated advertising at very large scale—is far too compatible with authoritarianism, propaganda, misinformation, and polarization.

    #Zeynep_Tufekci #Médias_sociaux #Liberté_expression #Espace_public #Désinformation #Attention

  • How making politicians unblock trolls could hurt speech online - The Verge
    https://www.theverge.com/2019/9/6/20847366/politicians-twitter-trolls-blocking-legal-ruling-trump-ocasio-cortez-free-

    Last week, the Knight First Amendment Institute urged Rep. Alexandria Ocasio-Cortez (D-NY) to unblock critics on Twitter. The Knight Institute has led a push to treat politicians’ social media accounts as public forums, filing a successful lawsuit against President Donald Trump for his Twitter-blocking habits. Ocasio-Cortez argued that the issue was more nuanced, though: she said she was blocking “less than 20 accounts” and that it was for harassment, not political viewpoints.

    Social media poses some unique problems that physical spaces don’t, however. It can operate at a scale that wouldn’t be possible offline, and it’s easy to hijack a conversation or amplify a point of view with automated posts or a handful of dedicated people acting in bad faith. Trolls can attack anyone who participates in a conversation, not just politicians, and they can do it across all of social media, not just in a single thread or post. This can turn supposedly open spaces into deeply hostile or unnavigable ones — not just for public figures like Trump or Ocasio-Cortez, but for anybody who wants to engage with them.

    As writer and law professor Tim Wu, journalist Zeynep Tufekci, and many others have pointed out, new tactics like troll armies and spammed responses have made traditional First Amendment protections less effective at promoting free speech online. “It is no longer speech or information that is scarce, but the attention of listeners,” explained Wu in a 2017 Knight Institute blog post. “No one quite anticipated that speech itself might become a censorial weapon, or that scarcity of attention would become such a target of flooding and similar tactics.”

    #Politique #Twitter #Liberté_expression #Trolls

  • Facebook Is Censoring Harm Reduction Posts That Could Save Opioid Users’ Lives
    https://www.vice.com/en_us/article/qv75ap/facebook-is-censoring-harm-reduction-posts-that-could-save-opioid-users-lives

    As Facebook rolls out its campaign with the Partnership for Drug-Free Kids to “Stop Opioid Silence” and other initiatives to fight the overdose crisis, some stalwart advocates in the field are seeing unwelcome changes. In the past few months, accounts have been disabled, groups have disappeared, posts containing certain content—particularly related to fentanyl—have been removed, and one social media manager reports being banned for life from advertising on Facebook.

    In its efforts to stop opioid sales on the site, Facebook appears to be blocking people who warn users about poisonous batches of drugs or who supply materials used to test for fentanyls and other contaminants. Just as 1990s web security filters mistook breast cancer research centers for porn sites, today’s internet still seems to have trouble distinguishing between drug dealers and groups trying to reduce the death toll from the overdose crisis. VICE reviewed screenshots and emails to corroborate the claims made in this story.

    Facebook seems to be especially focused on fentanyl. Claire Zagorski, a wound care paramedic at the Austin Harm Reduction Coalition in Texas, said she informally surveyed other harm reduction groups about their experiences. About half a dozen reported problems with reduced distribution of posts or outright rejection—especially if they were trying to report a specific, local instance of fentanyl-tainted drugs. Two of the organizations affected were a harm reduction group called Shot in the Dark in Phoenix, Arizona, and Southside Harm Reduction Services in Minneapolis, Minnesota.

    “I think it’s important to remember that they’re not being like, ‘Hooray drugs!’" Zagorski said. "They’re saying, ‘Be warned that this contaminated supply could be lethal.’”

    Devin Reaves, executive director and co-founder of the Pennsylvania Harm Reduction Coalition, who hasn’t personally had posts blocked, said: “Facebook wants to address the opioid crisis, but when harm reductionists try to inform their communities about what’s dangerous, their posts are being blocked.”

    Why then is Facebook cracking down?

    When reached for comment, a Facebook spokesperson said the company is investigating these incidents. After VICE contacted Facebook, the company restored posts from Southside Harm Reduction and Shot in the Dark, as well as Louise Vincent’s ability to post her email address, which apparently triggered a spam filter unrelated to opioids.

    Facebook also told VICE that Marcom was blocked from posting ads due not to fentanyl test strips, but due to posts related to kratom, an herb used by some as a substitute for opioids. Facebook has decided that kratom is a “non-medical drug” and is removing posts and groups related to it—even though its use is considered to be a form of harm reduction.

    Marcom said he hadn’t posted any kratom-related ads since 2018 and added, “It’s extremely frustrating that they have chosen to ban a proven safe plant medicine, as Facebook used to be a space where tens of thousands went daily for help getting off of opiates and other pharmaceuticals.”

    #Facebook #Opioides #Liberté_expression #Régulation

  • Créer un cadre français
    de responsabilisation des réseaux sociaux :
    agir en France avec une ambition européenne

    Remise du rapport de la mission de régulation des réseaux sociaux | numerique.gouv.fr
    https://www.numerique.gouv.fr/actualites/remise-du-rapport-de-la-mission-de-regulation-des-reseaux-sociaux
    https://www.numerique.gouv.fr/uploads/Haine+en%20ligne.jpg

    La problématique de la haine en ligne est devenue insupportable pour nos citoyens. Cette situation pose une triple responsabilité : celle des auteurs des contenus qui doivent assumer leurs propos, celle des réseaux sociaux qui, en toute transparence, doivent proposer une organisation susceptible de bannir la haine en ligne et celle des États qui doivent fixer des règles pour les auteurs, pour les réseaux sociaux et assurer qu’elles soient respectées.

    C’est dans cet esprit de vigilance constructive et de dialogue qu’Emmanuel Macron, président de la République, et Mark Zuckerberg, PDG de Facebook, ont acté le lancement d’une mission de régulation des réseaux sociaux en mai 2018.

    Le rapport rendu public aujourd’hui et remis à Cédric O, secrétaire d’État chargé du Numérique, propose des pistes de réflexions et d’actions qui viendront nourrir les travaux parlementaires des prochains mois.

    Lancée en mai 2018, la mission a mobilisé trois rapporteurs et sept experts de haut niveau issus de ministères et d’autorités administratives indépendantes.

    –-----------

    Synthèse
    Les réseaux sociaux permettent à tout citoyen de publier les contenus de son choix et de les partager avec d’autres utilisateurs du réseau. Ils ont ainsi révolutionné l’industrie des médias et les modes de communication en offrant aux citoyens et à la société civile un support d’expression directe. Le recours aux médias classiques n’est plus obligatoire pour communiquer publiquement. La possibilité pour les citoyens d’exercer leurs libertés d’expression, de communication, et de s’informer sont donc considérablement accrues par ces services.
    Néanmoins, les capacités offertes par les réseaux sociaux suscitent des abus inacceptables de ces libertés. Ces abus sont le fait d’individus isolés ou de groupes organisés auxquels les grands réseaux sociaux, Facebook, YouTube, Twitter ou Snap, pour ne citer qu’eux, n’apportent pas de réponse pleinement satisfaisante à ce jour. Or, par l’ordonnancement qu’ils réalisent des contenus publiés et par leur politique de modération, les réseaux sociaux sont en mesure d’agir directement sur ces abus les plus manifestes pour les prévenir ou y répondre et limiter ainsi les dommages en termes de cohésion sociale.
    Une intervention publique pour que les plus grands acteurs adoptent une attitude plus responsable et plus protectrice de la cohésion de nos sociétés apparaît donc légitime. Compte tenu des enjeux de libertés publiques, cette intervention doit faire l’objet de précautions particulières. Elle doit (i) respecter la diversité des modèles de réseaux sociaux, qui forment un ensemble particulièrement hétéroclite, (ii) faire preuve de transparence, notamment en y associant la société civile, (iii) viser un objectif d’intervention minimum conformément aux principes de nécessité et de proportionnalité et (iv) s’en remettre aux juridictions pour la qualification de la licéité des contenus pris individuellement.
    La démarche actuelle d’autorégulation des réseaux sociaux est intéressante en ce qu’elle démontre que les plateformes peuvent faire partie de la solution aux problèmes constatés. Elles ont inventé des réponses variées et agiles : retrait, moindre exposition, rappel à la règle commune, pédagogie, accompagnement des victimes. Toutefois, l’autorégulation est toujours en développement. Elle se contente trop souvent de proposer une réponse ex-post (après l’apparition du dommage). Elle manque de crédibilité, du fait de l’asymétrie extrême d’information, provoquant un sentiment de « story telling » qui suscite une suspicion sur la réalité de l’action de la plateforme.
    L’intervention publique doit reposer sur un équilibre entre une politique répressive, indispensable pour lutter efficacement contre les auteurs des abus, et une logique de responsabilisation accrue des réseaux sociaux fondée sur une régulation ex ante, pour capitaliser sur la logique de prévention et la capacité d’autorégulation des plateformes.
    Compte tenu de l’unicité et de l’ubiquité des réseaux sociaux, qui dépassent les frontières des États membres – un service unique accessible sur plusieurs géographies – cette régulation ex ante doit s’inscrire dans une dynamique et un cadre européens. Néanmoins, la règle actuelle dite du pays d’installation, selon laquelle seul le pays qui accueille le siège du réseau social peut intervenir pour réguler ce réseau, s’avère inefficace. Par les excès qu’ils permettent, les réseaux sociaux créent des dommages dans d’autres États membres, et difficilement observables par l’Etat membre d’installation.
    Toute initiative française devra donc avoir pour ambition d’inverser la logique européenne actuelle au profit d’une logique du pays de destination, selon laquelle la plateforme est responsable devant l’État membre où le dommage se produit, pour renforcer la capacité de chacun des États membres à maîtriser les conséquences de la globalisation. Cet objectif doit être pris en compte dès la conception d’une fonction de régulation des réseaux sociaux pour que le dispositif apparaisse pertinent aux yeux de nos partenaires européens, alors même que la politique en matière de régulation des industries de médias diffère sensiblement d’un pays à l’autre.
    p. 2
    La mise en place d’une régulation ex ante devrait respecter trois conditions : (i) suivre une logique de conformité selon laquelle le régulateur supervise la bonne mise en œuvre de mesures préventives ou correctrices, sans se focaliser sur la matérialisation des risques ni chercher à réglementer lui-même le service fourni, (ii) se concentrer sur les acteurs systémiques capables de créer des dommages conséquents dans nos sociétés sans créer de barrière à l’entrée pour de nouveaux acteurs européens, (iii) rester agile pour affronter les enjeux futurs dans un environnement numérique particulièrement évolutif. Le dispositif législatif devra donc viser à créer une capacité institutionnelle à réguler et non une régulation figée sur les problèmes actuels.
    Cette régulation pourrait reposer sur les cinq piliers suivants :
    Premier pilier : Deuxième pilier :
    Troisième pilier : Quatrième pilier : Cinquième pilier :
    Une politique publique de régulation garante des libertés individuelles et de la liberté d’entreprendre des plateformes.
    Une régulation prescriptive et ciblée sur la responsabilisation des réseaux sociaux mise en œuvre par une autorité administrative indépendante, reposant sur trois obligations incombant aux plateformes :
    • transparence de la fonction d’ordonnancement des contenus ;
    • transparence de la fonction de mise en œuvre des CGU et de modération
    des contenus ;
    • un devoir de diligence vis-à-vis de ses utilisateurs.
    Un dialogue politique informé entre les acteurs, le gouvernement, le législateur, le régulateur et la société civile.
    Une autorité administrative indépendante partenaire des autres branches de l’État et ouverte sur la société civile.
    Une ambition européenne pour renforcer la capacité des Etats membres à agir face à des plateformes globales, et réduire le risque politique lié à la mise en œuvre dans chaque Etat membre.

    #Médias_sociaux #Régulation #Concurrence #Liberté_expression #Transparence

  • Lettre ouverte collective sur la PPL Cyberhaine
    http://g5nx.mjt.lu/nl2/g5nx/mvq98.html?m=AMMAAEGMoicAAcgEAqQAAGbveFMAARpaD8cAGpz2AAct2wBdG5WB8ryKbPNRSw

    La propagation des contenus haineux a des conséquences particulièrement nocives pour notre démocratie et pour les citoyens. Il est plus que jamais nécessaire de lutter contre ce phénomène. La proposition de loi visant à lutter contre la haine sur Internet actuellement en examen à l’Assemblée nationale entend ainsi traiter un pan de la problématique en renforçant la responsabilité des opérateurs de plateformes dans la modération des contenus en ligne. Cette exigence est légitime et nécessaire. Toutefois, ce texte soulève des inquiétudes quant à ses conséquences sur nos droits et libertés, et notamment les libertés d’expression et d’information ou d’accès à la justice.

    Nous devons impérativement penser la cohérence de ces textes afin d’assurer une régulation efficace des plateformes. Celle-ci ne peut reposer que sur une approche systémique, c’est-à-dire veiller aux systèmes eux-mêmes, plutôt qu’aux contenus. Comme le recommande la mission « Régulation des réseaux sociaux » dans son rapport paru en mai dernier, il convient de mettre en œuvre une régulation visant à renforcer les obligations de transparence et de diligence de ces acteurs. À ce jour, deux points figurant dans la version actuelle de la loi bousculent l’équilibre fragile entre la dignité humaine et la liberté d’expression, au détriment de cette dernière.

    1. Le manque de définition des contenus visés par la loi

    La définition des contenus de haine en ligne est complexe, elle fait encore l’objet de discussions juridiques et académiques. Eu égard au périmètre et à la nature de l’intervention qu’il induit, l’objet de ce texte doit être précisé et doit reposer sur des définitions claires, en particulier en ce qui concerne le caractère « manifestement » illicite d’une « incitation à la haine » ou d’une « injure discriminatoire » à raison de « la race, de la religion, du sexe, de l’orientation sexuelle ou du handicap ». Lors du dernier examen de la commission des lois au sein de l’Assemblée nationale, ce périmètre a été étendu au-delà des seules infractions de haine manifeste qui étaient auparavant visées par le texte.

    2. La préservation de nos libertés fondamentales par le renforcement de la place du juge judiciaire

    Si la position et le comportement des grands acteurs du numérique posent la question de la préservation de notre souveraineté, il est contradictoire de fragiliser cette dernière en donnant aux plateformes des prérogatives propres au domaine du droit et de la justice. Seule la décision de justice, issue du pouvoir de l’État institué démocratiquement, est acceptable quand il s’agit de censurer un propos, acte « particulièrement radical » comme le qualifie le Conseil d’État dans son avis. La protection de nos droits fondamentaux repose sur l’équilibre des pouvoirs démocratiques.

    Nicolas Chagny, Président de l’Internet Society France ; Christiane Féral-Schuhl, Présidente du Conseil national des barreaux ; Henri Isaac, Président de Renaissance Numérique ; Jacques-François Marchandise, Délégué général de la Fing ; Julie Owono, Directrice exécutive de l’Internet Sans Frontières ; Malik Salemkour, Président de la Ligue des droits de l’homme ; Salwa Toko, Présidente du Conseil national du numérique

    #Loi_Avia #Liberté_expression #Internet

  • Opinion | I Shouldn’t Have to Publish This in The New York Times - The New York Times
    https://www.nytimes.com/2019/06/24/opinion/future-free-speech-social-media-platforms.html

    Une nouvelle de Cory Doctorow sur la régulation des plateformes : briser les monopoles, ou leur laisser le choix d’être eux-mêmes les régulateurs algorithmiques de l’expression de chacun.

    Editors’ note: This is part of a series, “Op-Eds From the Future,” in which science fiction authors, futurists, philosophers and scientists write Op-Eds that they imagine we might read 10, 20 or even 100 years from now. The challenges they predict are imaginary — for now — but their arguments illuminate the urgent questions of today and prepare us for tomorrow. The opinion piece below is a work of fiction.

    I shouldn’t have to publish this in The New York Times.

    Ten years ago, I could have published this on my personal website, or shared it on one of the big social media platforms. But that was before the United States government decided to regulate both the social media platforms and blogging sites as if they were newspapers, making them legally responsible for the content they published.

    The move was spurred on by an unholy and unlikely coalition of media companies crying copyright; national security experts wringing their hands about terrorism; and people who were dismayed that our digital public squares had become infested by fascists, harassers and cybercriminals. Bit by bit, the legal immunity of the platforms was eroded — from the judges who put Facebook on the line for the platform’s inaction during the Provo Uprising to the lawmakers who amended section 230 of the Communications Decency Act in a bid to get Twitter to clean up its Nazi problem.

    While the media in the United States remained protected by the First Amendment, members of the press in other countries were not so lucky. The rest of the world responded to the crisis by tightening rules on acceptable speech. But even the most prolific news service — a giant wire service like AP-AFP or Thomson-Reuters-TransCanada-Huawei — only publishes several thousand articles per day. And thanks to their armies of lawyers, editors and insurance underwriters, they are able to make the news available without falling afoul of new rules prohibiting certain kinds of speech — including everything from Saudi blasphemy rules to Austria’s ban on calling politicians “fascists” to Thailand’s stringent lese majeste rules. They can ensure that news in Singapore is not “out of bounds” and that op-eds in Britain don’t call for the abolition of the monarchy.

    But not the platforms — they couldn’t hope to make a dent in their users’ personal expressions. From YouTube’s 2,000 hours of video uploaded every minute to Facebook-Weibo’s three billion daily updates, there was no scalable way to carefully examine the contributions of every user and assess whether they violated any of these new laws. So the platforms fixed this the Silicon Valley way: They automated it. Badly.

    Which is why I have to publish this in The New York Times.

    The platforms and personal websites are fine if you want to talk about sports, relate your kids’ latest escapades or shop. But if you want to write something about how the platforms and government legislation can’t tell the difference between sex trafficking and sex, nudity and pornography, terrorism investigations and terrorism itself or copyright infringement and parody, you’re out of luck. Any one of those keywords will give the filters an incurable case of machine anxiety — but all of them together? Forget it.

    If you’re thinking, “Well, all that stuff belongs in the newspaper,” then you’ve fallen into a trap: Democracies aren’t strengthened when a professional class gets to tell us what our opinions are allowed to be.

    And the worst part is, the new regulations haven’t ended harassment, extremism or disinformation. Hardly a day goes by without some post full of outright Naziism, flat-eartherism and climate trutherism going viral. There are whole armies of Nazis and conspiracy theorists who do nothing but test the filters, day and night, using custom software to find the adversarial examples that slip past the filters’ machine-learning classifiers.

    It didn’t have to be this way. Once upon a time, the internet teemed with experimental, personal publications. The mergers and acquisitions and anticompetitive bullying that gave rise to the platforms and killed personal publishing made Big Tech both reviled and powerful, and they were targeted for breakups by ambitious lawmakers. Had we gone that route, we might have an internet that was robust, resilient, variegated and dynamic.

    Think back to the days when companies like Apple and Google — back when they were stand-alone companies — bought hundreds of start-ups every year. What if we’d put a halt to the practice, re-establishing the traditional antitrust rules against “mergers to monopoly” and acquiring your nascent competitors? What if we’d established an absolute legal defense for new market entrants seeking to compete with established monopolists?

    Most of these new companies would have failed — if only because most new ventures fail — but the survivors would have challenged the Big Tech giants, eroding their profits and giving them less lobbying capital. They would have competed to give the best possible deals to the industries that tech was devouring, like entertainment and news. And they would have competed with the news and entertainment monopolies to offer better deals to the pixel-stained wretches who produced the “content” that was the source of all their profits.

    But instead, we decided to vest the platforms with statelike duties to punish them for their domination. In doing so, we cemented that domination. Only the largest companies can afford the kinds of filters we’ve demanded of them, and that means that any would-be trustbuster who wants to break up the companies and bring them to heel first must unwind the mesh of obligations we’ve ensnared the platforms in and build new, state-based mechanisms to perform those duties.

    Our first mistake was giving the platforms the right to decide who could speak and what they could say. Our second mistake was giving them the duty to make that call, a billion times a day.

    Still, I am hopeful, if not optimistic. Google did not exist 30 years ago; perhaps in 30 years’ time, it will be a distant memory. It seems unlikely, but then again, so did the plan to rescue Miami and the possibility of an independent Tibet — two subjects that are effectively impossible to discuss on the platforms. In a world where so much else is up for grabs, finally, perhaps, we can once again reach for a wild, woolly, independent and free internet.

    It’s still within our reach: an internet that doesn’t force us to choose between following the algorithmically enforced rules or disappearing from the public discourse; an internet where we can host our own discussions and debate the issues of the day without worrying that our words will disappear. In the meantime, here I am, forced to publish in The New York Times. If only that were a “scalable solution,” you could do so as well.

    Cory Doctorow (@doctorow) is a science fiction writer whose latest book is “Radicalized,” a special consultant to the Electronic Frontier Foundation and an M.I.T. Media Lab research affiliate.

    #Cory_Doctorow #Régulation_internet #Plateformes #Liberté_expression #Monopoles

    • Cauchemar total : la censure politique des contenus obligatoire, automatisée et déléguée aux GAFAM...
      Ou, comme d’habitude, sous couvert de lutte contre le terrorisme on rogne en toute impunité la liberté d’expression

      Dans sa version initiale, ce projet de règlement antiterroriste tient en quelques articles :
      L’article 4 prévoit une obligation pour tout fournisseur de service Internet (hébergeurs web, fournisseurs de messagerie, etc.), quelle que soit sa taille ou son fonctionnement (il ne s’agit pas seulement des grosses plateformes), de retirer dans un délai d’une heure les contenus signalés par les autorités, sous peine d’importantes sanctions financières.
      L’article 5 permet également à ces mêmes autorités d’imposer une telle censure non sur la base du droit national applicable (par exemple, en France, le décret Cazeneuve de février 2015 sur la censure administrative d’Internet), mais sur la base des conditions d’utilisation des plateformes. Les polices européennes pourront donc, comme le fait déjà le ministère de l’intérieur français ou Europol, signaler des contenus haineux ou terroristes pour exiger leur censure, sur la base du droit privé.
      L’article 6 impose enfin aux hébergeurs d’adopter des mesures « proactives » pour lutter contre la propagande terroriste (article 6). Comme dans la directive copyright, il s’agit en réalité de déployer des filtres informatiques scannant l’ensemble des contenus mis en ligne par les utilisateurs d’un service pour bloquer ceux correspondants à certains critères arrêtés par ces firmes. Une forme de censure préalable, mise en œuvre par des acteurs privés via des outils automatiques qui pourront être paramétrés en partenariat avec les États.

      Le texte du projet : https://eur-lex.europa.eu/legal-content/FR/TXT/?uri=COM:2018:0640:FIN

      #censure #liberté_expression #machine_learning

  • Pourquoi la levée de l’anonymat sur Internet ne mettra pas fin aux délits en ligne
    https://www.marianne.net/societe/pourquoi-la-levee-de-l-anonymat-sur-internet-ne-mettra-pas-fin-aux-delits-

    Un anonymat déjà très relatif

    Le levée de l’anonymat, une mesure miracle ? Renseignements pris, pas si sûr. Dans les faits, il s’agit déjà d’une notion très relative sur internet. Hormis quelques hackeurs insaisissables, l’immense majorité des internautes, qui sèment des petits cailloux à longueur de navigation, sont déjà traçables sur internet et peuvent être retrouvés, à condition de s’en donner les moyens. « Les gens qui le veulent peuvent se rendre plus difficilement traçable sur internet, mais ce n’est pas pour tout le monde, ce n’est pas à la portée du petit apprenti djihadiste », nous confirme Stéphane Bortzmeyer, ingénieur en réseaux informatiques. Ne laisser aucune emprunte en ligne relève, selon ce militant des libertés sur internet, de la gageure. « L’anonymat sur internet, ça revient au mode de pensée d’un espion en territoire ennemi, à la moindre erreur, vous êtes démasqué. Ça demande une mentalité paranoïaque. »

    Anonymat = violence ? Une idée reçue

    Hélas, allouer des moyens supplémentaires pour permettre à la police de retrouver les délinquants du web, et aux tribunaux de les condamner, n’aurait rien d’une solution miracle mettant fin à la haine sur la toile. En effet, le secret de l’identité civile sur internet ne semble pas corrélé avec le fait d’être plus ou moins violent en ligne. « Ce n’est pas le pseudo qui va faire le comportement déviant », insiste Lucile Merra. « Ces comportements violents préexistent à Internet. (…) Cela relève d’un comportement malsain de certains individus au sein de leur environnement social. »

    Une étude de juin 2016, publiée par équipe de chercheurs de l’Université de Zurich, tend à montrer que dans le contexte d’une polémique en ligne, l’anonymat ne démultiplie pas systématiquement l’agressivité des internautes. Au contraire, sur les 532197 commentaires analysés, tous postés sur une plateforme de pétitions en ligne allemande entre 2010 et 2013, les internautes écrivant sous leurs véritables identités étaient plus agressifs que ceux recourant à l’anonymat. La même année, une étude de l’université d’Etat du Michigan a également montré que, selon les données compilées dans 16 études scientifiques sur la question, les individus « sont en fait plus sensibles aux normes collectives d’un groupe lorsqu’ils sont moins identifiables par les autres membres de ce groupe ».

    L’idée selon laquelle le fait de se cacher derrière un avatar confèrerait aux internautes un sentiment d’impunité, qu’ils se penseraient alors invulnérables et profiteraient de la situation pour se livrer à un certain nombre de dérives, tiendrait ainsi de l’idée reçue. « Le sentiment d’impunité tient plus à qui vous êtes et d’où vous parlez qu’au fait que vous le fassiez sous pseudonyme. Un homme blanc éduqué pourra par exemple se sentir davantage autorisé à tenir certains propos », avance Stéphanie Wojcik, maître de conférences en sciences de l’information et de la communication à l’université Paris-Est Créteil. Tristan Nitot, auteur du livre Surveillance, les libertés au défi du numérique, abonde en ce sens : « Le discours de haine ou le harcèlement surviennent quand ils sont considérés comme socialement acceptables, voire fédérateurs, au sein d’un groupe qui partage les mêmes opinions. » Le vice-président du moteur de recherche français Qwant pointe en outre une « inconscience » des internautes. "Je pense que le premier facteur du sentiment d’impunité, c’est le rapport au numérique, perçu à tort comme un domaine « virtuel », plutôt que le fait de porter un pseudonyme", explique-t-il. « Dans un café, je suis inconnu, anonyme, et pourtant je ne tiens pas de discours haineux. A l’inverse, les membres de la Ligue du LOL ne portaient pas de pseudonyme pour la plupart. »

    Une voie royale pour les Gafam

    Cependant, donner voix au chapitre aux géants du web sur ces questions, notamment en leur fournissant davantage d’éléments concernant l’identité de leurs utilisateurs, ne va pas sans de vives inquiétudes. Stéphane Bortzmeyer s’alarme du pouvoir exorbitant qui serait entre les mains de ces structures : « Les Gafam (Google, Amazon, Facebook, Apple, Microsoft) ont déjà trop d’informations, et on veut en faire les auxiliaires privés de l’Etat dans le contrôle des identités en ligne ! L’obsession du contrôle de l’internet mène à oublier à quel genre de sociétés on veut confier notre surveillance. On ne peut pas reprocher à Facebook de collaborer avec le gouvernement chinois pour contrôler qui fait quoi, si on fait la même chose chez nous. »

    Pour ces raisons, la « levée progressive de toute forme d’anonymat », tel qu’Emmanuel Macron l’avait initialement envisagé, a de quoi faire frémir quant aux rôles de ces entreprises privées, expose Tristan Nitot. « Aujourd’hui, sur Facebook, de nombreuses personnes se sont exprimées sur les gilets jaunes. Chacune a été identifiée, ça se fait automatiquement, par des robots qui analysent les données et des algorithmes de deep learning. Le métier de Google, c’est de tout savoir sur vous. Facebook ou Google sont conçus, structurellement, pour offrir un ciblage très fin à des annonceurs, c’est leur modèle commercial. Que vous ayez un pseudonyme ou non, on pourra vous cibler sur internet. Or, la question des identités appartient à l’Etat, pas aux entreprises. »

    Si le projet de loi qui sera présenté en mai prochain n’est que la première étape de cette « levée progressive » de l’anonymat, le poids des Gafam ne sera que l’un des problèmes qui se posera aux citoyens. Ne plus pouvoir se cacher sous un pseudonyme est loin d’aller soi en matière de liberté d’expression. « Si on va vers l’interdiction de l’anonymat, on va vers beaucoup plus de discrimination, avec des gens au statut social particulier - policiers, professeurs, hauts fonctionnaires ou anciens détenus - médiatisés ou non, qui pourraient devenir victimes de harcèlement, voire mis au ban de groupes sociaux », nous détaille Maryline Laurent, professeur à Telecom sup Paris et auteur du livre La gestion des identités numériques.

    #Anonymat #Identité_numérique #Liberté_expression #Stéphane_Bortzmeyer #Tristan_Nitot

  • La démission française sur la liberté d’expression numérique | Signal
    https://signal.eu.org/blog/2019/02/05/la-demission-francaise-sur-la-liberte-dexpression-numerique

    Et maintenant ?

    La première chose à faire, urgente et essentielle, serait de sortir du raisonnement mortifère (et réactif) « ce qui est mauvais pour les GAFAM est bon pour l’intérêt général » qui actuellement motive et oriente l’essentiel de l’action législative française en matière numérique.

    D’une part, parce que ce qui semble mauvais pour les GAFAM ne l’est pas forcément réellement pour eux. Ainsi, Google/Youtube dispose déjà de la technologie nécessaire pour appliquer l’article 13, ce qui lui donne une avance considérable sur le reste de l’industrie. Ensuite, on a appris récemment que Facebook, derrière une opposition de façade à l’article 13, poussait discrètement le législateur à l’adopter, parce que Facebook possède également une avance technologique en la matière.

    D’autre part, ce qui semble mauvais pour les GAFAM, a, a priori, des chances de l’être également pour des acteurs similaires, les hébergeurs et autres intermédiaires techniques, qu’ils soient à but lucratif ou non, et Wikimédia l’a bien compris. Difficile de se plaindre de la prééminence persistante des GAFAM lorsqu’on a savonné également la planche des services concurrents, à moins que le plan soit de renforcer cette prééminence pour avoir un lieu de contrôle, surveillance et taxation centralisé plus simple à gérer par les états.

    Dans un autre registre, on voit déjà dans les tentatives de taxation de Google et Facebook par l’état français que le crayon du législateur peut déborder : il suffit qu’un article de loi soit mal rédigé pour qu’il ait un impact bien au delà de Google ; la loi étant supposée ne pas viser un acteur particulier, ce qui serait discriminatoire, elle doit établir des principes, mais les acteurs similaires (dans le monde publicitaire en particulier) existent et, s’ils sont probablement ravis qu’on taxe Google, ils souhaiteraient éviter qu’on les taxe pour la même activité.

    Il suffit de transposer la situation fiscale à celle des articles 11 et 13 pour imaginer les dangers vis-à-vis de la liberté d’expression.

    Ensuite, parce que se focaliser sur la lutte contre les GAFAM revient à négliger les citoyens. Ceux-ci auraient du mal à migrer en masse vers d’autres services, même si cela pourrait être souhaitable, à supposer que de tels services existent. Notamment, restreindre par la loi la liberté d’expression sur les GAFAM, même si elle n’y est pas parfaite, revient à restreindre la liberté d’expression tout court.

    Enfin, la loi doit poser des principes généraux et fonctionner le moins possible par exceptions. Ainsi, l’article 13 prévoit une liste limitative d’exceptions, qui correspondent à des services déjà existants. Mais l’imagination des développeurs de sites et d’applications est plus fertile que celle du législateur et des lobbies du moment, et les possibilités d’Internet plus larges. Ainsi, si les forges de logiciel ou les encyclopédies en ligne n’existaient pas déjà, avec des acteurs de taille notable pour les défendre, les exceptions correspondantes auraient été tout simplement oubliées.

    À côté de quels autres services et usages encore inconnus sommes-nous en train de passer en écrivant la loi contre les acteurs hégémoniques du moment et pour soutenir tel ou tel groupe d’intérêt sur des modèles d’un autre temps qui, tôt ou tard, devront être repensés en fonction des possibilités de la technologie, et non contre celle-ci ?

    Et pour revenir à la liberté d’expression : elle est — en partie — incluse dans le paragraphe qui précède, dans ces futurs services, même si elle mériterait un développement. Rappelez-vous du Minitel, un modèle qui a eu son heure de gloire, mais très encadré à tous points de vue, et en particulier pour préserver le modèle de la presse papier. Pensez-vous vraiment que la liberté d’expression y était aussi étendue que sur Internet aujourd’hui ?

    Et plus largement, les attaques récentes contre l’anonymat en ligne par le gouvernement, beaucoup de politiques même dans l’opposition, et certains syndicalistes et éditorialistes montrent que la position de la France sur les articles 11 et 13 est loin d’être un accident de parcours.

    #Droits_auteur #GAFAM #Article_13 #Liberté_expression

  • Federal Employees Are Warned Not to Discuss Trump ‘Resistance’ at Work - The New York Times
    https://www.nytimes.com/2018/11/29/us/politics/federal-employees-hatch-act-trump-impeachment.html

    Generally, federal employees have been free to express opinions about policies and legislative activity at work as long as they do not advocate voting for or against particular candidates in partisan elections. But in a guidance document distributed on Wednesday, the independent agency that enforces the Hatch Act, a law that bars federal employees from taking part in partisan political campaigns at work or in an official capacity, warned that making or displaying statements at work about impeaching or resisting Mr. Trump is likely to amount to illegal political activity.

    The reasoning behind the guidance centers on the fact that Mr. Trump is already running for re-election in 2020. It contends that arguments about his policies or impeachment prospects are effectively statements in support or opposition to his campaign.

    “We understand that the ‘resistance’ and ‘#resist’ originally gained prominence shortly after President Trump’s election in 2016 and generally related to efforts to oppose administration policies,” the guidance said. “However, ‘resistance,’ ‘#resist’ and similar terms have become inextricably linked with the electoral success (or failure) of the president.”

    The reasoning behind the guidance centers on the fact that Mr. Trump is already running for re-election in 2020. It contends that arguments about his policies or impeachment prospects are effectively statements in support or opposition to his campaign.

    “We understand that the ‘resistance’ and ‘#resist’ originally gained prominence shortly after President Trump’s election in 2016 and generally related to efforts to oppose administration policies,” the guidance said. “However, ‘resistance,’ ‘#resist’ and similar terms have become inextricably linked with the electoral success (or failure) of the president.”

    #Liberté_expression #Fonctionnaires #Trump #Etats_Unis

  • Activist Arrests in India Are Part of a Dangerous Global Trend to Stifle Dissent | Alternet
    https://www.alternet.org/news-amp-politics/activist-arrests-india-are-part-dangerous-global-trend-stifle-dissent

    On Tuesday morning, the police from the Indian city of Pune (in the state of Maharashtra) raided the homes of lawyers and social activists across India and arrested five of them. Many of them are not household names around the world, since they are people who work silently on behalf of the poor and oppressed in a country where half the population does not eat sufficiently. Their names are Gautam Navlakha, Sudha Bharadwaj, Vernon Gonsalves, Arun Ferreira and Varavara Rao. What unites these people is their commitment to the working class and peasantry, to those who are treated as marginal to India’s state. They are also united by their opposition, which they share with millions of Indians, to the government of Prime Minister Narendra Modi.

    The “raw numbers of this terror” are best counted from Turkey. Since the failed coup of July 15, 2016, the government has arrested, detained or dismissed about 160,000 government officials, dismissing 12,000 Kurdish teachers, destroying the livelihood of thousands of people. The editor of Cumhuriyet, Can Dündar, called this the “biggest witch-hunt in Turkey’s history.” In the name of the war on terror and in the name of sedition, the government has arrested and intimidated its political opponents. The normality of this is astounding—leaders of the opposition HDP party remain in prison on the flimsiest of charges, with little international condemnation. They suffer a fate comparable to Brazil’s Lula, also incarcerated with no evidence.

    Governments do not typically like dissent. In Bangladesh, the photographer Shahidul Alam remains in detention for his views on the massive protests in Dhaka for traffic reform and against government corruption. Condemnation of the arrest has come from all quarters, including a British Member of Parliament—Tulip Siddiq—who is the niece of Bangladesh’s Prime Minister Sheikh Hasina. The avalanche of criticism has not moved the government. Alam is accused of inciting violence, a charge that is equal parts of ridiculous and absurd.

    Incitement to violence is a common charge. It is what has taken the Palestinian poet Dareen Tatour to an Israeli prison. Tatour’s poem, “Resist, my people, resist them” (Qawim ya sha’abi, qawimhum), was the reason given by the Israeli government to lock her up. The Egyptian government has taken in the poet Galal El-Behairy for the lyrics he wrote for the song “Balaha”—the name a reference to a character in a 1980s film who sees the world in a topsy-turvy manner, a name now used colloquially in Egypt for President Sisi. The Ugandan government has arrested the radio show host Samuel Kyambadde, who merely allowed his talk show to become a forum for a conversation that included items labeled by the government as seditious—such as the arrest of journalists and the arrest of the opposition MP Robert Kyagulanyi (also known as Bobi Wine).

    All of them—photographers, poets, radio show hosts—are treated as voices of sedition, dangerous people who can be locked up under regulations that would make any fair-minded person wince. But there is not even any public debate in most of our societies about such measures, no genuine discussion about the slide into the worst kind of authoritarianism, little public outcry.

    #Néo_fascisme #Inde #Turquie #Liberté_expression

  • How to Counter Donald Trump’s War on the Media | The New Yorker
    https://www.newyorker.com/news/news-desk/how-to-counter-donald-trumps-war-on-the-media

    Trump has attempted to delegitimize the entire fact-based press in the eyes of his supporters. “Stick with us,” he said in a speech last week. “Don’t believe the crap you see from these people, the fake news . . . What you’re seeing and what you’re reading is not what’s happening.” George Orwell gets quoted too liberally these days, but, as the national security expert David Priess pointed out, these statements were Orwellian in the extreme. (“The party told you to reject the evidence of your eyes and ears. It was their final, most essential command.”) And, judging by Trump’s steady approval ratings and the large crowds at his rallies, many people are willing to take him at his word.

    What can be done about all this? The first thing is to recognize it for what it is: a reckless descent into the demagoguery, misinformation, and incitement that are normally associated with authoritarian regimes. In a statement on Thursday, two United Nations experts on freedom of expression warned, of Trump’s comments about the media, “These attacks run counter to the country’s obligations to respect press freedom and international human rights law.” They added, “We are especially concerned that these attacks increase the risk of journalists being targeted with violence.”

    #Médias #Liberté_expression

  • RSF alerte sur le cyberharcèlement de journalistes - Page 1 | Mediapart
    https://www.mediapart.fr/journal/international/260718/rsf-alerte-sur-le-cyberharcelement-de-journalistes

    Dans son rapport publié jeudi 26 juillet, « Harcèlement en ligne des journalistes : quand les trolls lancent l’assaut », RSF propose une typologie de ces harceleurs (du « hater » isolé au groupe organisé et rémunéré) ainsi qu’un aperçu de leurs modes d’action, et pointe du doigt les conséquences sur leurs victimes : après avoir été harcelés, « 31 % des journalistes atténuent la couverture des sujets [à cause desquels ils ont été pris pour cible] et 15 % les abandonnent », rappelle RSF.

    Tout en soulignant la difficulté à démontrer les liens entre ces internautes et leurs éventuels employeurs, le rapport consacre plusieurs pages aux armées de trolls progouvernementaux – parfois très officiellement créées par certains États ou partis : les « white trolls » de l’AKP en Turquie, les « 18 000 volontaires » coordonnés par le ministère du renseignement iranien, ou encore les « 10 000 cyber inspecteurs » vietnamiens chargés de « traquer la dissidence en ligne ».

    #Journalisme #Cyberharcèlement #Liberté_expression

  • Loi anti-fake news : les juristes tirent la sonnette d’alarme - Le Point
    http://www.lepoint.fr/chroniqueurs-du-point/laurence-neuer/loi-anti-fake-news-les-juristes-tirent-la-sonnette-d-alarme-02-07-2018-22324

    Plus inquiétant encore, le texte chahute nos principes juridiques. « Fondamentalement, dans notre droit actuel, la question n’est pas de savoir si une information est vraie ou fausse, mais d’abord si elle porte atteinte à la réputation, à l’intimité de la vie privée, à la présomption d’innocence, etc. Ce manichéisme du vrai et du faux paraît évident à première vue, mais en réalité, pour les juristes, il est impraticable », estime Me Le Gunehec. Et cela ne manquera pas, une fois encore, de compliquer la tâche du juge qui ne dispose (que) de 48 heures pour se prononcer sur la véracité ou non de l’information avant de décider de la mesure « proportionnée et nécessaire » à prendre : déréférencement du lien vers l’information, retrait du contenu, fermeture du compte ayant contribué à sa diffusion de ce contenu, blocage d’accès à Internet… « Cette procédure est impraticable ! Elle nécessite un débat sur les imputations litigieuses, difficile à avoir en l’absence de l’auteur des propos, pressent Me Le Gunehec. Le juge ne pourra pas statuer sur la fausseté d’une nouvelle en 48 heures et en l’absence de l’éditeur du contenu (la procédure visera l’hébergeur ou à défaut le fournisseur d’accès), sauf, peut-être, pour des fake absurdes dont la fausseté crève les yeux. Or les fake news telles qu’on les a connues pendant la dernière campagne présidentielle peuvent être assez élaborées. Il faudra que le demandeur apporte d’emblée au juge la preuve que les propos sont faux... et ce n’est pas simple… »

    Plus grave, cette procédure pourrait, encore une fois, museler le travail journalistique. « Comment apprécier la sincérité d’un scrutin qui n’a pas eu lieu ? interroge Roseline Letteron. Si l’article L97 du Code sanctionnant les manœuvres frauduleuses ayant détourné les suffrages intervient après l’élection, c’est parce que c’est à ce moment-là que le juge peut véritablement apprécier si l’altération a altéré la sincérité du scrutin. Il y a un critère essentiel qui est l’écart des voix. S’il est modeste, on peut penser qu’il aurait pu changer le sens du scrutin. Imaginez que François Fillon ait utilisé ce texte lors des révélations sur de possibles détournements de fonds publics. Il aurait pu demander au juge des référés d’enjoindre au Canard enchaîné de cesser ses investigations au prétexte qu’elles sont de nature à altérer la sincérité du scrutin ! En clair, ce texte peut être utilisé par des candidats pour bloquer le travail d’investigation », avance la juriste.

    #Fake_news #Liberté_expression #Censure

  • Les autorités russes demandent à Telegram de livrer des clés de chiffrement
    http://abonnes.lemonde.fr/pixels/article/2018/03/20/les-autorites-russes-demandent-a-telegram-de-livrer-des-cles-de-cryp

    C’est un nouvel épisode dans le bras de fer qui oppose le FSB (services de sécurité russes) à l’application de messagerie Telegram. L’agence fédérale de régulation des télécoms Roskomnadzor a sommé, mardi 20 mars, la messagerie de fournir sous quinze jours au FSB les clés de chiffrement permettant de lire « les messages électroniques reçus, transmis, en cours d’envoi », sous peine de blocage.

    Il n’y a pas que le gouvernement « socialiste » de France sur ce terrain. Etonnant non ?

    #Chiffrement #Telegram #Cybersécurité #Liberté_expression

  • « L’intérêt général et le droit des citoyens à l’information remis en cause »
    http://abonnes.lemonde.fr/idees/article/2018/03/20/l-interet-general-et-le-droit-des-citoyens-a-l-information-remis-en-

    En effet, la définition des « secrets d’affaires » est si vaste que n’importe quelle information interne à une entreprise peut désormais être classée dans cette catégorie. L’infraction au secret des affaires aurait lieu dès lors que ces informations seraient obtenues ou diffusées, et leur divulgation serait passible de sanctions pénales. Les dérogations instituées par le texte sont trop faibles pour garantir l’exercice des libertés fondamentales. Des scandales comme celui du Mediator ou du bisphénol A, ou des affaires comme les « Panama Papers » ou « LuxLeaks » pourraient ne plus être portées à la connaissance des citoyens.
    Procédure judiciaire longue et coûteuse

    Qu’il s’agisse d’informations sur les pratiques fiscales des entreprises, de données d’intérêt général relatives à la santé publique ou liées à la protection de l’environnement et à la santé des consommateurs, les journalistes, les scientifiques, les syndicats, les ONG ou les lanceurs d’alertes qui s’aventureraient à rendre publiques de telles informations s’exposeraient à une procédure judiciaire longue et coûteuse, que la plupart d’entre eux seraient incapables d’assumer face aux moyens dont disposent les multinationales et les banques. C’est là le pouvoir de cette loi : devenir une arme de dissuasion massive.

    Pour les téméraires qui briseront cette loi du silence, on peut toujours espérer que les tribunaux feront primer la liberté d’expression et d’informer. La récente affaire Conforama [le magazine Challenge a dû retirer un de ses articles sur les difficultés financières de l’entreprise] indique plutôt le contraire. Les soi-disant garanties proposées par le gouvernement français ne couvrent pas tous les domaines de la société civile et notamment le travail des associations environnementales.

    Ces dérogations ne sont qu’un piètre hommage aux grands principes de la liberté d’informer. Elles ne vaudront pas grand-chose devant une juridiction armée d’un nouveau droit érigeant le secret des affaires en principe, et la révélation d’informations d’intérêt public en exception.

    #Liberté_expression #Médias #Journalisme #Secret_affaires

  • Les libertés publiques cédées aux algorithmes - Libération
    http://www.liberation.fr/planete/2017/09/29/les-libertes-publiques-cedees-aux-algorithmes_1599911

    par Amaelle Guiton

    Accusés de laisser diffuser des appels à la haine ou, au contraire, d’arbitrairement censurer des contenus, les géants du Web sortent timidement de leur déni. Mais comment répondre à des injonctions contradictoires ?

    Le 6 septembre, le géant du Web a annoncé que plus de 400 faux comptes, qui proviendraient d’une « ferme à trolls » située à Saint-Petersbourg, en Russie (lire page 4), avaient dépensé en deux ans près de 100 000 dollars dans des publicités portant sur des sujets sensibles aux Etats-Unis. Facebook a aussi dû récemment réagir à une enquête du site d’investigation ProPublica, qui révélait qu’il était possible, lors d’un achat de publicité sur la plateforme, de cibler des utilisateurs antisémites - une catégorie créée par un algorithme à partir de leurs données de profil (lire pages 8-9). Voilà que se révèlent les angles morts d’un juteux modèle économique, qui lui a permis d’accumuler en 2016 un bénéfice net de 10,2 milliards de dollars, en augmentation de 177 % par rapport à l’année précédente.

    C’est bien tout le problème : celui d’une tendance de fond qui voit la régulation de la parole en ligne relever de moins en moins de l’autorité judiciaire - et de plus en plus des acteurs privés et de leurs algorithmes. « Il y a une mutation de la manière dont les retraits sont opérés, avec d’une part une externalisation croissante de la modération, vers des pays comme le Maroc ou l’Inde, et d’autre part la montée en puissance de l’intelligence artificielle pour retirer automatiquement des contenus », souligne Félix Tréguer. Le tout dans un contexte de « forte pression des gouvernements ». Pour Olivier Ertzscheid, enseignant-chercheur, blogueur sur Affordance.info et auteur de l’Appétit des géants (C&F éditions), « on passe de modèles de délégation de service public à des modèles de délégation de responsabilité publique. On ne parle plus de sociétés commerciales, mais d’entités qui font à la fois du commerce et de la politique ».

    « Nationaliser Facebook »

    « Même avec la meilleure volonté du monde, on ne peut pas piloter de manière bienveillante un outil, quel qu’il soit, où il y a 2 milliards d’individus en permanence », estime Olivier Ertzscheid. Signe des temps, relève-t-il, on voit apparaître, jusque dans les colonnes du Guardian, des appels à « nationaliser Facebook, Google et Amazon » : « Il est logique qu’un contre-discours émerge face au modèle de pensée d’un libertarianisme à tout crin. » Pour lui, comme pour Félix Tréguer, la solution passe en grande partie par un mouvement de déconcentration. « La seule alternative, c’est de promouvoir d’autres modèles, de revenir à des formes plus décentralisées d’hébergement des communications, juge ce dernier. Une politique numérique vraiment ambitieuse, qui se pose ces questions de la décentralisation et du logiciel libre, permettrait de faire des pas de géant. Or, à la place, on assiste à la légitimation des modèles économiques des "Gafa" [Google, Apple, Facebook, Amazon, ndlr] au cœur des écosystèmes d’innovation. »

    #Facebook #Régulation #Liberté_expression

  • Un long article détaillé sur les questions de filtrage/modération/censure sur #Mastodon, qui ont récemment connu un regain d’intérêt avec l’afflux de nombreux japonais, aux critères différents des nôtres. Je pense que cet article ne plaira pas à beaucoup de monde sur SeenThis, vu les positions de l’auteur (par exemple la façon dont il décrit le GamerGate, où il « oublie » complètement de mentionner l’abominable comportement de ces trolls) mais il soulève des points nouveaux et rarement mentionnés, notamment sur les différences nationales (par exemple, la plupart des Codes of Conduct qu’on trouve pour des conférences internationales sont en fait très étatsuniens, surtout question puritanisme). Ici, son exemple principal est la question de la pédopornographie au Japon, et notamment de la différence entre ロリコン (légale et socialement acceptée au Japon, mais inacceptable et illégale, par exemple en France) et 児童ポルノ (illégale et répugnante au Japon).

    Je pense que le problème sera difficile à résoudre : il y a des différences nationales (c’est plutôt une bonne chose, d’ailleurs) et le réseau qui met tout le monde en contact crée forcément des frictions. Tans que les japonais publiaient leurs dessins uniquement dans des librairies physiques, le problème ne se manifestait pas trop, même si cela choquait les visiteurs de passage. Sur l’Intenet, tout à coup, ça se voit. Soit on suit la méthode étatsunienne (appliquer au monde entier les règles étatsuniennes, ce que font les GAFA), soit on développe des nouveaux mécanismes adaptés à l’Internet (ce qui ne va pas être facile).

    http://ansuz.sooke.bc.ca/entry/335

    #liberté_expression #pornographie #censure

  • Donc La Quadrature considère que des éléments trompeurs, mensongers, de fausses informations, font partie de la liberté d’expression sur le net pour des sujets aussi importants que le droit à l’avortement. No comment

    Délit d’entrave numérique à l’IVG : une proposition dangereuse | La Quadrature du Net
    http://www.laquadrature.net/fr/delit-entrave-numerique

    La création d’un délit pour mise à disposition de contenus, fussent-ils douteux, écoeurants ou opposés à la liberté de choix des personnes, porte indiscutablement atteinte à la liberté d’expression. Or, cette dernière n’est pas faite uniquement pour ceux avec qui nous sommes d’accord.

    #quadrature #avortement #liberté_expression #censure

  • Les Rencontres du dessin de presse à Caen annulées
    https://www.actualitte.com/salons/les-rencontres-du-dessin-de-presse-a-caen-annulees-55483.htm

    Le Mémorial de Caen devait organiser des Rencontres internationales du dessin de presse en avril prochain. Mais la crainte de nouvelles menaces d’attentats a poussé le directeur de cet établissement à jouer la carte de la sécurité en annulant purement et simplement l’événement, rapporte l’agence Reuters.

    #liberté_expression #censure

  • Un journaliste américain condamné à 5 ans de prison - En bref - L’actu Médias / Net - Télérama.fr
    http://www.telerama.fr/medias/un-journaliste-americain-condamne-a-5-ans-de-prison,122017.php

    Le journaliste (qui a déjà fait 30 mois de détention) a salué l’annonce de sa peine par un ironique : « Bonne nouvelle ! Le gouvernement américain a estimé que j’avais si bien enquêté sur la cyber-criminalité qu’il allait m’envoyer enquêter sur le secteur pénitentiaire ».

    #liberté_presse #liberté_expression #démocratie #humour

  • Les trolls pro-intégristes font souvent remarquer que ce pauvre Dieudonné, comme Charlie Hebdo, est victime de la censure et qu’on s’attaque à la liberté d’expression en le condamnant. Donc, un auteur courageux a pris la peine d’expliquer toutes les différences entre Dieudonné et Charlie :

    http://leplus.nouvelobs.com/contribution/1306356-on-ne-peut-pas-comparer-charlie-et-dieudonne-la-liberte-d-

    #liberté_expression #censure

  • A look at the writings of Saudi blogger Raif Badawi – sentenced to 1,000 lashes | The Guardian

    http://www.theguardian.com/world/2015/jan/14/-sp-saudi-blogger-extracts-raif-badawi?CMP=share_btn_tw

    Raif Badawi was sentenced to 10 years in prison and 1,000 lashes for setting up a website that championed free speech in the autocratic kingdom. His blog, the Saudi Free Liberals Forum, was shut down after his arrest in 2012.
    Ian Black analyses extracts from his key published Arabic writings that show a man who risked his freedom to question some of the basic tenets of life in Saudi Arabia - especially the central role of religion

    His final thought quoted Albert Camus: “The only way to deal with an unfree world is to become so absolutely free that your very existence is an act of rebellion.”

    In another piece that month, Badawi invoked the Quran to support the importance of liberalism, the need to separate religion and state and implied that Islam itself has been distorted by the Saudi political establishment to promote illiberal and authoritarian ideals.

    No religion at all has any connection to mankind’s civic progress. This is not a failing on the part of religion but rather that all religions represent a particular, precise spiritual relationship between the individual and the Creator. ..However, positive law is an unavoidable human and social need because traffic regulations, employment law and the codes governing the administration of State can hardly be derived from religion.

    #Arabie_saoudite #liberte_expression #Raif_Badawi

  • Turquie : pour avoir « insulté » le président Erdogan, un lycéen de 16 ans inculpé et emprisonné
    http://www.huffingtonpost.fr/2014/12/25/turquie-insulte-erdogan-lyceen-16-ans-prison-liberte-expression_n_637

    Un lycéen de 16 ans a été arrêté et inculpé à Konya, ville du centre de la Turquie, pour « insulte au président » islamo-conservateur Recep Tayyip Erdogan, ont rapporté jeudi les médias turcs.

    #Turquie #liberté_expression