• Germany shooting livestreamed despite efforts by tech firms
    https://www.msn.com/en-us/news/world/germany-shooting-livestreamed-despite-efforts-by-tech-firms/ar-AAIxxj2

    The news come after the deadly New Zealand mosque shooting livestreamed on Facebook in March, which prompted governments to press social networks to prevent the airing of violent acts on their platforms.

    [...]

    “Filtering algorithms so far have not been very good at detecting violence on livestream,” noted Jillian Peterson, a professor of criminology at Hamline University, who suggested that social media firms may end up being “held accountable” for their role in spreading violent and hateful content.

    Research by Peterson and others suggest shooters may be affected by contagion when they see similar attacks.

    “In many ways, these shootings are performances, meant for all of us to watch,” Peterson said.

    “Social media — and now livestreaming services --- have given perpetrators a larger stage and wider audience. Perpetrators are looking to show their grievance to the world, and livestreaming gives them the means to do it.”

    Hans-Jakob Schindler of the Counter Extremism Project, a group seeking to curb online violence, said the latest livestream highlights a need for stronger actions against social platforms.

    “Online platforms need to step up and stop their services being used and in turn, parent companies need to hold them accountable,” Schindler said.

    “Amazon is just as much to blame as Twitch for allowing this stream online. This tragic incident demonstrates one more time that a self-regulatory approach is not effective enough and sadly highlights the need for stronger regulation of the tech sector.”

    #algorithmes #filtres #régulation versus #censure #surveillance #GAFA #silicon_valley #violence

  • Accéder aux rives des lacs périalpins : un droit aux espaces publics au défi de la #privatisation (#Annecy, #Bourget, #Léman, #Côme)

    Ce projet de thèse s’intéresse à plusieurs lacs alpins en #France, en #Suisse et en #Italie au prisme de la notion d’espaces publics. Il ambitionne de questionner leur fonction récréative, en lien avec un désir de nature croissant au sein de la société urbaine, et leur capacité à demeurer ou à (re)devenir des espaces accessibles, face aux restrictions d’accès qui les affectent. Parmi ces restrictions d’accès, la #propriété_privée des terrains riverains des lacs est la principale, mais des enjeux de protection de l’environnement et d’offre commerciale se posent également. Dans ce contexte de restrictions, les revendications pour un #accès élargi aux #rives_lacustres se multiplient, portées en particulier par des associations citoyennes et/ou environnementales. Ces revendications d’un « #droit_au_lac » mènent à une crise sociale dont l’intensité est variable d’un lac à un autre. Ce projet de thèse s’articule autour de trois axes de recherche : (i) déterminer la part de la #propriété_foncière et celle de la #régulation concrète des accès dans les modalités de partage de l’#espace_riverain ; (ii) analyser la crise sociale suscitée par la revendication du « droit au lac » et sa variabilité spatio-temporelle ; (iii) étudier les pratiques et les représentations des habitants de l’espace lacustre, pour saisir leur conception du droit au lac.

    http://www.theses.fr/s161729
    #privatisation #thèse #lacs #accès_à_l'eau #accès_aux_lacs #espace_public #rives #Alpes
    via @mathieup

  • #Bananes : « l’#Appel_d’Abidjan » pour sauver les #exportations africaines vers l’#Europe

    Face à la #concurrence latino-américaine, les pays africains producteurs de bananes ont appelé, depuis la capitale économique ivoirienne, à la mise en place d’un nouveau mécanisme de #régulation pour compenser la fin de l’aide de l’Union européenne à la filière - prévue pour le 31 décembre 2019.

    https://www.jeuneafrique.com/833342/economie/bananes-lappel-dabidjan-pour-sauver-les-exportations-africaines-vers-l

    #Afrique #Amérique_latine #Côte_d'Ivoire #industrie_agro-alimentaire #mondialisation #globalisation #aide_financière

  • Le vent se lève contre les #GAFA

    Nous assistons peut-être au début de la fin d’une toute-puissance. Ou, du moins, à un certain contrôle des pratiques et de l’emprise globale des géants du #Web. Avec l’avènement d’#internet et la digitalisation accélérée de nos vies et de l’économie, les monstres du secteur que sont #Google, #Apple, #Facebook et #Amazon – les GAFA – ont développé d’immenses #empires en surfant sur le manque de #régulation d’un business totalement nouveau et a priori sans frontières. Au point de rendre une partie de l’humanité captive de leurs services et de leurs politiques commerciales.

    Mais, après des années de laisser-faire au nom de la libre entreprise, les Etats veulent enfin sonner la fin de la récréation. Les chantiers ne manquent pas, tant les GAFA ont su contourner les lois pour étendre leurs tentacules.

    D’abord, la collecte massive de données qu’ils effectuent à des fins publicitaires, voire politiques. Ensuite, leur « optimisation fiscale » poussée au paroxysme. Les géants du net payent, en moyenne, deux fois moins d’impôts que les entreprises traditionnelles, grâce à des délocalisations de bénéfices déclarés dans des pays aux taux minimes. Enfin, les monstres du digital se sont illustrés par leur agressivité visant à s’assurer de quasi-monopoles. Ceci en rachetant presque toutes les jeunes sociétés qui pourraient leur faire de la concurrence.

    C’est ce dernier point qui fait l’actualité aux Etats-Unis. Une cinquantaine de procureurs d’Etat se sont réunis lundi à Washington devant la Cour suprême. Ils ont annoncé l’ouverture d’une enquête antitrust contre Google, qui accapare 92% des recherches en ligne, et les détournerait à son bénéfice.

    Cet été, la France a pour sa part lancé une nouvelle taxe sur les activités des géants d’internet, qui devrait être suivie par la création d’une imposition mondiale du numérique, négociée au sein de l’OCDE. De son côté, Facebook a été condamné en juillet à une amende de 5 milliards de dollars par les autorités étasuniennes pour ne pas avoir protégé les données de ses utilisateurs. Quant au maintien annoncé mardi de la Danoise Margrethe Vestager, célèbre pour avoir amendé les GAFA, à la tête de la Concurrence à la Commission européenne, il semble confirmer un mouvement de fond.

    Il était temps que les Etats sonnent la rébellion. Et il ne faut pas qu’ils en restent là. Car l’idéal d’un internet « libre » est bien mort depuis longtemps, étouffé par le rouleau compresseur de l’ultralibéralisme à outrance incarné par les GAFA.

    https://lecourrier.ch/2019/09/10/le-vent-se-leve-contre-les-gafa
    #résistance

  • Most New Drugs Show No Evidence of Added Benefit
    https://www.medscape.com/viewarticle/915796_print

    The investigators note that almost all of these medications were approved by the European Medicines Agency for use throughout Europe.

    “Thus our results also reflect the outcome of European drug development processes and policies,” they write.

    They suggest that the situation has come about because regulators still allow placebo-controlled studies even though health technology assessment bodies have long recommended active controlled trials, which provide more useful information.

    Of the 125 drugs lacking data on added benefit in the analysis, 64 had no studies vs an active comparator.

    For another 42 drugs, studies compared the drug with an active comparator — but the comparator was inappropriate for such reasons as off-label drug use or inappropriate dosing regimens. The remaining 19 new drugs were tested against an appropriate comparator (standard care) but did not show an advantage.

    The investigators acknowledge the argument that drugs can be approved without showing “added benefit” data to allow speedy access to new products, with the promise of future comparative studies. However, they note, such promises are often never fulfilled.

    A critical and well known problem with post-marketing studies is they often do not happen .... Globally, regulators do little to sanction non-compliant companies,” the researchers write.

    “High levels of uncertainty about treatment benefit jeopardize quality care and impede decision making, particularly on highly priced drugs in economically strained situations,” they add.

    New drugs: where did we go wrong and what can we do better? | The BMJ
    https://www.bmj.com/content/366/bmj.l4340

    #dépense_publiques #austérité_sélective #pharma #innovation #médicaments #santé pseudo#régulation #complicité #états #europe

  • The Fight for the Future of YouTube | The New Yorker
    https://www.newyorker.com/tech/annals-of-technology/the-fight-for-the-future-of-youtube

    Earlier this year, executives at YouTube began mulling, once again, the problem of online speech. On grounds of freedom of expression and ideological neutrality, the platform has long allowed users to upload videos endorsing noxious ideas, from conspiracy theories to neo-Nazism. Now it wanted to reverse course. “There are no sacred cows,” Susan Wojcicki, the C.E.O. of YouTube, reportedly told her team. Wojcicki had two competing goals: she wanted to avoid accusations of ideological bias while also affirming her company’s values. In the course of the spring, YouTube drafted a new policy that would ban videos trafficking in historical “denialism” (of the Holocaust, 9/11, Sandy Hook) and “supremacist” views (lauding the “white race,” arguing that men were intellectually superior to women). YouTube planned to roll out its new policy as early as June. In May, meanwhile, it started preparing for Pride Month, turning its red logo rainbow-colored and promoting popular L.G.B.T.Q. video producers on Instagram.

    Francesca Tripodi, a media scholar at James Madison University, has studied how right-wing conspiracy theorists perpetuate false ideas online. Essentially, they find unfilled rabbit holes and then create content to fill them. “When there is limited or no metadata matching a particular topic,” she told a Senate committee in April, “it is easy to coördinate around keywords to guarantee the kind of information Google will return.” Political provocateurs can take advantage of data vacuums to increase the likelihood that legitimate news clips will be followed by their videos. And, because controversial or outlandish videos tend to be riveting, even for those who dislike them, they can register as “engaging” to a recommendation system, which would surface them more often. The many automated systems within a social platform can be co-opted and made to work at cross purposes.

    Technological solutions are appealing, in part, because they are relatively unobtrusive. Programmers like the idea of solving thorny problems elegantly, behind the scenes. For users, meanwhile, the value of social-media platforms lies partly in their appearance of democratic openness. It’s nice to imagine that the content is made by the people, for the people, and that popularity flows from the grass roots.

    In fact, the apparent democratic neutrality of social-media platforms has always been shaped by algorithms and managers. In its early days, YouTube staffers often cultivated popularity by hand, choosing trending videos to highlight on its home page; if the site gave a leg up to a promising YouTuber, that YouTuber’s audience grew. By spotlighting its most appealing users, the platform attracted new ones. It also shaped its identity: by featuring some kinds of content more than others, the company showed YouTubers what kind of videos it was willing to boost. “They had to be super family friendly, not copyright-infringing, and, at the same time, compelling,” Schaffer recalled, of the highlighted videos.

    Today, YouTube employs scores of “partner managers,” who actively court and promote celebrities, musicians, and gamers—meeting with individual video producers to answer questions about how they can reach bigger audiences,

    Last year, YouTube paid forty-seven ambassadors to produce socially conscious videos and attend workshops. The program’s budget, of around five million dollars—it also helps fund school programs designed to improve students’ critical-thinking skills when they are confronted with emotionally charged videos—is a tiny sum compared to the hundreds of millions that the company reportedly spends on YouTube Originals, its entertainment-production arm. Still, one YouTube representative told me, “We saw hundreds of millions of views on ambassadors’ videos last year—hundreds of thousands of hours of watch time.” Most people encountered the Creators for Change clips as automated advertisements before other videos.

    On a channel called AsapScience, Gregory Brown, a former high-school teacher, and his boyfriend, Mitchell Moffit, make animated clips about science that affects their viewers’ everyday lives; their most successful videos address topics such as the science of coffee or masturbation. They used their Creators for Change dollars to produce a video about the scientifically measurable effects of racism, featuring the Black Lives Matter activist DeRay Mckesson. While the average AsapScience video takes a week to make, the video about racism had taken seven or eight months: the level of bad faith and misinformation surrounding the topic, Brown said, demanded extra precision. “You need to explain the study, explain the parameters, and explain the result so that people can’t argue against it,” he said. “And that doesn’t make the video as interesting, and that’s a challenge.” (Toxic content proliferates, in part, because it is comparatively easy and cheap to make; it can shirk the burden of being true.)

    One way to make counterspeech more effective is to dampen the speech that it aims to counter. In March, after a video of a white-supremacist mass shooting at a mosque in Christchurch, New Zealand, went viral, Hunter Walk, a former YouTube executive, tweeted that the company should protect “freedom of speech” but not “freedom of reach.” He suggested that YouTube could suppress toxic videos by delisting them as candidates for its recommendation engine—in essence, he wrote, this would “shadowban” them. (Shadow-banning is so-called because a user might not know that his reach has been curtailed, and because the ban effectively pushes undesirable users into the “shadows” of an online space.) Ideally, people who make such shadow-banned videos could grow frustrated by their limited audiences and change their ways; videos, Walk explained, could be shadow-banned if they were linked to by a significant number of far-right Web havens, such as 8chan and Gab. (Walk’s tweets, which are set to auto-delete, have since disappeared.)

    Shadow-banning is an age-old moderation tool: the owners of Internet discussion forums have long used it to keep spammers and harassers from bothering other users. On big social-media platforms, however, this kind of moderation doesn’t necessarily focus on individuals; instead, it affects the way that different kinds of content surface algorithmically. YouTube has published a lengthy list of guidelines that its army of raters can use to give some types of content—clips that contain “extreme gore or violence, without a beneficial purpose,” for example, or that advocate hateful ideas expressed in an “emotional,” “polite,” or even “academic-sounding” way—a low rating. YouTube’s A.I. learns from the ratings to make objectionable videos less likely to appear in its automated recommendations. Individual users won’t necessarily know how their videos have been affected. The ambiguities generated by this system have led some to argue that political shadow-banning is taking place. President Trump and congressional Republicans, in particular, are alarmed by the idea that some version of the practice could be widely employed against conservatives. In April, Ted Cruz held a Senate subcommittee hearing called “Stifling Free Speech: Technological Censorship and the Public Discourse.” In his remarks, he threatened the platforms with regulation; he also brought in witnesses who accused them of liberal bias. (YouTube denies that its raters evaluate recommendations along political lines, and most experts agree that there is no evidence for such a bias.)

    Engineers at YouTube and other companies are hesitant to detail their algorithmic tweaks for many reasons; among them is the fact that obscure algorithms are harder to exploit. But Serge Abiteboul, a computer-science professor who was tasked by the French government to advise legislators on online hate speech, argues that verifiable solutions are preferable to hidden ones. YouTube has claimed that, since tweaking its systems in January, it has reduced the number of views for recommended videos containing borderline content and harmful misinformation by half. Without transparency and oversight, however, it’s impossible for independent observers to confirm that drop. “Any supervision that’s accepted by society would be better than regulation done in an opaque manner, by the platforms, themselves, alone,” Abiteboul said.

    The company featured videos it liked, banned others outright, and kept borderline videos off the home page. Still, it allowed some toxic speech to lurk in the corners. “We thought, if you just quarantine the borderline stuff, it doesn’t spill over to the decent people,” he recalled. “And, even if it did, it seemed like there were enough people who would just immediately recognize it was wrong, and it would be O.K.” The events of the past few years have convinced Schaffer that this was an error. The increasing efficiency of the recommendation system drew toxic content into the light in ways that YouTube’s early policymakers hadn’t anticipated. In the end, borderline content changed the tenor and effect of the platform as a whole. “Our underlying premises were flawed,” Schaffer said. “We don’t need YouTube to tell us these people exist. And counterspeech is not a fair burden. Bullshit is infinitely more difficult to combat than it is to spread. YouTube should have course-corrected a long time ago.”

    Some experts point out that algorithmic tweaks and counterspeech don’t change the basic structure of YouTube—a structure that encourages the mass uploading of videos from unvetted sources. It’s possible that this structure is fundamentally incompatible with a healthy civic discourse.

    There are commercial reasons, it turns out, for fighting hate speech: according to a survey by the Anti-Defamation League, fifty-three per cent of Americans reported experiencing online hate or harassment in 2018—rates of bigoted harassment were highest among people who identified as L.G.B.T.Q.—and, in response, many spent less time online or deleted their apps. A study released last year, by Google and Stanford University, identified toxic speech as a “rude, disrespectful, or unreasonable comment that is likely to make you leave a discussion.” As part of the Creators for Change program, YouTube has drawn up lesson plans for teachers which encourage students to “use video to find your voice and bring people together.” Teen-agers posting videos disputing toxic ideas are engaged users, too.

    I asked YouTube’s representatives why they didn’t use the Redirect Method to serve Creators for Change videos to people who search for hate speech. If they valued what their ambassadors had to say, why wouldn’t they disseminate those messages as effectively as possible? A representative explained that YouTube doesn’t want to “pick winners.” I brought that message back to Libby Hemphill, the computer-science professor. “I wish they would recognize that they already do pick winners,” she said. “Algorithms make decisions we teach them to make, even deep-learning algorithms. They should pick different winners on purpose.” Schaffer suggested that YouTube’s insistence on the appearance of neutrality is “a kind of Stockholm syndrome. I think they’re afraid of upsetting their big creators, and it has interfered with their ability to be aggressive about implementing their values.”

    Brown, for his part, wanted the platform to choose a point of view. But, he told me, “If they make decisions about who they’re going to prop up in the algorithm, and make it more clear, I think they would lose money. I think they might lose power.” He paused. “That’s a big test for these companies right now. How are they going to go down in history?”

    #YouTube #Modération #Régulation #Algorithme

  • Pourquoi la loi Avia sur la haine en ligne fait l’unanimité contre elle
    https://www.latribune.fr/technos-medias/internet/pourquoi-la-loi-avia-sur-la-haine-en-ligne-fait-l-unanimite-contre-elle-82

    Qu’il s’agisse des fédérations professionnelles du numérique, des observateurs de la société numérique, ou des défenseurs des libertés, les acteurs du numérique français sont vent debout contre la loi Avia sur la haine en ligne, actuellement débattue à l’Assemblée nationale. Explications.

    Tout le monde s’accorde sur la nécessité de la loi Avia : il faut agir contre la haine en ligne et le cyberharcèlement. Oui, mais comment ? C’est là que le bât blesse, car plus les contours du futur texte se dévoilent, plus les acteurs du numérique français, de tous bords politiques et représentant des intérêts différents, se braquent contre le projet du gouvernement.
    Ce que prévoit la loi Avia

    La mesure phare de la proposition de loi de la députée LREM Laetitia Avia prévoyait à l’origine d’obliger les plateformes Internet à retirer en moins de 24 heures les contenus haineux signalés par les autorités ou par le public. Par contenus haineux, le texte entendait au départ les contenus comportant manifestement une incitation à la haine à raison de la race, de la religion, du sexe, de l’orientation sexuelle ou du handicap.

    Mais après son passage au Conseil d’Etat et en commission des lois, des députés ont élargi sa protée en proposant une série d’amendements. Les députés proposent ainsi d’étendre l’obligation de retrait en moins de 24 heures pour des infractions comme le harcèlement sexuel, la traite des êtres humains, le proxénétisme, la mise à disposition de mineurs à contenus pornographiques ou encore l’apologie du terrorisme. Les réseaux sociaux ne sont également plus les seules plateformes concernées : un amendement veut aussi soumettre à la loi les moteurs de recherche, pour déréférencer le contenu problématique.
    close
    volume_off
    Un texte « fourre-tout », trop de « contenus gris » à gérer

    D’une manière générale, les grandes entreprises du numérique et de l’internet affichent leur soutien au renforcement de la lutte contre la haine en ligne, et au principe d’un renforcement de la réglementation en la matière. Mais l’obligation de retrait de contenu en moins de 24 heures inquiète bon nombre de professionnels, dans la mesure où elle obligera les plateformes à décider très rapidement par elles-mêmes si tel ou tel contenu contrevient à la loi, au risque de générer une cascade de polémiques et de conflits juridiques.

    « Le texte s’est trop élargi, il devient fourre-tout. On se retrouve aujourd’hui avec des choses qui relèvent de la haine en ligne et des choses qui relèvent de la morale publique, comme le proxénétisme et la pornographie. Est-ce le rôle des plateformes de définir la morale publique et de pratiquer une forme de censure ? » s’interroge Loïc Rivière, le directeur général de Tech in France, qui représente les intérêts des plateformes.

    Ainsi, les trois organisations professionnelles du secteur -Syntec Numérique qui revendique 2.000 adhérents parmi les entreprises de l’informatique et du conseil en technologies, Tech in France qui groupe les intérêts de 400 entreprises du numérique, et l’Asic qui réunit des grands acteurs de l’Internet- ont publié une mise en garde commune contre « l’inefficacité » de la future loi si son périmètre reste aussi large.

    Selon eux, le texte « risque paradoxalement d’offrir moins de protection aux citoyens qui en ont pourtant le plus besoin » :

    "Le volume de contenus « gris » à traiter" en 24 heures, c’est-à-dire du contenu à la frontière, qui nécessite un examen approfondi pour savoir s’il doit être retiré ou pas, serait tellement important que les plateformes n’auraient pas les moyens de les traiter, devenant ainsi inefficaces", déplore Loïc Rivière.

    Le texte commun aux trois organisations professionnelles demande davantage de « proportionnalité », avec une « gradation » en fonction de la gravité des messages concernés.

    "On attribue aux réseaux sociaux et aux moteurs de recherche un rôle de régulation des contenus et de référencement des contenus « acceptables » qui sort de leurs obligations sociétales peuvent s’apparenter à de la censure, et pose des problèmes de légitimité", ajoute le dirigeant.

    Flou juridique et atteintes aux libertés pour les défenseurs des droits de l’internaute

    Pour Salwa Toko, la présidente du Conseil national du numérique (instance consultative qui rassemble à la fois acteurs associatifs et professionnels de l’internet), le texte ne parvient pas à bien clarifier quels contenus les plateformes doivent accepter, et quels contenus elles doivent refuser.

    La proposition de loi « ne donne pas une définition juridique et bien précise », souligne-t-elle. Elle rejoint les acteurs professionnels sur l’avis que ce n’est pas à Facebook, Twitter, YouTube ou Google de déterminer ce qui censurable et ce qui ne l’est pas.

    « Nous regrettons que le pouvoir judiciaire ne soit pas plus mis en avant et ne soit pas plus renforcé. On se demande s’il n’y a pas là un glissement de responsabilité étatique qui est en train de se mettre en place, au profit des acteurs économiques » que sont les grandes plateformes internet, a-t-elle ajouté.

    Ne pas supprimer un contenu haineux pourra leur valoir une amende (jusqu’à 1,25 million d’euros, en l’état actuel du texte), mais censurer à tort tel ou tel militant, acteur public ou simple internaute provoquera de rudes polémiques, voire même des poursuites.

    Pour les défenseurs des libertés, notamment La Quadrature du Net, les plateformes seront en fait poussées à « sur-modérer », c’est-à-dire à censurer des contenus contestables « par précaution », simplement pour ne pas prendre le risque de se voir infliger l’amende. Avec un risque d’instrumentalisation par le pouvoir politique. Occupés à trier les contenus de la zone grise, c’est-à-dire les contenus choquants, contestables mais pas forcément illégaux, les plateformes pourraient censurer d’office tout contenu signalé par une autorité officielle, comme la police, craint l’association.

    Les plateformes « n’auront d’autres choix que de réaliser un examen sommaire, ou un retrait quasi-automatique, des contenus signalés par leurs partenaires jugés les plus fiables » dont l’OCLCTIC, le service de la police spécialisé contre les infractions en ligne, estime la Quadrature du Net."En pratique, cela permettra au gouvernement d’usurper l’autorité judiciaire, qualifiant lui-même les infractions contre lesquelles il prétend lutter et imposant cette qualification aux plateformes", avertit-elle.

    #Loi_Avia #Médias_sociaux #Régulation

  • Will California’s New Bot Law Strengthen Democracy ? | The New Yorker
    https://www.newyorker.com/tech/annals-of-technology/will-californias-new-bot-law-strengthen-democracy

    Une loi très intéressante en Californie qui va entrer en vigueur aujourd’hui. On va voir comment cela se passe pour la déclaration du caractère robotique d’un compte Twitter ou Facebook...

    California is the first state to try to reduce the power of bots by requiring that they reveal their “artificial identity” when they are used to sell a product or influence a voter.Photograph by Emma Innocenti / Getty
    When you ask experts how bots influence politics—that is, what specifically these bits of computer code that purport to be human can accomplish during an election—they will give you a list: bots can smear the opposition through personal attacks; they can exaggerate voters’ fears and anger by repeating short simple slogans; they can overstate popularity; they can derail conversations and draw attention to symbolic and ultimately meaningless ideas; they can spread false narratives. In other words, they are an especially useful tool, considering how politics is played today.

    On July 1st, California became the first state in the nation to try to reduce the power of bots by requiring that they reveal their “artificial identity” when they are used to sell a product or influence a voter. Violators could face fines under state statutes related to unfair competition. Just as pharmaceutical companies must disclose that the happy people who say a new drug has miraculously improved their lives are paid actors, bots in California—or rather, the people who deploy them—will have to level with their audience.

    We are in new terrain, where the microtargeting of audiences on social networks, the perception of false news stories as genuine, and the bot-led amplification of some voices and drowning-out of others have combined to create angry, ill-informed online communities that are suspicious of one another and of the government.

    Regulating bots should be low-hanging fruit when it comes to improving the Internet. The California law doesn’t even ban them outright but, rather, insists that they identify themselves in a manner that is “clear, conspicuous, and reasonably designed.”

    The point where economic self-interest stops and libertarian ideology begins can be hard to identify. Mark Zuckerberg, of Facebook, speaking at the Aspen Ideas Festival last week, appealed to personal freedom to defend his platform’s decision to allow the microtargeting of false, incendiary information. “I do not think we want to go so far towards saying that a private company prevents you from saying something that it thinks is factually incorrect,” he said. “That to me just feels like it’s too far and goes away from the tradition of free expression.”

    In the 2016 Presidential campaign, bots were created to support both Donald Trump and Hillary Clinton, but pro-Trump bots outnumbered pro-Clinton ones five to one, by one estimate, and many were dispatched by Russian intermediaries. Twitter told a Senate committee that, in the run-up to the 2016 election, fifty thousand bots that it concluded had Russian ties retweeted Trump’s tweets nearly half a million times, which represented 4.25 per cent of all his retweets, roughly ten times the level of Russian bot retweets supporting Clinton.

    Bots also gave Trump victories in quick online polls asking who had won a Presidential debate; they disrupted discussions of Trump’s misdeeds or crude statements; and they relentlessly pushed dubious policy proposals through hashtags like #draintheswamp.

    They have also aided Trump during his Presidency. Suspected bots created by unidentified users drove an estimated forty to sixty per cent of the Twitter discussion of a “caravan” of Central American migrants headed to the U.S., which was pushed by the President and his supporters prior to the 2018 midterm elections. Trump himself has retweeted accounts that praise him and his Presidency, and which appear to be bots. And last week a suspected bot network was discovered to be smearing Senator Kamala Harris, of California, with a form of “birtherism” after her strong showing in the first round of Democratic-primary debates.

    Hertzberg, the state senator who authored the legislation, told me that he was glad that the changes to the bill before passage were related to the implementation of the law, rather than to its central purpose of requiring that bots reveal themselves to the public when used politically or commercially. A lawyer by training, Hertzberg said that he resented the accusation that he didn’t care about First Amendment concerns. “There is no effort in this bill to have a chilling effect on speech—zero,” he said. “The argument you go back to is, Do bots have free speech? People have free speech. Bots are not people.”

    #régulation #Robots #Californie

  • Facebook Is Censoring Harm Reduction Posts That Could Save Opioid Users’ Lives
    https://www.vice.com/en_us/article/qv75ap/facebook-is-censoring-harm-reduction-posts-that-could-save-opioid-users-lives

    As Facebook rolls out its campaign with the Partnership for Drug-Free Kids to “Stop Opioid Silence” and other initiatives to fight the overdose crisis, some stalwart advocates in the field are seeing unwelcome changes. In the past few months, accounts have been disabled, groups have disappeared, posts containing certain content—particularly related to fentanyl—have been removed, and one social media manager reports being banned for life from advertising on Facebook.

    In its efforts to stop opioid sales on the site, Facebook appears to be blocking people who warn users about poisonous batches of drugs or who supply materials used to test for fentanyls and other contaminants. Just as 1990s web security filters mistook breast cancer research centers for porn sites, today’s internet still seems to have trouble distinguishing between drug dealers and groups trying to reduce the death toll from the overdose crisis. VICE reviewed screenshots and emails to corroborate the claims made in this story.

    Facebook seems to be especially focused on fentanyl. Claire Zagorski, a wound care paramedic at the Austin Harm Reduction Coalition in Texas, said she informally surveyed other harm reduction groups about their experiences. About half a dozen reported problems with reduced distribution of posts or outright rejection—especially if they were trying to report a specific, local instance of fentanyl-tainted drugs. Two of the organizations affected were a harm reduction group called Shot in the Dark in Phoenix, Arizona, and Southside Harm Reduction Services in Minneapolis, Minnesota.

    “I think it’s important to remember that they’re not being like, ‘Hooray drugs!’" Zagorski said. "They’re saying, ‘Be warned that this contaminated supply could be lethal.’”

    Devin Reaves, executive director and co-founder of the Pennsylvania Harm Reduction Coalition, who hasn’t personally had posts blocked, said: “Facebook wants to address the opioid crisis, but when harm reductionists try to inform their communities about what’s dangerous, their posts are being blocked.”

    Why then is Facebook cracking down?

    When reached for comment, a Facebook spokesperson said the company is investigating these incidents. After VICE contacted Facebook, the company restored posts from Southside Harm Reduction and Shot in the Dark, as well as Louise Vincent’s ability to post her email address, which apparently triggered a spam filter unrelated to opioids.

    Facebook also told VICE that Marcom was blocked from posting ads due not to fentanyl test strips, but due to posts related to kratom, an herb used by some as a substitute for opioids. Facebook has decided that kratom is a “non-medical drug” and is removing posts and groups related to it—even though its use is considered to be a form of harm reduction.

    Marcom said he hadn’t posted any kratom-related ads since 2018 and added, “It’s extremely frustrating that they have chosen to ban a proven safe plant medicine, as Facebook used to be a space where tens of thousands went daily for help getting off of opiates and other pharmaceuticals.”

    #Facebook #Opioides #Liberté_expression #Régulation

  • Créer un cadre français
    de responsabilisation des réseaux sociaux :
    agir en France avec une ambition européenne

    Remise du rapport de la mission de régulation des réseaux sociaux | numerique.gouv.fr
    https://www.numerique.gouv.fr/actualites/remise-du-rapport-de-la-mission-de-regulation-des-reseaux-sociaux
    https://www.numerique.gouv.fr/uploads/Haine+en%20ligne.jpg

    La problématique de la haine en ligne est devenue insupportable pour nos citoyens. Cette situation pose une triple responsabilité : celle des auteurs des contenus qui doivent assumer leurs propos, celle des réseaux sociaux qui, en toute transparence, doivent proposer une organisation susceptible de bannir la haine en ligne et celle des États qui doivent fixer des règles pour les auteurs, pour les réseaux sociaux et assurer qu’elles soient respectées.

    C’est dans cet esprit de vigilance constructive et de dialogue qu’Emmanuel Macron, président de la République, et Mark Zuckerberg, PDG de Facebook, ont acté le lancement d’une mission de régulation des réseaux sociaux en mai 2018.

    Le rapport rendu public aujourd’hui et remis à Cédric O, secrétaire d’État chargé du Numérique, propose des pistes de réflexions et d’actions qui viendront nourrir les travaux parlementaires des prochains mois.

    Lancée en mai 2018, la mission a mobilisé trois rapporteurs et sept experts de haut niveau issus de ministères et d’autorités administratives indépendantes.

    –-----------

    Synthèse
    Les réseaux sociaux permettent à tout citoyen de publier les contenus de son choix et de les partager avec d’autres utilisateurs du réseau. Ils ont ainsi révolutionné l’industrie des médias et les modes de communication en offrant aux citoyens et à la société civile un support d’expression directe. Le recours aux médias classiques n’est plus obligatoire pour communiquer publiquement. La possibilité pour les citoyens d’exercer leurs libertés d’expression, de communication, et de s’informer sont donc considérablement accrues par ces services.
    Néanmoins, les capacités offertes par les réseaux sociaux suscitent des abus inacceptables de ces libertés. Ces abus sont le fait d’individus isolés ou de groupes organisés auxquels les grands réseaux sociaux, Facebook, YouTube, Twitter ou Snap, pour ne citer qu’eux, n’apportent pas de réponse pleinement satisfaisante à ce jour. Or, par l’ordonnancement qu’ils réalisent des contenus publiés et par leur politique de modération, les réseaux sociaux sont en mesure d’agir directement sur ces abus les plus manifestes pour les prévenir ou y répondre et limiter ainsi les dommages en termes de cohésion sociale.
    Une intervention publique pour que les plus grands acteurs adoptent une attitude plus responsable et plus protectrice de la cohésion de nos sociétés apparaît donc légitime. Compte tenu des enjeux de libertés publiques, cette intervention doit faire l’objet de précautions particulières. Elle doit (i) respecter la diversité des modèles de réseaux sociaux, qui forment un ensemble particulièrement hétéroclite, (ii) faire preuve de transparence, notamment en y associant la société civile, (iii) viser un objectif d’intervention minimum conformément aux principes de nécessité et de proportionnalité et (iv) s’en remettre aux juridictions pour la qualification de la licéité des contenus pris individuellement.
    La démarche actuelle d’autorégulation des réseaux sociaux est intéressante en ce qu’elle démontre que les plateformes peuvent faire partie de la solution aux problèmes constatés. Elles ont inventé des réponses variées et agiles : retrait, moindre exposition, rappel à la règle commune, pédagogie, accompagnement des victimes. Toutefois, l’autorégulation est toujours en développement. Elle se contente trop souvent de proposer une réponse ex-post (après l’apparition du dommage). Elle manque de crédibilité, du fait de l’asymétrie extrême d’information, provoquant un sentiment de « story telling » qui suscite une suspicion sur la réalité de l’action de la plateforme.
    L’intervention publique doit reposer sur un équilibre entre une politique répressive, indispensable pour lutter efficacement contre les auteurs des abus, et une logique de responsabilisation accrue des réseaux sociaux fondée sur une régulation ex ante, pour capitaliser sur la logique de prévention et la capacité d’autorégulation des plateformes.
    Compte tenu de l’unicité et de l’ubiquité des réseaux sociaux, qui dépassent les frontières des États membres – un service unique accessible sur plusieurs géographies – cette régulation ex ante doit s’inscrire dans une dynamique et un cadre européens. Néanmoins, la règle actuelle dite du pays d’installation, selon laquelle seul le pays qui accueille le siège du réseau social peut intervenir pour réguler ce réseau, s’avère inefficace. Par les excès qu’ils permettent, les réseaux sociaux créent des dommages dans d’autres États membres, et difficilement observables par l’Etat membre d’installation.
    Toute initiative française devra donc avoir pour ambition d’inverser la logique européenne actuelle au profit d’une logique du pays de destination, selon laquelle la plateforme est responsable devant l’État membre où le dommage se produit, pour renforcer la capacité de chacun des États membres à maîtriser les conséquences de la globalisation. Cet objectif doit être pris en compte dès la conception d’une fonction de régulation des réseaux sociaux pour que le dispositif apparaisse pertinent aux yeux de nos partenaires européens, alors même que la politique en matière de régulation des industries de médias diffère sensiblement d’un pays à l’autre.
    p. 2
    La mise en place d’une régulation ex ante devrait respecter trois conditions : (i) suivre une logique de conformité selon laquelle le régulateur supervise la bonne mise en œuvre de mesures préventives ou correctrices, sans se focaliser sur la matérialisation des risques ni chercher à réglementer lui-même le service fourni, (ii) se concentrer sur les acteurs systémiques capables de créer des dommages conséquents dans nos sociétés sans créer de barrière à l’entrée pour de nouveaux acteurs européens, (iii) rester agile pour affronter les enjeux futurs dans un environnement numérique particulièrement évolutif. Le dispositif législatif devra donc viser à créer une capacité institutionnelle à réguler et non une régulation figée sur les problèmes actuels.
    Cette régulation pourrait reposer sur les cinq piliers suivants :
    Premier pilier : Deuxième pilier :
    Troisième pilier : Quatrième pilier : Cinquième pilier :
    Une politique publique de régulation garante des libertés individuelles et de la liberté d’entreprendre des plateformes.
    Une régulation prescriptive et ciblée sur la responsabilisation des réseaux sociaux mise en œuvre par une autorité administrative indépendante, reposant sur trois obligations incombant aux plateformes :
    • transparence de la fonction d’ordonnancement des contenus ;
    • transparence de la fonction de mise en œuvre des CGU et de modération
    des contenus ;
    • un devoir de diligence vis-à-vis de ses utilisateurs.
    Un dialogue politique informé entre les acteurs, le gouvernement, le législateur, le régulateur et la société civile.
    Une autorité administrative indépendante partenaire des autres branches de l’État et ouverte sur la société civile.
    Une ambition européenne pour renforcer la capacité des Etats membres à agir face à des plateformes globales, et réduire le risque politique lié à la mise en œuvre dans chaque Etat membre.

    #Médias_sociaux #Régulation #Concurrence #Liberté_expression #Transparence

  • Opinion | I Shouldn’t Have to Publish This in The New York Times - The New York Times
    https://www.nytimes.com/2019/06/24/opinion/future-free-speech-social-media-platforms.html

    Une nouvelle de Cory Doctorow sur la régulation des plateformes : briser les monopoles, ou leur laisser le choix d’être eux-mêmes les régulateurs algorithmiques de l’expression de chacun.

    Editors’ note: This is part of a series, “Op-Eds From the Future,” in which science fiction authors, futurists, philosophers and scientists write Op-Eds that they imagine we might read 10, 20 or even 100 years from now. The challenges they predict are imaginary — for now — but their arguments illuminate the urgent questions of today and prepare us for tomorrow. The opinion piece below is a work of fiction.

    I shouldn’t have to publish this in The New York Times.

    Ten years ago, I could have published this on my personal website, or shared it on one of the big social media platforms. But that was before the United States government decided to regulate both the social media platforms and blogging sites as if they were newspapers, making them legally responsible for the content they published.

    The move was spurred on by an unholy and unlikely coalition of media companies crying copyright; national security experts wringing their hands about terrorism; and people who were dismayed that our digital public squares had become infested by fascists, harassers and cybercriminals. Bit by bit, the legal immunity of the platforms was eroded — from the judges who put Facebook on the line for the platform’s inaction during the Provo Uprising to the lawmakers who amended section 230 of the Communications Decency Act in a bid to get Twitter to clean up its Nazi problem.

    While the media in the United States remained protected by the First Amendment, members of the press in other countries were not so lucky. The rest of the world responded to the crisis by tightening rules on acceptable speech. But even the most prolific news service — a giant wire service like AP-AFP or Thomson-Reuters-TransCanada-Huawei — only publishes several thousand articles per day. And thanks to their armies of lawyers, editors and insurance underwriters, they are able to make the news available without falling afoul of new rules prohibiting certain kinds of speech — including everything from Saudi blasphemy rules to Austria’s ban on calling politicians “fascists” to Thailand’s stringent lese majeste rules. They can ensure that news in Singapore is not “out of bounds” and that op-eds in Britain don’t call for the abolition of the monarchy.

    But not the platforms — they couldn’t hope to make a dent in their users’ personal expressions. From YouTube’s 2,000 hours of video uploaded every minute to Facebook-Weibo’s three billion daily updates, there was no scalable way to carefully examine the contributions of every user and assess whether they violated any of these new laws. So the platforms fixed this the Silicon Valley way: They automated it. Badly.

    Which is why I have to publish this in The New York Times.

    The platforms and personal websites are fine if you want to talk about sports, relate your kids’ latest escapades or shop. But if you want to write something about how the platforms and government legislation can’t tell the difference between sex trafficking and sex, nudity and pornography, terrorism investigations and terrorism itself or copyright infringement and parody, you’re out of luck. Any one of those keywords will give the filters an incurable case of machine anxiety — but all of them together? Forget it.

    If you’re thinking, “Well, all that stuff belongs in the newspaper,” then you’ve fallen into a trap: Democracies aren’t strengthened when a professional class gets to tell us what our opinions are allowed to be.

    And the worst part is, the new regulations haven’t ended harassment, extremism or disinformation. Hardly a day goes by without some post full of outright Naziism, flat-eartherism and climate trutherism going viral. There are whole armies of Nazis and conspiracy theorists who do nothing but test the filters, day and night, using custom software to find the adversarial examples that slip past the filters’ machine-learning classifiers.

    It didn’t have to be this way. Once upon a time, the internet teemed with experimental, personal publications. The mergers and acquisitions and anticompetitive bullying that gave rise to the platforms and killed personal publishing made Big Tech both reviled and powerful, and they were targeted for breakups by ambitious lawmakers. Had we gone that route, we might have an internet that was robust, resilient, variegated and dynamic.

    Think back to the days when companies like Apple and Google — back when they were stand-alone companies — bought hundreds of start-ups every year. What if we’d put a halt to the practice, re-establishing the traditional antitrust rules against “mergers to monopoly” and acquiring your nascent competitors? What if we’d established an absolute legal defense for new market entrants seeking to compete with established monopolists?

    Most of these new companies would have failed — if only because most new ventures fail — but the survivors would have challenged the Big Tech giants, eroding their profits and giving them less lobbying capital. They would have competed to give the best possible deals to the industries that tech was devouring, like entertainment and news. And they would have competed with the news and entertainment monopolies to offer better deals to the pixel-stained wretches who produced the “content” that was the source of all their profits.

    But instead, we decided to vest the platforms with statelike duties to punish them for their domination. In doing so, we cemented that domination. Only the largest companies can afford the kinds of filters we’ve demanded of them, and that means that any would-be trustbuster who wants to break up the companies and bring them to heel first must unwind the mesh of obligations we’ve ensnared the platforms in and build new, state-based mechanisms to perform those duties.

    Our first mistake was giving the platforms the right to decide who could speak and what they could say. Our second mistake was giving them the duty to make that call, a billion times a day.

    Still, I am hopeful, if not optimistic. Google did not exist 30 years ago; perhaps in 30 years’ time, it will be a distant memory. It seems unlikely, but then again, so did the plan to rescue Miami and the possibility of an independent Tibet — two subjects that are effectively impossible to discuss on the platforms. In a world where so much else is up for grabs, finally, perhaps, we can once again reach for a wild, woolly, independent and free internet.

    It’s still within our reach: an internet that doesn’t force us to choose between following the algorithmically enforced rules or disappearing from the public discourse; an internet where we can host our own discussions and debate the issues of the day without worrying that our words will disappear. In the meantime, here I am, forced to publish in The New York Times. If only that were a “scalable solution,” you could do so as well.

    Cory Doctorow (@doctorow) is a science fiction writer whose latest book is “Radicalized,” a special consultant to the Electronic Frontier Foundation and an M.I.T. Media Lab research affiliate.

    #Cory_Doctorow #Régulation_internet #Plateformes #Liberté_expression #Monopoles

  • Au moins 186 FAI européens utilisent le DPI pour court-circuiter la neutralité du net
    https://www.zdnet.fr/actualites/au-moins-186-fai-europeens-utilisent-le-dpi-pour-court-circuiter-la-neutralite

    Sécurité : Des ONG et des universitaires mettent en garde contre l’impact de la technique de Deep Packet Inspection sur la vie privée des utilisateurs, et sur le fait que la neutralité du net pourrait être affaiblie dans l’UE. Selon un groupe comprenant des ONG, des universitaires et des entreprises, les fournisseurs européens de services Internet enfreignent déjà les règles de neutralité du net et façonnent le trafic Internet, bien que la réglementation sur la neutralité du réseau soit en vigueur dans (...)

    #Deep_Packet_Inspection_(DPI) #neutralité #profiling #surveillance #web #EDRi

    ##Deep_Packet_Inspection__DPI_ ##neutralité

  • #PayWall // Haine sur Internet : un parquet spécialisé va être créé

    L’objectif, explique la ­députée En Marche de Paris, est de « déployer des moyens humains, techniques et ­budgétaires » dans une ­structure « ­maîtrisant les spécificités de la sphère numérique », face au trop grand nombre ­d’enquêtes n’aboutissant pas. « Il ne faut pas seulement ­responsabiliser les ­plateformes du Web, mais aussi les ­pouvoirs publics à travers la ­justice », revendique-t-elle /.../

    https://www.lejdd.fr/Politique/haine-sur-internet-un-parquet-specialise-va-etre-cree-3899424 #regulation #contrôle #haine #internet #judiciarisation

  • C’était 1993... et #Jacques_Rancière écrivait ce texte...
    L’immigré et la loi du consensus

    Il faut bien constater que le dispositif des #lois_Pasqua-Méhaignerie sur le #code_de_la_nationalité, la #maîtrise_de_l'immigration et l’extension des #contrôles_d'identité a rencontré dans l’opinion qui fut de gauche un assez large assentiment. Celui-ci repose essentiellement sur deux arguments. Premièrement, il y a un #problème objectif de l’immigration qu’il faut avoir le courage de regarder en face. Et déjà les socialistes avaient compris avec #Michel_Rocard l’impossibilité d’accueillir « toute la misère du monde ».

    Deuxièmement, puisque des décisions « courageuses » s’imposent, autant vaut que la droite les prenne et aussi que l’ablation, chirurgicalement nécessaire, s’opère par les moyens du #droit et de la #loi. Charles #Pasqua l’a d’ailleurs dit : il ne s’agit que de donner cohérence et force de loi à des mesures disparates imposées par l’urgence de solutions ponctuelles à des problèmes particuliers. En un sens, donc, il n’y aurait rien de nouveau, sinon cet avantage, bien fait pour plaire aux amoureux de l’« État de droit », que l’universel de la loi se substitue au hasard des mesures réglementaires.

    L’argument de l’#objectivité courageusement abordée séduit aisément ceux qui n’en finissent pas de se repentir, généralement sur le dos des autres, de leurs errements d’antan mais oublient seulement que le premier principe de ces errements était précisément l’adhésion aveugle à l’« objectivité » de la « #nécessité_historique ». L’espérance déçue ne fait pas une réalité ni le reniement une pensée. S’il y a une leçon à tirer des déceptions de l’histoire contemporaine, c’est bien plutôt celle-ci : il n’y a pas en politique de #nécessité objective ni de problèmes objectifs. On a les #problèmes_politiques qu’on choisit d’avoir, généralement parce qu’on a déjà les réponses. C’est un #choix_politique que de déclarer que l’entrée de travailleurs clandestins, les problèmes des collèges de banlieue, les phénomènes de délinquance impliquant des jeunes nés en France de parents nés français, les mariages blancs ou supposés tels et les déficits des comptes sociaux relèvent d’un même #problème_immigré.

    A qui conteste cette identification, on vient dire qu’il ferait mieux de quitter les beaux quartiers où il étale ses bons sentiments pour aller voir ce qui se passe dans les #banlieues. Allez donc voir à la chaîne la situation faite aux #travailleurs_immigrés, disait-on naguère. Allez donc voir dans les banlieues la situation que les immigrés font à la population travailleuse, dit-on aujourd’hui. L’argument culpabilisant est toujours sûr de son effet. Mais il faut justement s’interroger sur ce passage de la chaîne à la #banlieue et sur la logique de ces « #problèmes_de_société » dont nos politiques se font les diagnosticiens réalistes et les chirurgiens courageux. Socialistes ou libéraux, nos gouvernements ont adopté le même credo : la politique, à notre époque, est le seul règne de la #nécessité, laquelle s’identifie aux exigences capricieuses et incontournables du #marché mondial. Ils fondent leur #légitimité même sur la #démonstration qu’ils ne peuvent rien faire d’autre que ce qu’ils font : enregistrer, mois après mois, les caprices de cette divinité et gérer aux moindres frais leurs conséquences pour les populations dont ils ont la charge. Ils ont pris pour politique de renoncer à toute #politique autre que de gestion des « conséquences ». Ils ont organisé la déstructuration du monde du #travail pas seulement pour obéir à la nécessité mais aussi parce que ce monde portait en lui la visibilité même de la politique, celle d’une #société_divisée et vivant du #conflit. Dans toute fermeture d’usine, on a fini par saluer avec satisfaction la fin d’un « #mythe » et la preuve que, puisqu’on détruisait les mythes, on faisait de la bonne politique réaliste.

    Le problème est que, en détruisant ces « mythes », on ne met pas seulement en crise les systèmes de #régulation_sociale liés au monde du travail comme la #sécurité_sociale et l’#éducation. On supprime les capacités d’une société fondée sur le conflit à accueillir les altérités. Nous n’avons pas numériquement beaucoup plus d’immigrés qu’il y a vingt ans. Mais ces #étrangers, il y a vingt ans, avaient un autre nom et une autre identité : ils s’appelaient #ouvriers. Aujourd’hui, ils ne sont plus que des immigrés, des gens de peau et de moeurs différentes. La scène est alors créée pour que, sur la ruine des #identités et des altérités politiques, apparaissent d’une part les « problèmes de société » créés un peu partout, dans les rues et les cités, les collèges, les organismes de sécurité sociale etc., par les groupes les plus fortement précarisés et les classes d’âge les plus sensibles à cette précarisation, d’autre part la figure immédiatement identifiable du facteur de problèmes : cet autre qui n’est plus rien qu’un autre. Nos politiques se font alors dire par l’opinion publique que les problèmes sont devenus critiques et qu’il faut « courageusement » les résoudre.

    Car les problèmes de société se laissent toujours ramener à un seul et unique problème : l’existence dans une société de gens « problèmes », de gens qui ne devraient pas y être et ne doivent plus y être. La réponse est toujours là avant la question. Il ne s’agit que de constituer la figure de cet autre et de prendre les mesures nécessaires à son encontre.

    C’est ici que la loi intervient. Et c’est en cela que consiste le « progrès » qui fait passer des mesures de circonstance à la généralité de la loi. Là où elle est censée régler un problème, la loi en fait le constitue. Elle dessine la figure unitaire de l’autre en unifiant les objets d’articles de loi ou de règlement séparés. Elle nous dit que c’est le même (mauvais) sujet qui s’introduit clandestinement pour chercher du travail et qui s’introduit légalement comme conjoint d’un mariage blanc. Elle fait un même étranger indésirable du jeune Français d’origine maghrébine, du travailleur sri-lankais sans papiers, de la femme algérienne qui vient accoucher à Marseille et du père de famille malien qui demande le regroupement familial. Elle unifie tous les cas en faisant circuler entre eux quelques notions, en faisant par exemple de « clandestin » le moyen terme entre « étranger » et « délinquant ».

    La loi, dit-on, permettra de séparer les « bons » étrangers des indésirables, donc de combattre le racisme qui repose sur les amalgames. C’est tout le contraire. Et le juge Marsaud a vendu la mèche. Il s’agit d’identifier « étranger » et « suspect » en ramenant toute altérité à la figure d’une clandestinité coupable. La loi objective le contenu de ce sentiment diffus, dit d’insécurité, lequel convertit lui-même en seul objet de peur une multitude de cas et de groupes qui causent à divers titres trouble ou désagrément à telle ou telle partie de la population. A partir de là, elle construit la figure une de l’objet à rejeter pour que la société soit sans problème : cet autre qui prolifère cancéreusement sur son corps. En liant les « mariages blancs » et le regroupement familial sous la représentation insistante de la polygamie musulmane, elle impose l’image de l’objet de peur et de rejet : la multitude proliférant sans loi. Et, face à cet autre, elle institue l’identité du peuple souverain avec la multitude de ceux qui ressentent la même peur.

    C¹est cela que veut dire consensus : non pas la niaise idylle des partenaires responsables discutant en commun des données et des solutions des problèmes objectifs, mais l’identifications immédiate du sujet qui a peur. Ce n’est pas sur l’opinion « raisonnable » que le consensus politique a coutume de s’instaurer mais sur la passion déraisonnable. Ce n’est pas d’abord entre soi que l’on consent mais contre l’autre. Consentir, c’est d’abord sentir ensemble ce qu’on ne peut pas sentir.

    Tel est le double cercle du consensus. C’est d’abord la complémentarité d’une politique niée, abdiquée devant la seule nécessité et les « problèmes de société » qui en sont le revers. Qui imagine sérieusement qu’un monde du travail déréglementé et déstructuré à outrance par ce consentement ne produise pas des phénomènes comme le travail clandestin, le déséquilibre des systèmes de protection sociale et la délinquance diffuse ? La conséquence en est, bien sûr, que cet État qui affiche sa modestie dans la gestion à la petite semaine des conséquences locales de la nécessité mondiale reprend allègrement du service dans la répression.

    Mais le consensus, c’est aussi la complémentarité de la position « raisonnable » des problèmes « objectifs » et de leur solution passionnelle. La transformation des choix et les conflits politiques en problèmes de société, c’est aussi la transformation de l’objet de problème en objet de haine. Un certain nombre de gens de gauche, désireux de marquer une réticence mais soucieux de manifester leur réalisme, se sont tirés d’embarras en prédisant que la loi ne serait pas « efficace ». Assurément, une loi contre ceux qui entrent illégalement sur le territoire est condamnée à l¹efficacité réduite de toute loi visant à atteindre ceux qui enfreignent la loi. Mais elle a toutes chances d’être efficace sur un autre terrain : pour entretenir le sentiment commun à l’égard des indésirables et la résolution des bons citoyens désireux de voler au-devant de la loi et d’aider concrètement à la réalisation de son objectif : l’« immigration zéro ».

    Le racisme n’est pas la conséquence malheureuse de problèmes de société que l’objectivité d’une politique consensuelle devrait régler. « Problèmes de société », réalisme consensuel et déchaînements racistes sont les éléments d’une seule et même configuration. Une décennie a emprisonné l’opinion de gauche dans cette logique. Le ressentiment des intellectuels à l’égard de leurs amours d’antan a fait le reste. Il est de bon ton de considérer que l’opposition au système insensé qui se met en place est réservé aux nostalgiques des vieilles lunes tiers-mondistes et à des jeunes sympathiques et un peu débiles qui confondraient la politique avec les réunions festives entre potes. Il faut en finir avec ce « réalisme » de quatre sous. Les réalistes sont toujours en retard d’un réel. S’opposer absolument au dispositif des trois lois scélérates, ce n’est pas manifester des bons sentiments démodés et ignorants des dures réalités de la politique. C’est au contraire restaurer, face aux illusions du réalisme gestionnaire et à ses conséquences criminelles, la dimension d’une action politique capable de supporter les divisions de la société et de prendre en charge les altérités. Le réalisme consensuel n’est pas la médecine douce qui guérira la société de ses monstres. C’est la nouvelle folie qui les entretient. C’est au contraire le dissentiment qui rend une société vivable. Et la politique, si on ne la réduit pas à la gestion et à la police d’État, est précisément l’organisation de ce dissentiment.

    http://www.bok.net/pajol/debat/presse/libe/ranciere0.html
    #migrations #histoire #gauche #droite #France #la_migration_comme_problème #migration_comme_problème #altérité #Rancière #altérisation

    On l’a évoqué hier soir autour de la table avec Sarah Mekdjian, @isskein et @karine4
    Je le mets ici pour archivage...

  • Gafam : et si la concurrence était le problème plutôt que la solution ?
    http://www.internetactu.net/a-lire-ailleurs/gafam-et-si-la-concurrence-etait-le-probleme-plutot-que-la-solution

    Pour atténuer les nombreux effets néfastes des grandes plateformes technologiques, certains gouvernements cherchent les moyens pour réintroduire de la concurrence dans les monopoles qu’imposent les plateformes. Nombreux sont ceux qui cherchent ainsi les moyens pour démanteler les Gafa, comme si la concurrence était le « mécanisme magique qui apprivoisera les géants, (...)

    #A_lire_ailleurs #Débats #Confiance_et_sécurité #Economie_et_marchés #régulation

  • #cryptocurrency Trading Looks Set for a Better Future with #regulation
    https://hackernoon.com/cryptocurrency-trading-looks-set-for-a-better-future-with-regulation-921

    Cryptocurrencies are gradually becoming mainstream across the globe with market capitalization nearing the 200-billion-dollar mark. What can regulation do for the industry?Bitcoinexchangeguide.com ImageWhen the cryptocurrency tsunami made landfall in the winter of 2017, it took the world by storm. It would appear that too many people, they thought it was a fad that would fade. However, two years since the initial bull run and surge in #bitcoin value, it now looks like cryptocurrency is here to stay. Despite the long crypto winter that only receded in 2019Q1, the demand for cryptocurrency is still robust.What gave Rise to the Demand for Regulation?The upheaval arose against cryptocurrencies when the deluge of ICOs swept through the globe like wildfire. The rush of ICOs looked too good to (...)

    #cryptocurrency-trading

  • Delivering Practical #privacy in #blockchain and DLT Applications
    https://hackernoon.com/delivering-practical-privacy-in-blockchain-and-dlt-applications-e4fbca82

    https://www.getreferd.com/blog/how-blockchain-can-change-healthcare/In the early days of crypto, privacy was a critical focus in blockchain development but difficult for the average user to achieve. From 2011–2014, creating multi-signature transactions was considered a cutting-edge technique that provided advanced users more privacy and security than executing standard peer-to-peer transactions alone. Now multisig is standard and more user friendly than ever. So, what’s changed in the last 5 years? And when can we expect blockchains to deliver practical privacy for non-technical users and businesses?New Privacy-Preserving ProtocolsBitcoin executes pseudo-anonymous transactions, meaning that transaction records are slightly obfuscated but can be figured out by analyzing the public (...)

    #distributed-ledgers #bitcoin #regulation

  • HABITER UNE ANCIENNE USINE À RIO DE JANEIRO. Les invasoes de l’#avenida_Brasil

    Depuis 2000, une nouvelle forme d’#habitat populaire et spontané surgit aux abords d’une ancienne #autoroute industrielle de Rio de Janeiro. Il s’agit de l’#occupation par des habitants des favelas d’anciens terrains d’usines abandonnées. A partir d’une recherche ethnographique, l’auteur dégage des aspects importants qui définissent ce type d’habitat : les formes d’#appropriation et de #régulation de l’espace, les caractéristiques de #leadership, les #conflits et #pratiques des habitants.


    http://www.editions-harmattan.fr/index.asp?navig=catalogue&obj=livre&no=44497

    #livre #habiter #habité #Rio_de_Janeiro #Brésil #urban_matter #favelas #favela #urbanisme #géographie_urbaine

    • #Recension : Maíra Machado-Martins, Habiter une ancienne usine à Rio de Janeiro : les invasões de l’Avenida Brasil

      Le livre de Maíra Machado-Martins est tiré d’une recherche doctorale portant sur les occupations de locaux industriels abandonnés par des populations pauvres de la zone nord de Rio. Le thème est original et il n’y avait pas jusque-là de publication disponible en français. D’anciens habitants de favelas ou de quartiers défavorisés se sont concertés pour occuper et réaménager de vastes usines laissées à l’abandon par leurs propriétaires le long de la longue Avenida Brasil qui traverse la ville d’est en ouest. Le but de ce livre est avant tout d’offrir une description de ce phénomène à partir de trois cas étudiés lors de visites au cours des années 2000. On découvre ainsi dans les premières pages du livre comment s’est réalisée la recherche, puis comment ont évolué les zones d’habitat étudiées.

      2Les premiers chapitres retracent une description minutieuse, photos à l’appui, de la structure physique des usines, des conditions de leur occupation et des modes d’organisation de la copropriété. Ils permettent de constater que les invasões (invasions) ne débutent pas par hasard. Ce sont en général d’anciens salariés des usines ou d’anciens policiers qui sont à l’origine de l’opération. Les choses ont en principe été mûrement préparées. Selon la configuration du bâti, la délimitation des logements a varié : construction de maisons dans les espaces vides ou découpage des bâtiments en appartement le long des coursives déjà existantes. Les premiers arrivés se sont octroyé les meilleurs espaces ou les ont conservés pour les louer ultérieurement. Ils ont également, en général, fixé les conditions de fonctionnement de la copropriété par la mise en place de syndics.

      3On est loin donc, dans les cas étudiés, d’invasions improvisées de terrains nus par des gens démunis prêts à construire des cabanes. Des règles ont été fixées pour la couleur et la disposition des logements, les installations collectives et leur usage, les règles de vie et l’électricité. Il peut y avoir gardien, piscine, parkings et commerces. Les passages décrivant les modes d’organisation sont particulièrement intéressants et montrent les immenses capacités d’adaptation et d’initiatives des Cariocas des quartiers pauvres. Des conflits, cependant, opposent parfois les habitants au sujet des mauvais payeurs des taxes collectives, du bruit ou des dégradations occasionnées par les enfants. Comme dans les favelas, la solidarité et l’esprit de collectivité ne sont pas forcément un caractère distinctif de cette forme hybride de logement ; d’où l’importance des syndics qui sont en fait des sortes de leaders communautaires auto-affirmés, souvent sur la base de leurs liens avec les milices parapolicières. Ils règlent les conflits, recueillent le courrier à distribuer, imposent les règles collectives et surtout ferment les portes des locaux aux trafiquants et aux délinquants.

      4Selon le degré de confort accessible, les populations concernées sont plus ou moins désargentées, mais la plupart des occupants rencontrés ont eu une expérience de vie dans les favelas des quartiers Ramos ou Maré. Les habitants apprécient dans cette forme nouvelle d’installation la possibilité de devenir propriétaires de logements ressemblants à des appartements de grands ensembles, à l’abri des exactions des trafiquants et sur la base d’un mode de vie organisé de façon à favoriser le respect mutuel. Certains, pourtant, retournent vivre dans le complexe de la Maré, après quelques années dans une usine envahie, sans que l’auteure puisse expliquer le phénomène.

      5Les informations obtenues grâce à l’observation et à des entretiens offrent donc un tableau vivant et précis des arrangements physiques et organisationnels qui guident la vie dans ce type de logements collectifs. On peut cependant regretter que la profondeur de l’analyse soit limitée. L’une des raisons est sans doute que l’auteure a une formation d’architecte et non de sociologue. Ainsi, le livre n’est pas construit autour de questions sociologiques claires et susceptibles de faire avancer la sociologie de l’habitat populaire au Brésil. Par ailleurs, les références mobilisées pour mettre en évidence les spécificités de l’objet sont parfois peu convaincantes. Par exemple, la littérature française sur les squats ne semble guère appropriée pour comprendre les invasions brésiliennes, tant l’ensemble du contexte social et juridique diffère. Certaines remarques montrent également que l’auteure n’a pas saisi à quel point l’impensé de son milieu d’origine peut conduire à des traces d’ethnocentrisme de classe : l’ouvrage aurait ainsi gagné à ne pas considérer implicitement que la référence allant de soi est le logement de classe moyenne et que les favelas et autres invasions relèvent de l’anomalie.

      6Les problèmes que rencontrent les occupants sont spécifiques (la forme de l’espace, les réseaux d’eau ou d’électricité qu’il faut adapter), mais aussi plus généraux (le bruit et la gêne découlant de la promiscuité). Certaines questions adressées aux occupants, comme les conditions de leur appropriation symbolique du logement, ne sont pas particulièrement justifiées, dans la mesure où elles peuvent être posées partout ailleurs. Deux problématiques intéressantes auraient ainsi pu être mieux développées, comme l’importance de la construction d’un ordre de vie réglementé et le déroulement exact des invasions (qui, malheureusement, n’a pas pu être étudié). L’idéal aurait été de replacer de façon approfondie le phénomène dans le contexte de l’analyse des stratégies concrètes de logement des gens de classes populaires de la zone nord.

      7Cependant, la faiblesse principale du livre vient certainement de la maigreur relative des données qui ont essentiellement été recueillies par le système de visites courtes et de discussions avec un nombre réduit de résidents. Cela oblige l’auteure à étoffer ses analyses par des comparaisons et des descriptions empruntées à d’autres phénomènes (squats français, favelas ou condominiums fermés au Brésil). On mesure ici l’intérêt qu’aurait pu avoir une enquête par observation participante de longue durée, par exemple en s’installant sur place. Cette méthode de recherche est cependant encore très rare au Brésil et Maíra Machado-Martins inaugure peut-être un courant intéressant de recherche sur les formes non conventionnelles de logement au Brésil.

      https://journals.openedition.org/cal/4203

    • #Maira_Machado-Martins est prof invitée pour un mois à l’université Grenoble Alpes...
      Elle a donné aujourd’hui une super conférence...
      L’#espace_habité - Récits des formes d’appropriation à Rio de Janeiro

      La recherche porte sur le formes d’appropriation de l’espace par les usagers/habitants dans la ville de Rio de Janeiro, dans l’habitat informel et dans les logements sociaux construits récemment au Brésil. Ce travail interroge, entre autres, la relation entre les transformations physiques des espaces, les pratiques quotidiennes des habitants et leur sociabilité, pour aboutir une réflexion sur la construction de l’espace habité.


      https://www.pacte-grenoble.fr/actualites/l-espace-habite-recits-des-formes-d-appropriation-a-rio-de-janeiro

    • Brésil / Stratégies et transformations du territoire : la construction sociale d’une copropriété populaire à Rio de Janeiro

      Comme dans la plupart des villes, l’urbanisation de Rio de Janeiro a démarré, dès le XVIe siècle, par le centre-ville. La ville s’est étendue selon un modèle d’extension concentrique, tout en conservant un tissu orthogonal, gagnant progressivement les montagnes et les marais par remblaiement des terrains. Ensuite, le processus d’expansion de la ville a pu être caractérisé par deux axes principaux depuis la zone du centre-ville : un vers le Nord et l’autre vers le Sud. Ce dernier a abouti dans la zone balnéaire, qui a bénéficié d’une planification urbaine prévue pour accueillir la zone d’habitat la plus sophistiquée de la ville. Du côté de la zone Nord, l’urbanisation s’est faite sans planification. Par exemple, l’implantation par l’État de réseaux de voies ferrées reliant le centre-ville et la périphérie Nord au XIXe siècle et la création des zones industrielles dans les années 1930 n’ont pas été accompagnées d’une programmation de logements. Cette opposition des formes de croissance urbaine, aggravée par les déséquilibres d’investissement de toutes sortes de la part des pouvoirs publics, génère globalement1 deux territoires à Rio de Janeiro. La zone Sud est structurée, riche2 et consolidée par rapport à sa fonction urbaine principale et majoritairement résidentielle. À l’inverse, la zone Nord présente des transformations importantes et constantes en ce qui concerne l’usage des sols, la formation de zones d’habitat et les mouvements de population.


      http://www.revue-urbanites.fr/bresil-strategies-et-transformations-du-territoire-la-construction-s

  • #Decryptage des grandes lignes de la future loi contre les contenus haineux présentée par Mounir Mahjoubi aujourd’hui.

    source : thread de Marc Ress (nextimpact) : https://twitter.com/reesmarc/status/1095977166641221633
    d’après le Plan d’action contre les contenus haineux en ligne : https://medium.com/@mounir/plan-daction-contre-les-contenus-haineux-en-ligne-10d396bfe71e

    A noter : nous sommes plein (dans le milieu dit « militant 2.0 ») a avoir eut du contenu bloqué de manière incompréhensible ces derniers jours : je pense que #facebook procède à des tests et qu’on va bientôt se faire nasser virtuellement de manière a rester encore plus dans les « bulles d’écho » comme disent les ricains déjà habitués. Je me questionne beaucoup sur le devenir de #twitter qui, jusqu’à présent semble avoir pas trop mal résisté, mais pour combien de temps encore ?

    //edit : pas encore lu mais un article de la super @laquadrature vient de sortir là dessus : Mahjoubi et Schiappa croient lutter contre la haine en méprisant le droit européen du coup je l’ajoute : https://www.laquadrature.net/2019/02/14/mahjoubi-et-schiappa-croient-lutter-contre-la-haine-en-meprisant-le-dr

    Mis en place par les plateformes d’un avertissement présentant les risques encourus en cas de production de contenus haineux ou illicites ["être haineux, tue" ?] 1/16

    La plateforme devra préciser les contenus visés par ces alertes (ça c’est bien, ça, ça ne l’est pas) 2/16

    Collaboration des réseaux sociaux avec les associations œuvrant dans l’éducation et l’information [comment ?] 3/16

    Explications des standards de modération par les plateformes (ça c’est bien, ça, ça ne l’est pas, bis) 4/16

    Rapprochement entre l’État, l’association et ces intermédiaires pour cibler les contenus les plus problématiques ?️5/16

    Ces standards seront audités et revus chaque année par un régulateur, non désigné (coucou le CSA ! Allume ton DX2/66, on arrive) 6/16

    Ce régulateur supervisera les outils de signalement pour qu’ils soient plus facilement identifiables et mobilisables en quelques secondes par les utilisateurs. ? point #GrosBoutonRouge 7/16

    Suggérer aux plateformes d’investir dans l’intelligence artificielle afin de prévenir la publication de contenus haineux. En somme un filtrage préventif, prédictif. Genre l’ #art13 étendu à la haine en ligne. Promis ! ça va marcher ! 8/16

    Mise en quarantaine des contenus considérés comme « illicites » (non LCEN) sans être « manifestement illicites » (LCEN). En somme, on abaisse le seuil de suppression dès qu’un contenu a une apparence un peu chelou. 9/16

    ouf ! les internautes dont les contenus ont été ainsi épinglés pourront faire "appel". "Bonjour Twitter, je suis celui qui a traité tel secrétaire d’état de #TêtedEnclume, pardon, je voulais pas, j’ai été mauvais, stupide, haineux" 10/16

    Obligation de retrait en quelques heures des « contenus à risque », qui pèsera avant tout sur les gros acteurs. Un régime à deux vitesses donc, les petits acteurs seront plus ou moins épargnés. Sous quel seuil ? Qu’est ce qu’un contenu à risque ? 11/16

    Obligation pour les plateformes de soutenir les victimes dans leurs démarches (plaintes, mise en relation avec des associations, mise en relation avec les services d’écoute) #3615Help 12/16

    Délai impératif imposé aux intermédiaires pour révéler aux autorités l’adresse IP et les autres données de connexion des internautes. Twitter pourra-t-il dire "niet !" si l’IP vise un contenu simplement "à risque" ? 13/16

    Dans le cadre d’une coopération avec les autorités, obligation pour les grosses plateformes d’identifier les auteurs récurrents des « contenus haineux ou dangereux ». Coucou #ligueduLOL mais pas que. 14/16

    Nouvelles procédures calibrées pour lutter contre les sites miroirs. Le site Démocratie Participative, qui a démultiplié les contournements après son blocage judiciaire, est cité en exemple. 15/16

    Une dernière, révélée sur @franceinter par @mounir : "Démocratie en ligne ? Zéro anonymat ! Il faut que les gens parlent en tant que citoyens, disent qui ils sont" 16/16 Merci pour l’attention. Bonne journée sur les Autoroutes Français de l’Information.

    Jamais. Jamais je n’avais entendu un membre du gouvernement français évoquer très sérieusement la piste de la "Détection automatique des contenus suspects".

    #reseaux_sociaux #regulation #censure

  • Le retour de l’informatique analogique
    http://www.internetactu.net/a-lire-ailleurs/le-retour-de-linformatique-analogique

    Pour cette nouvelle année 2019, l’historien des sciences Georges Dyson a écrit un curieux essai pour le fameux site des « digerati », edge.org. Pour lui, nous assistons à un retour de l’ordinateur analogique, qui constituera la prochaine révolution technologique. Rappelons que la technologie analogique repose sur les ondes (comme dans les (...)

    #A_lire_ailleurs #Futurs #algorithmes #régulation #société

  • #china Expands Oversight Over #blockchain with New Anti-Anonymity Regulations
    https://hackernoon.com/china-expands-oversight-over-blockchain-with-new-anti-anonymity-regulati

    China’s primary internet regulatory agency, the Cyberspace Administration of China (CAC), recently adopted a new policy, announced on its Website earlier this month, that would require all blockchain technology companies to collect certain identifying information from its users before offering any blockchain-related service.The new policy will be effective starting on February 15, 2019.Picture’s sourceBlockchain information service providers, defined as “entities or nodes” that offer information services and technical support to the public using blockchain technology via desktop sites or mobile applications, will be subject to the new regulations. After February 15, these companies will be obliged to register their names, domains and server addresses at the CAC within 20 days of offering (...)

    #cryptocurrency #regulation #investing

  • #blockchain #adoption Could Be Closer Than We Think
    https://hackernoon.com/blockchain-adoption-could-be-closer-than-we-think-e68bebaebca4?source=rs

    What does it mean when we say blockchain adoption? In 2017, it was all about how initial-coin-offering could disrupt the traditional means financing or fundraising. Couple that with astronomical growth in all major cryptocurrencies, everyone was over the moon with their investments in this coin and that coin.Then came 2018, the year that has been dubbed Crypto Winter. There were panic, tears and disgusts raging in both the retail camp and institutions. It was apparent on social media. Anyone who had invested in late 2017, would be underwater in their investments. As quickly as it came, the hype was gone and talks of getting rich from Crypto died (or rather postponed).The focus shifted from making money to the adoption of the underlying #technology: Blockchain. In 2017/early 2018, any (...)

    #regulation #blockchain-adoption

  • Pros And Cons of a More Regulated #blockchain Ecosystem
    https://hackernoon.com/pros-and-cons-of-a-more-regulated-blockchain-ecosystem-a8fb9595d242?sour

    Regulation — simply the word was once enough to send a shudder down the spine of the crypto community. One of the primary drivers behind the success of blockchain is a libertarian, anti-establishment set of beliefs, and conceding to regulatory bodies in an attempt to fit into the existing financial framework seems to go against the beliefs upon which the blockchain ecosystem was built. Yet it has become abundantly clear in the past year that in order for blockchain to succeed, there will need to be some degree of assimilation with the traditional way of doing things. Sure, blockchain as a technology has given rise to true peer-to-peer borderless transfer of value, and innovative ways to raise capital or invest in promising projects, but we have also seen the other side of the coin: (...)

    #regulation #blockchain-regulation #regulated-blockchain #hackernoon-top-story