• Loi Avia : Jean-François Cesarini, Député EnMarche a ressuscité afin de voter !
    https://actu.orange.fr/politique/loi-avia-pourtant-decede-avant-le-vote-la-voix-d-un-depute-lrem-comptabi

    Selon une indiscrétion du Point, le vote du député Jean-François Cesarini a été comptabilisé parmi les 286 votes favorables à la l’instauration de la loi Avia. Seul problème : il est décédé six semaines avant le vote.
    Âgé de 49 ans, Jean-François Cesarini avait succombé à un cancer le 29 mars 2020 à Marseille.


    #miracle #résurrection #démocratie #vote #assemblée_nationnale de #morts_vivants #EnMarche #loi_avia #mort

  • La polémique Camélia Jordana ou l’inversion de la culpabilité | Slate.fr
    http://www.slate.fr/story/191094/polemique-camelia-jordana-violences-policieres-ministre-interieur-inversion-cu

    Je pourrais multiplier les exemples de féministes, de militant·es LGBT+ dont les comptes sont suspendus –sans doute à la suite de signalements massifs des masculinistes. Ce qui est troublant, c’est que j’ai aussi, parallèlement, pas mal d’exemples où des comptes publiant des messages véritablement sexistes, racistes, avec menaces de mort, n’ont jamais été suspendus malgré nos signalements répétés. Alors, à force, on commence à se demander pourquoi ce sont toujours les mêmes qui se trouvent réduit·es au silence.

    À mettre au dossier #loi_Avia. Il est aussi question de #violences_policières #violences_masculines #féminisme.

  • Rugy vole au secours d’Avia et charge Mediapart : « On cherche à démolir des personnes »
    https://www.lefigaro.fr/politique/rugy-vole-au-secours-d-avia-et-charge-mediapart-on-cherche-a-demolir-des-pe

    « Là aussi, on cherche non seulement à polémiquer mais à démolir des personnes », a déploré François de Rugy sur Sud Radio. L’ancien président de l’Assemblée nationale dénonce des motivations politiques dans les révélations du site d’investigation. « Tout le monde sait très bien que Laetitia Avia est ciblée parce qu’elle porte une loi qui veut lutter contre les contenus haineux sur internet, qui veut réguler de façon très modeste internet. Ça déplaît très fortement à Mediapart », a-t-il jugé. Lorsqu’il avait lui-même été sous le coup des accusations, l’ancien ministre s’était dit « victime d’une cabale, d’un lynchage ». « Ils ne se sont pas emparés d’un sujet mais d’une cible », avait-il même considéré, réclamant une meilleure « régulation » de la presse en ligne.

    #Rugy est de retour...
    #loi_Avia

  • « Non. Il ne faut jamais "faire quelque chose".

    Déjà parce que, dans la très grande majorité des cas, "faire quelque chose" c’est faire n’importe quoi. »

    Un remarquable texte de Laurent Chemla sur ce que les anglophones appelent le « do-sopething-itis », cette maladie, si répandue chez les politiciens français, qui coniste à dire que, puisque quelque chose (la propagande raciste, le terrorisme, le COVID-19…) est intolérable, alors il faut à tout prix faire quelque chose, sans réfléchir aux conséquences. Il développe plus spécialement le cas de la #loi_Avia.

    https://blogs.mediapart.fr/laurent-chemla/blog/150520/primum-non-nocere

    #primumActum

  • Haine en ligne : l’Assemblée nationale adopte la loi Avia, critiquée jusqu’à la fin
    https://www.lesechos.fr/tech-medias/hightech/haine-en-ligne-lassemblee-nationale-examine-la-loi-avia-critiquee-jusqua-la

    Clap de fin pour la proposition de loi Avia. Après un an de va-et-vient parlementaire et une pluie de critiques émises par des acteurs aussi divers que le Sénat, la Commission européenne, les géants du numérique et même certaines associations LGBT, l’Assemblée nationale a adopté, ce mercredi après-midi en troisième et dernière lecture, ce texte controversé porté par la députée LREM Laëtitia Avia visant à combattre la haine en ligne sur Internet. La France Insoumise (LFI) avait certes déposé une motion de rejet, soutenue par Les Républicains, mais au global la majorité macroniste l’a emporté. Le Parti Socialiste lui s’est abstenu.

    Les grandes plateformes comme Facebook ou YouTube, mais aussi les moteurs de recherche, les blogs et les forums, devront désormais retirer sous 24 heures tout contenu haineux « manifestement illégal » sous peine d’une amende pouvant atteindre 4 % de leur chiffre d’affaires mondial. Les contenus terroristes ou pédo-pornographiques, eux, devront être retirés en 1 heure, contre 24 heures aujourd’hui.

    La loi oblige aussi les plateformes à créer un bouton de signalement unique, donne de nouveaux pouvoirs au CSA et créé un parquet spécialisé sur le numérique (comme il existe un parquet antiterroriste, par exemple). Le texte doit également permettre de bloquer les sites haineux. « Certains de ces sites font 800.000 visites par mois, voilà où on est en » alerte Frédéric Potier, le délégué interministériel à la lutte contre le racisme, l’antisémitisme et la haine anti-LGBT (Dilcrah).

    […]

    Les décrets doivent maintenant préciser quelles sont les plateformes concernées à partir d’un seuil minimal d’utilisateurs. L’objectif étant de ne pas créer une charge trop lourde pour les sites français type Doctissimo ou BlaBlaCar qui n’ont pas les mêmes outils que les Gafa. Selon Laëtitia Avia, les décrets devraient entrer en vigueur « avant l’été ».

  • Haine en ligne : ce que contient la proposition de loi examinée par l’Assemblée
    https://www.lemonde.fr/pixels/article/2019/07/05/haine-en-ligne-que-contient-la-proposition-de-loi-dont-l-assemblee-vient-de-

    Il y a des bonnes choses dans cette loi. Dommage que les requêtes de la société civile n’aient pas été entendues : mieux définir la cible (la crainte est de voir le système détourné pour briser toute opposition) ; renforcer la place du judiciaire sur l’administratif ; réprimer les interdictions « préventives » (de contenus qui ne sont pas manifestement illégaux) ; garantir des conditions de travail correctes pour les personnes chargées de la régulation des contenu (un point très important, qui est complètement passé sous silence).

    Mais dans tous les cas, c’est le modèle économique des médias sociaux qu’il faut repenser, car il incite à la montée aux extrêmes.

    Quels contenus pourront être signalés ?

    On ne pourra pas signaler n’importe quel message. Le texte définit une liste précise de contenus interdits par divers articles de la loi française pour lesquels ce délai de vingt-quatre heures s’appliquera.

    Il s’agit :

    – des messages incitant à commettre des actes terroristes ;

    – des messages faisant l’apologie du terrorisme, des crimes de guerre ou des crimes contre l’humanité ;

    – des messages injurieux, incitant à haïr, à discriminer ou à commettre des violences sur des personnes en fonction de leur sexe, de leur orientation sexuelle, de leur identité de genre, de leur handicap, de leur ethnie, de leur nationalité, de leur « race » ou de leur religion ;

    – des messages constitutifs de harcèlement sexuel ;

    – des messages relevant du proxénétisme ou de la traite des êtres humains ;

    – des contenus pédopornographiques ;

    – des messages violents, pornographiques, portant gravement atteinte à la dignité humaine ou incitant des mineurs à se livrer à des jeux les mettant physiquement en danger susceptibles d’être vus par des mineurs.

    Ainsi, les insultes visant les personnes noires ou juives tombent sous le coup de la loi. Ce qui n’est pas le cas d’insultes simples (« casse-toi, pauvre con ») ou d’appels à la violence contre, comme l’auraient souhaité certains députés, les agriculteurs. Cela ne signifie pas que ces contenus sont légaux ou qu’ils sont nécessairement acceptés par les réseaux sociaux, mais simplement que le dispositif de la nouvelle loi ne s’y applique pas.

    Par ailleurs, il faut que le message signalé soit « manifestement illicite », c’est-à-dire qu’il n’y ait aucun doute possible sur son caractère illégal. Le gouvernement et la majorité assument parfaitement de ne pas viser tous les messages problématiques ou illégaux, mais simplement les pires. Certains députés craignent tout de même un risque de surcensure, car il est très difficile de distinguer ce qui est manifestement illicite ou non. Même pour un juge : la Cour de cassation a par exemple estimé que dire « l’homosexualité est une abomination » n’était pas une incitation directe à la violence en raison de son orientation sexuelle…

    Qui peut signaler ?

    N’importe quel internaute trouvant un contenu « manifestement illicite » pourra le signaler. Il lui suffira de fournir son nom, son prénom et son adresse e-mail (sauf si le réseau social sur lequel il est inscrit dispose de ces informations, auquel cas il ne doit rien fournir de plus) et les raisons pour lesquelles il demande le retrait de ce contenu. Signaler des contenus de mauvaise foi, en sachant qu’ils ne sont pas manifestement illicites, sera passible d’un an d’emprisonnement et de 15 000 euros d’amende.

    Les obligations des plates-formes numériques

    Le CSA ne va pas sanctionner un réseau social dès que ce dernier ne supprime pas, à tort, un contenu. Il va plutôt s’assurer que réseaux sociaux et moteurs de recherche respectent de grands principes et obligations généraux. Certaines obligations, évoquées plus tôt, concernent les informations données aux utilisateurs qui signalent des contenus ou sont les auteurs des contenus signalés.

    Réseaux sociaux et moteurs de recherche devront aussi proposer un dispositif de signalement « directement accessible et uniforme » : cela pourra être inséré dans les formulaires de signalement de contenus qui existent déjà chez tous les réseaux sociaux.

    Ils devront aussi mettre en œuvre des procédures, des moyens humains et/ou technologiques pour traiter correctement les demandes : à la fois pour se conformer au délai de vingt-quatre heures pour les contenus haineux mais aussi pour éviter tout retrait abusif. A noter que s’ils encourent une forte amende, voire de la prison, pour ne pas avoir supprimé un contenu, ils n’encourent rien sur le front pénal pour avoir supprimé à tort.

    Elles devront également désigner un représentant légal physique et formuler « en termes précis, aisément compréhensibles, objectifs et non discriminatoires » les règles qui définissent ce que les utilisateurs ont le droit, ou non, de poster sur leurs réseaux. Enfin, elles devront coopérer entre elles pour mieux lutter contre les contenus haineux, sans que cette coopération soit précisément définie par la loi.

    Bloquer les contenus déjà jugés

    Si un contenu haineux a été jugé par la justice comme étant illégal, alors l’autorité administrative (par exemple la police) pourra demander à l’hébergeur de supprimer et/ou de déréférencer ce contenu, voire aux fournisseurs d’accès à Internet de bloquer tout un site Internet, sans passer de nouveau par la case justice. Cette disposition est clairement inspirée par la décision de blocage prise à l’endroit du site Démocratie participative, qui est rapidement revenu en ligne sous une autre adresse que celle qui avait été bloquée.

    Enfin, un « observatoire de la haine en ligne » regroupant entreprises du numérique, associations et chercheurs pour observer le phénomène des messages haineux sur Internet, sera créé. Chaque année, le gouvernement présentera un rapport sur la manière dont fonctionne cette nouvelle loi.

    #Loi_Avia #Médias_sociaux

  • Pourquoi la loi Avia sur la haine en ligne fait l’unanimité contre elle
    https://www.latribune.fr/technos-medias/internet/pourquoi-la-loi-avia-sur-la-haine-en-ligne-fait-l-unanimite-contre-elle-82

    Qu’il s’agisse des fédérations professionnelles du numérique, des observateurs de la société numérique, ou des défenseurs des libertés, les acteurs du numérique français sont vent debout contre la loi Avia sur la haine en ligne, actuellement débattue à l’Assemblée nationale. Explications.

    Tout le monde s’accorde sur la nécessité de la loi Avia : il faut agir contre la haine en ligne et le cyberharcèlement. Oui, mais comment ? C’est là que le bât blesse, car plus les contours du futur texte se dévoilent, plus les acteurs du numérique français, de tous bords politiques et représentant des intérêts différents, se braquent contre le projet du gouvernement.
    Ce que prévoit la loi Avia

    La mesure phare de la proposition de loi de la députée LREM Laetitia Avia prévoyait à l’origine d’obliger les plateformes Internet à retirer en moins de 24 heures les contenus haineux signalés par les autorités ou par le public. Par contenus haineux, le texte entendait au départ les contenus comportant manifestement une incitation à la haine à raison de la race, de la religion, du sexe, de l’orientation sexuelle ou du handicap.

    Mais après son passage au Conseil d’Etat et en commission des lois, des députés ont élargi sa protée en proposant une série d’amendements. Les députés proposent ainsi d’étendre l’obligation de retrait en moins de 24 heures pour des infractions comme le harcèlement sexuel, la traite des êtres humains, le proxénétisme, la mise à disposition de mineurs à contenus pornographiques ou encore l’apologie du terrorisme. Les réseaux sociaux ne sont également plus les seules plateformes concernées : un amendement veut aussi soumettre à la loi les moteurs de recherche, pour déréférencer le contenu problématique.
    close
    volume_off
    Un texte « fourre-tout », trop de « contenus gris » à gérer

    D’une manière générale, les grandes entreprises du numérique et de l’internet affichent leur soutien au renforcement de la lutte contre la haine en ligne, et au principe d’un renforcement de la réglementation en la matière. Mais l’obligation de retrait de contenu en moins de 24 heures inquiète bon nombre de professionnels, dans la mesure où elle obligera les plateformes à décider très rapidement par elles-mêmes si tel ou tel contenu contrevient à la loi, au risque de générer une cascade de polémiques et de conflits juridiques.

    « Le texte s’est trop élargi, il devient fourre-tout. On se retrouve aujourd’hui avec des choses qui relèvent de la haine en ligne et des choses qui relèvent de la morale publique, comme le proxénétisme et la pornographie. Est-ce le rôle des plateformes de définir la morale publique et de pratiquer une forme de censure ? » s’interroge Loïc Rivière, le directeur général de Tech in France, qui représente les intérêts des plateformes.

    Ainsi, les trois organisations professionnelles du secteur -Syntec Numérique qui revendique 2.000 adhérents parmi les entreprises de l’informatique et du conseil en technologies, Tech in France qui groupe les intérêts de 400 entreprises du numérique, et l’Asic qui réunit des grands acteurs de l’Internet- ont publié une mise en garde commune contre « l’inefficacité » de la future loi si son périmètre reste aussi large.

    Selon eux, le texte « risque paradoxalement d’offrir moins de protection aux citoyens qui en ont pourtant le plus besoin » :

    "Le volume de contenus « gris » à traiter" en 24 heures, c’est-à-dire du contenu à la frontière, qui nécessite un examen approfondi pour savoir s’il doit être retiré ou pas, serait tellement important que les plateformes n’auraient pas les moyens de les traiter, devenant ainsi inefficaces", déplore Loïc Rivière.

    Le texte commun aux trois organisations professionnelles demande davantage de « proportionnalité », avec une « gradation » en fonction de la gravité des messages concernés.

    "On attribue aux réseaux sociaux et aux moteurs de recherche un rôle de régulation des contenus et de référencement des contenus « acceptables » qui sort de leurs obligations sociétales peuvent s’apparenter à de la censure, et pose des problèmes de légitimité", ajoute le dirigeant.

    Flou juridique et atteintes aux libertés pour les défenseurs des droits de l’internaute

    Pour Salwa Toko, la présidente du Conseil national du numérique (instance consultative qui rassemble à la fois acteurs associatifs et professionnels de l’internet), le texte ne parvient pas à bien clarifier quels contenus les plateformes doivent accepter, et quels contenus elles doivent refuser.

    La proposition de loi « ne donne pas une définition juridique et bien précise », souligne-t-elle. Elle rejoint les acteurs professionnels sur l’avis que ce n’est pas à Facebook, Twitter, YouTube ou Google de déterminer ce qui censurable et ce qui ne l’est pas.

    « Nous regrettons que le pouvoir judiciaire ne soit pas plus mis en avant et ne soit pas plus renforcé. On se demande s’il n’y a pas là un glissement de responsabilité étatique qui est en train de se mettre en place, au profit des acteurs économiques » que sont les grandes plateformes internet, a-t-elle ajouté.

    Ne pas supprimer un contenu haineux pourra leur valoir une amende (jusqu’à 1,25 million d’euros, en l’état actuel du texte), mais censurer à tort tel ou tel militant, acteur public ou simple internaute provoquera de rudes polémiques, voire même des poursuites.

    Pour les défenseurs des libertés, notamment La Quadrature du Net, les plateformes seront en fait poussées à « sur-modérer », c’est-à-dire à censurer des contenus contestables « par précaution », simplement pour ne pas prendre le risque de se voir infliger l’amende. Avec un risque d’instrumentalisation par le pouvoir politique. Occupés à trier les contenus de la zone grise, c’est-à-dire les contenus choquants, contestables mais pas forcément illégaux, les plateformes pourraient censurer d’office tout contenu signalé par une autorité officielle, comme la police, craint l’association.

    Les plateformes « n’auront d’autres choix que de réaliser un examen sommaire, ou un retrait quasi-automatique, des contenus signalés par leurs partenaires jugés les plus fiables » dont l’OCLCTIC, le service de la police spécialisé contre les infractions en ligne, estime la Quadrature du Net."En pratique, cela permettra au gouvernement d’usurper l’autorité judiciaire, qualifiant lui-même les infractions contre lesquelles il prétend lutter et imposant cette qualification aux plateformes", avertit-elle.

    #Loi_Avia #Médias_sociaux #Régulation

  • Lettre ouverte collective sur la PPL Cyberhaine
    http://g5nx.mjt.lu/nl2/g5nx/mvq98.html?m=AMMAAEGMoicAAcgEAqQAAGbveFMAARpaD8cAGpz2AAct2wBdG5WB8ryKbPNRSw

    La propagation des contenus haineux a des conséquences particulièrement nocives pour notre démocratie et pour les citoyens. Il est plus que jamais nécessaire de lutter contre ce phénomène. La proposition de loi visant à lutter contre la haine sur Internet actuellement en examen à l’Assemblée nationale entend ainsi traiter un pan de la problématique en renforçant la responsabilité des opérateurs de plateformes dans la modération des contenus en ligne. Cette exigence est légitime et nécessaire. Toutefois, ce texte soulève des inquiétudes quant à ses conséquences sur nos droits et libertés, et notamment les libertés d’expression et d’information ou d’accès à la justice.

    Nous devons impérativement penser la cohérence de ces textes afin d’assurer une régulation efficace des plateformes. Celle-ci ne peut reposer que sur une approche systémique, c’est-à-dire veiller aux systèmes eux-mêmes, plutôt qu’aux contenus. Comme le recommande la mission « Régulation des réseaux sociaux » dans son rapport paru en mai dernier, il convient de mettre en œuvre une régulation visant à renforcer les obligations de transparence et de diligence de ces acteurs. À ce jour, deux points figurant dans la version actuelle de la loi bousculent l’équilibre fragile entre la dignité humaine et la liberté d’expression, au détriment de cette dernière.

    1. Le manque de définition des contenus visés par la loi

    La définition des contenus de haine en ligne est complexe, elle fait encore l’objet de discussions juridiques et académiques. Eu égard au périmètre et à la nature de l’intervention qu’il induit, l’objet de ce texte doit être précisé et doit reposer sur des définitions claires, en particulier en ce qui concerne le caractère « manifestement » illicite d’une « incitation à la haine » ou d’une « injure discriminatoire » à raison de « la race, de la religion, du sexe, de l’orientation sexuelle ou du handicap ». Lors du dernier examen de la commission des lois au sein de l’Assemblée nationale, ce périmètre a été étendu au-delà des seules infractions de haine manifeste qui étaient auparavant visées par le texte.

    2. La préservation de nos libertés fondamentales par le renforcement de la place du juge judiciaire

    Si la position et le comportement des grands acteurs du numérique posent la question de la préservation de notre souveraineté, il est contradictoire de fragiliser cette dernière en donnant aux plateformes des prérogatives propres au domaine du droit et de la justice. Seule la décision de justice, issue du pouvoir de l’État institué démocratiquement, est acceptable quand il s’agit de censurer un propos, acte « particulièrement radical » comme le qualifie le Conseil d’État dans son avis. La protection de nos droits fondamentaux repose sur l’équilibre des pouvoirs démocratiques.

    Nicolas Chagny, Président de l’Internet Society France ; Christiane Féral-Schuhl, Présidente du Conseil national des barreaux ; Henri Isaac, Président de Renaissance Numérique ; Jacques-François Marchandise, Délégué général de la Fing ; Julie Owono, Directrice exécutive de l’Internet Sans Frontières ; Malik Salemkour, Président de la Ligue des droits de l’homme ; Salwa Toko, Présidente du Conseil national du numérique

    #Loi_Avia #Liberté_expression #Internet