Mis en place par les plateformes d’un avertissement présentant les risques encourus en cas de production de contenus haineux ou illicites ["être haineux, tue" ?] 1/16
La plateforme devra préciser les contenus visés par ces alertes (ça c’est bien, ça, ça ne l’est pas) 2/16
Collaboration des réseaux sociaux avec les associations œuvrant dans l’éducation et l’information [comment ?] 3/16
Explications des standards de modération par les plateformes (ça c’est bien, ça, ça ne l’est pas, bis) 4/16
Rapprochement entre l’État, l’association et ces intermédiaires pour cibler les contenus les plus problématiques ?️5/16
Ces standards seront audités et revus chaque année par un régulateur, non désigné (coucou le CSA ! Allume ton DX2/66, on arrive) 6/16
Ce régulateur supervisera les outils de signalement pour qu’ils soient plus facilement identifiables et mobilisables en quelques secondes par les utilisateurs. ? point #GrosBoutonRouge 7/16
Suggérer aux plateformes d’investir dans l’intelligence artificielle afin de prévenir la publication de contenus haineux. En somme un filtrage préventif, prédictif. Genre l’ #art13 étendu à la haine en ligne. Promis ! ça va marcher ! 8/16
Mise en quarantaine des contenus considérés comme « illicites » (non LCEN) sans être « manifestement illicites » (LCEN). En somme, on abaisse le seuil de suppression dès qu’un contenu a une apparence un peu chelou. 9/16
ouf ! les internautes dont les contenus ont été ainsi épinglés pourront faire "appel". "Bonjour Twitter, je suis celui qui a traité tel secrétaire d’état de #TêtedEnclume, pardon, je voulais pas, j’ai été mauvais, stupide, haineux" 10/16
Obligation de retrait en quelques heures des « contenus à risque », qui pèsera avant tout sur les gros acteurs. Un régime à deux vitesses donc, les petits acteurs seront plus ou moins épargnés. Sous quel seuil ? Qu’est ce qu’un contenu à risque ? 11/16
Obligation pour les plateformes de soutenir les victimes dans leurs démarches (plaintes, mise en relation avec des associations, mise en relation avec les services d’écoute) #3615Help 12/16
Délai impératif imposé aux intermédiaires pour révéler aux autorités l’adresse IP et les autres données de connexion des internautes. Twitter pourra-t-il dire "niet !" si l’IP vise un contenu simplement "à risque" ? 13/16
Dans le cadre d’une coopération avec les autorités, obligation pour les grosses plateformes d’identifier les auteurs récurrents des « contenus haineux ou dangereux ». Coucou #ligueduLOL mais pas que. 14/16
Nouvelles procédures calibrées pour lutter contre les sites miroirs. Le site Démocratie Participative, qui a démultiplié les contournements après son blocage judiciaire, est cité en exemple. 15/16
Une dernière, révélée sur @franceinter par @mounir : "Démocratie en ligne ? Zéro anonymat ! Il faut que les gens parlent en tant que citoyens, disent qui ils sont" 16/16 Merci pour l’attention. Bonne journée sur les Autoroutes Français de l’Information.
Jamais. Jamais je n’avais entendu un membre du gouvernement français évoquer très sérieusement la piste de la "Détection automatique des contenus suspects".