• Sur Instagram, la prime secrète à la nudité : se déshabiller pour gagner de l’audience | Mediapart
    https://www.mediapart.fr/journal/international/150620/sur-instagram-la-prime-secrete-la-nudite-se-deshabiller-pour-gagner-de-l-a

    Si elle pose souvent à la plage, ce n’est pas que Sarah cherche à vendre des maillots de bain à ses dizaines de milliers de followers. « C’est que, pour avoir de l’audience, il faut poster des photos de soi, et encore plus en maillot », résume l’entrepreneure.

    Il n’est pas facile d’avoir accès à la parole de ceux qu’on appelle les influenceurs, ces nouvelles formes de travailleurs indépendants, à 75 % des travailleuses. Toutes et tous craignent de faire un faux pas et d’être radiés de la plateforme.

    Mais l’ensemble de celles et ceux que nous avons rencontré·e·s sont unanimes : sur Instagram, être déshabillé·e paie. Yasmine K., autrice de Body Positive Attitude, qui tient la page @ely_killeuse : « Presque toutes mes photos les plus likées sont soit moi en sous-vêtement, soit moi en maillot de bain. » « Le taux de couverture explose dès qu’on se dénude un peu », confirme Juliette A., professeure de yoga, micro-influenceuse (sont dites micro-influençeuses les personnes suivies par 10 000 abonnés ou moins) qui tient la page @ju_de_peche.

    Même retour d’expérience du côté des hommes. Ainsi de Basile*, professeur de sport suivi par 120 000 personnes : « Mes photos les plus likées sont celles où je suis presque nu. » « C’est très difficile d’obtenir beaucoup de likes sur Instagram. Alors, je fais comme tout le monde ! Mes photos les plus populaires sont les plus provocantes », ajoute Francisco*, suivi par le même nombre d’abonnés.

    95 millions de photos sont postées chaque jour sur le réseau social. Toutes ne bénéficient pas de la même exposition et certaines images postées par les personnes que vous suivez n’arriveront jamais dans votre newsfeed. Avant 2016, les images étaient présentées dans un ordre chronologique : dernière photo postée, dernière photo affichée. Ce n’est plus le cas aujourd’hui.

    Quand Sarah poste une photo d’elle, un algorithme de vision par ordinateur détermine en quelques microsecondes le destin de cette image. Quelques microsecondes durant lesquelles opère une machinerie complexe, sophistiquée et extrêmement opaque, un concentré de toutes les logiques de pouvoir à l’œuvre dans la société.

    Le fonctionnement de l’algorithme d’Instagram est maintenu secret par l’entreprise. À moins d’avoir accès à des documents internes, ce secret restera bien gardé. Il est toutefois possible de s’en approcher. La consultation du brevet intitulé « Feature extraction based image scoring » (que l’on peut traduire par « Notation d’image basée sur l’extraction de caractéristiques »), déposé en 2015 par deux ingénieurs de Facebook, l’entreprise détenant Instagram, permet de se représenter à quoi ressemble le voyage d’une image une fois qu’elle est envoyée dans les serveurs d’Instagram.

    Selon ce document, quand Sarah poste une photo ou une vidéo, celle-ci se voit automatiquement analysée et notée : il lui est délivré un « score d’engagement » qui correspond à la « probabilité que tous les utilisateurs ont d’interagir avec un objet multimédia donné ».
    Ce score d’engagement varie en fonction de plusieurs facteurs et selon les utilisateurs. Si Sarah pose sur une moto, sa photo aura une meilleure note, donc davantage de chance d’apparaître dans le newsfeed d’amateurs de motos. Mais certains critères transcendent les goûts personnels, comme « le genre », « l’ethnicité » et enfin, selon l’expression choisie par les ingénieurs de la firme, le « state of undress », ou « niveau de nudité », selon notre traduction.

    « L’interface de programmation peut évaluer le niveau de nudité des personnes sur une image, en détectant des bandes de couleurs spécifiques, identifiées comme des nuances couleurs de peau », indique le document.

    Instagram utilise-t-il aujourd’hui cette technologie qu’il a inventée pour calculer le « niveau de nudité » de chaque photo postée ? Ce « niveau de nudité » sert-il à mettre en avant les images montrant le plus de peau ? Comment fonctionne ce « nuancier de couleurs de peau » ? Quel rôle joue l’ethnicité dans le calcul du score d’engagement ?

    Le réseau social a refusé de répondre à ces questions. Un porte-parole de l’entreprise a toutefois indiqué que l’application « organise les posts dans les newsfeeds en fonction des comptes suivis et appréciés, pas en fonction de critères arbitraires comme la présence d’un maillot de bain », rebondissant sur le critère « maillot de bain », mais ne répondant sur celui de la nudité ou de l’ethnicité.

    Une autre façon de comprendre comment est construit un algorithme est de pratiquer la rétro-ingénierie : étudier le fonctionnement extérieur d’un objet pour en déterminer le fonctionnement. Nous avons donc, avec le soutien financier de l’European Data Journalism Network et Algorithm Watch, la statisticienne Kira Schacht et le développeur Édouard Richard, analysé 1 737 publications contenant 2 400 images postées sur Instagram entre février et mai 2020, et calculé leur taux d’exposition.

    Nous avons demandé à 26 volontaires d’installer une extension sur leur navigateur et de suivre une sélection de 37 personnes (dont 14 hommes), issues de 12 pays différents. Sur les 2 400 photos analysées entre février et mai, 362, soit 21 %, représentaient des corps dénudés. Pourtant, ces photos représentaient 30 % de la masse totale des photos montrées.

    Les effets délétères des réseaux sociaux sur notre santé mentale et notre estime personnelle sont régulièrement documentés par les spécialistes. Quiconque a déjà ouvert Instagram a déjà ressenti ce vague à l’âme face à ces kilomètres d’images de vies idéalisées, de poses sur tapis de yoga et de corps jeunes et beaux. « Facebook prouve que tout le monde est ennuyeux, Twitter que tout le monde est horrible, mais Instagram vous fait croire que tout le monde est parfait, sauf vous », écrit Alex Hern, journaliste réseaux sociaux, dans The Guardian.

    Une étude anglaise menée en 2017 par la RSPH (Royal Society for Public Health, association pour la défense de la santé publique) établit qu’Instagram est le réseau social poussant le plus au suicide les jeunes adolescentes, en leur renvoyant une image de perfection inatteignable et insoutenable.

    La terreur d’une « radiation de l’ombre »

    Cette prime à la nudité vient aussi questionner l’organisation du travail dans notre société. Les influenceurs avec qui nous avons échangé ont souhaité pour leur grande majorité témoigner de façon anonyme. Yasmine de @Ely_killeuse a accepté de parler en son nom car elle exerce un autre métier à côté : « C’est pour moi la condition numéro un. Pour conserver ma liberté – et ma santé mentale ! » Pour les autres, une menace rôde s’ils s’expriment dans la presse et osent questionner la plateforme : celle du « shadow ban ».

    Le « shadow ban », ou « radiation de l’ombre » selon notre traduction, est une pratique mise en place par Instagram où les posts et stories d’un utilisateur ne sont plus montrés, sans que ce dernier soit mis au courant et puisse donc le contester. Soit une mise à mort économique pour qui compte sur Instagram pour que son activité existe.

    Si Instagram encourage implicitement une certaine forme de nudité « douce », les images jugées « obscènes » ou la nudité totale sont, elles, proscrites. La différence entre les deux est parfois ténue et les faux positifs de l’algorithme fréquents. Ces faux positifs semblent frapper les corps hors des canons de beauté avant les autres, à en croire les résultats d’une étude menée en 2019 par l’association de défense des droits des personnes transgenres Salty.

    Les personnes handicapées, obèses, racisées ou LGBT+ sont vastement représentées parmi les « victimes » du « shadow ban » ou se voient régulièrement refuser de réaliser des campagnes de publicité. Ainsi, en décembre, une artiste brésilienne s’est vu refuser la possibilité de promouvoir un de ses posts, au motif qu’il contenait des images violentes. Il représentait un jeune garçon sur un skate et un pilote de course, David Hamilton. Les deux étaient noirs. En avril, une professeure de yoga racisée s’est aussi vu refuser une publicité jugée obscène : elle faisait pourtant seulement la position du corbeau.

    Le « shadow ban » peut représenter pour ces comptes une forme de mise à mort économique. Est-ce une nouvelle forme de discrimination professionnelle ? « Les professionnels des réseaux sociaux ne sont pas protégés, déplore Miriam Kullmann, professeur à l’université de Vienne. Les lois européennes anti-discrimination sont pensées pour les travailleurs salariés ou employés. »

    #Instagram #Nudité #Digital_labour #Travail #Influenceurs

  • Facebook needs 30,000 of its own content moderators, says a new report | MIT Technology Review
    https://www.technologyreview.com/2020/06/08/1002894/facebook-needs-30000-of-its-own-content-moderators-says-a-new-repo

    Imagine if Facebook stopped moderating its site right now. Anyone could post anything they wanted. Experience seems to suggest that it would quite quickly become a hellish environment overrun with spam, bullying, crime, terrorist beheadings, neo-Nazi texts, and images of child sexual abuse. In that scenario, vast swaths of its user base would probably leave, followed by the lucrative advertisers.

    But if moderation is so important, it isn’t treated as such. The overwhelming majority of the 15,000 people who spend all day deciding what can and can’t be on Facebook don’t even work for Facebook. The whole function of content moderation is farmed out to third-party vendors, who employ temporary workers on precarious contracts at over 20 sites worldwide. They have to review hundreds of posts a day, many of which are deeply traumatizing. Errors are rife, despite the company’s adoption of AI tools to triage posts according to which require attention. Facebook has itself admitted to a 10% error rate, whether that’s incorrectly flagging posts to be taken down that should be kept up or vice versa. Given that reviewers have to wade through three million posts per day, that equates to 300,000 mistakes daily. Some errors can have deadly effects. For example, members of Myanmar’s military used Facebook to incite genocide against the mostly Muslim Rohingya minority in 2016 and 2017. The company later admitted it failed to enforce its own policies banning hate speech and the incitement of violence.

    If we want to improve how moderation is carried out, Facebook needs to bring content moderators in-house, make them full employees, and double their numbers, argues a new report from New York University’s Stern Center for Business and Human Rights.

    “Content moderation is not like other outsourced functions, like cooking or cleaning,” says report author Paul M. Barrett, deputy director of the center. “It is a central function of the business of social media, and that makes it somewhat strange that it’s treated as if it’s peripheral or someone else’s problem.”

    Why is content moderation treated this way by Facebook’s leaders? It comes at least partly down to cost, Barrett says. His recommendations would be very costly for the company to enact—most likely in the tens of millions of dollars (though to put this into perspective, it makes billions of dollars of profit every year). But there’s a second, more complex, reason. “The activity of content moderation just doesn’t fit into Silicon Valley’s self-image. Certain types of activities are very highly valued and glamorized—product innovation, clever marketing, engineering … the nitty-gritty world of content moderation doesn’t fit into that,” he says.

    He thinks it’s time for Facebook to treat moderation as a central part of its business. He says that elevating its status in this way would help avoid the sorts of catastrophic errors made in Myanmar, increase accountability, and better protect employees from harm to their mental health.

    It seems an unavoidable reality that content moderation will always involve being exposed to some horrific material, even if the work is brought in-house. However, there is so much more the company could do to make it easier: screening moderators better to make sure they are truly aware of the risks of the job, for example, and ensuring they have first-rate care and counseling available. Barrett thinks that content moderation could be something all Facebook employees are required to do for at least a year as a sort of “tour of duty” to help them understand the impact of their decisions.

    The report makes eight recommendations for Facebook:

    Stop outsourcing content moderation and raise moderators’ station in the workplace.
    Double the number of moderators to improve the quality of content review.
    Hire someone to oversee content and fact-checking who reports directly to the CEO or COO.
    Further expand moderation in at-risk countries in Asia, Africa, and elsewhere.
    Provide all moderators with top-quality, on-site medical care, including access to psychiatrists.
    Sponsor research into the health risks of content moderation, in particular PTSD.
    Explore narrowly tailored government regulation of harmful content.
    Significantly expand fact-checking to debunk false information.

    The proposals are ambitious, to say the least. When contacted for comment, Facebook would not discuss whether it would consider enacting them. However, a spokesperson said its current approach means “we can quickly adjust the focus of our workforce as needed,” adding that “it gives us the ability to make sure we have the right language expertise—and can quickly hire in different time zones—as new needs arise or when a situation around the world warrants it.”

    But Barrett thinks a recent experiment conducted in response to the coronavirus crisis shows change is possible. Facebook announced that because many of its content moderators were unable to go into company offices, it would shift responsibility to in-house employees for checking certain sensitive categories of content.

    “I find it very telling that in a moment of crisis, Zuckerberg relied on the people he trusts: his full-time employees,” he says. “Maybe that could be seen as the basis for a conversation within Facebook about adjusting the way it views content moderation.”

    #Facebook #Moderation #Travail #Digital_labour #Modérateurs

  • (1) Une employée d’Amazon raconte « la peur organisée » - Libération
    https://www.liberation.fr/futurs/2013/12/17/une-employee-d-amazon-raconte-la-peur-organisee_967185

    « C’est en tant que pickeuse que j’ai découvert l’univers d’Amazon. L’univers du code-barres. Tout a un code-barres chez Amazon : les articles, les 350 000 emplacements sur les étagères, les chariots qui servent à déplacer les produits commandés, les gens qui poussent ces chariots, les imprimantes, les voitures. Les scannettes portatives dont chacun est équipé pour lire les codes-barres ont aussi un code-barres. Elles sont reliées au réseau wi-fi, qui peut les localiser dans l’entrepôt. Tout a une réalité physique doublée d’une existence informatique. Les managers qui sont derrière leur ordinateur savent en temps réel, grâce à ces outils, où se trouve un livre, sur quel chariot il a été enregistré, quel intérimaire pousse le chariot, où il se déplace dans l’entrepôt, à quelle heure il s’est mis au travail en scannant son code-barres personnel, quelle a été la durée exacte de sa pause, et combien d’articles il "picke" par heure. Cette productivité personnalisée est évaluée en permanence, et des managers viennent trouver individuellement chaque picker pour lui donner sa performance et le conseiller si celle-ci n’est pas satisfaisante. "Il faut être plus dynamique, tu perds trop de temps en ramenant les articles à ton chariot, tu es à 85 articles par heure", m’a lancé un jour un manager au détour d’un rayon, alors que je n’avais jamais vu cette personne auparavant. Mais les remontrances peuvent aussi prendre une forme numérique. Si vous garez par exemple votre chariot sur un emplacement gênant, le code-barres qui y figure permet de savoir que c’est le vôtre, et vous recevez un message sur l’écran de votre scan : "Merci de garer ton chariot sur les emplacements autorisés."

    « Il est temps de picker »
    « Aux outils de surveillance, il faut ajouter des centaines de caméras, des agents de sécurité qui arpentent les allées toute la journée, et qui peuvent fouiller les salariés au détecteur de métal à la sortie de l’entrepôt. Enfin, plus diffus, la peur de la délation et le fantasme d’une surveillance sans limites comptent pour beaucoup dans la docilité générale. On ne sait pas de qui exactement il faut se méfier, qui est ami avec les managers ou veut le devenir, on ignore jusqu’où exactement va le pistage informatique… Et, dans le doute, pour aborder la moindre question un tant soit peu polémique, le réflexe est toujours de parler discrètement, et à voix basse.

    « "Les salariés qui sont aujourd’hui embauchés en CDI ont commencé comme vous, en intérim. Si vous vous montrez productifs, et que vous avez un bon comportement, vous avez peut-être un avenir chez Amazon." C’est par ces mots que nous accueille un responsable le premier jour. La productivité est à partir de ce moment-là une obsession, qui ressort dans toutes les conversations. En tant que picker, nous devons rassembler plus d’une centaine d’articles par heure, en arpentant les rayons sur une distance cumulée de 15 à 25 kilomètres selon notre rapidité et selon la dispersion des articles qui défilent sur l’écran de notre scan. Cet objet nous guide parmi les étagères, nous indiquant les coordonnés du prochain article à attraper : l’entrepôt est divisé en zones, subdivisées en allées, elles-mêmes subdivisées en profondeurs d’allée, puis en hauteurs d’étagère. Le parcours est programmé automatiquement de façon rationnelle pour minimiser les distances d’un point à un autre, et aussitôt que les coordonnées d’un livre s’affichent un compte à rebours de quelques secondes défile avec cette phrase : "Il est temps de picker." Le nombre total d’articles restant à picker, et le temps imparti pour les rassembler tous, apparaît en dessous. Dans l’empressement général, la mise en concurrence joue à plein, sinon parce que le CDI est un sésame à décrocher, au moins parce que le non-renouvellement du contrat d’intérim est une épée de Damoclès au-dessus de chaque tête. Certains, pourtant, à qui j’ai demandé la raison de leur zèle n’invoquent pas toujours d’emblée l’angoisse d’être "éjectés" (même si cette peur est invariablement mentionnée dans ces termes). Ils veulent battre des records, "comme ça, pour la performance", et la reconnaissance qui va avec. Un bon salarié peut être porté aux nues comme étant élu "associate de la semaine" par les managers qui l’applaudissent tous en chœur. Aller aux toilettes qui se situent à l’extrémité de l’entrepôt fait dégringoler votre "prod". Pousser son collègue pour se saisir en premier d’un chariot la fait grimper. L’idéal (et c’est d’ailleurs la norme) étant d’arriver à l’avance le matin pour préparer scan et chariot et gagner de précieuses minutes qui feront peut-être la différence. C’est aussi cela, "avoir un bon comportement". A l’embauche, le mail de l’agence d’intérim précisait noir sur blanc : "Il faut arriver un quart d’heure à l’avance, ils aiment bien."

    « Ne vous couchez pas trop tard »
    « Avoir un bon comportement, c’est par ailleurs accepter les heures supplémentaires. Au matin du 2 décembre, lorsque nous arrivons à l’entrepôt vers 5h30, l’équipe de nuit, qui finit habituellement bien avant, est encore là. Le discours d’accueil, qu’une manageuse fait quotidiennement pour commencer la journée, nous invite aujourd’hui à rester une demi-heure de plus pour faire face à une augmentation inattendue des commandes : "L’équipe de nuit a fait l’effort, comme vous l’avez vu. Nous vous demandons de le faire aussi, pour que l’équipe suivante n’ait pas une charge de travail insurmontable !" Dans cette ambiance d’hyperindividualisation, elle évoque soudain l’esprit d’équipe et la solidarité. Ce n’est pourtant pas cela qui fait mouche : les gens restent parce qu’ils tiennent à leur emploi.

    « Ce discours d’accueil servi chaque matin à 5h50, au moment de la prise de poste, vise à motiver les troupes, à annoncer le nombre de commandes qu’il faudra préparer pour la journée, à prévenir les erreurs constatées la veille… ou à donner des conseils sur le rythme de vie à avoir lorsqu’on travaille chez Amazon : ne vous couchez pas trop tard, n’hésitez pas à faire une sieste, mettez une lumière forte au réveil pour aider l’organisme à se mettre en route, mangez bien à la pause… Cette dernière injonction est tout à fait paradoxale. Les deux pauses de vingt minutes qui nous sont accordées ne laissent en aucun cas le temps de bien manger. Si vous en avez l’intention, il faut traverser tout l’entrepôt (trois à quatre minutes), passer par le poste de sécurité, rejoindre votre casier pour prendre votre pique-nique et atteindre la salle de pause. Là, il faut en fait choisir entre avaler une bouchée de sandwich et aller aux toilettes, faire les deux étant assez ambitieux puisque vous devez avoir fait le chemin en sens inverse et retrouvé votre chariot lorsque retentit la sonnerie qui annonce la reprise du travail. Une remarque laconique accueille les retardataires : "Jeune fille, en retard !"

    « La pression est énorme, la fatigue difficile à gérer. L’ambiance est à la méfiance. Tout est verrouillé. Avant de signer un contrat de travail, il faut parapher trois pages qui nous engagent à la confidentialité la plus totale. Rien ne doit sortir de l’entrepôt, et raconter quoi que ce soit à des concurrents, bien sûr, mais aussi à vos amis et à votre famille peut vous être reproché. La peur organisée, la surveillance de nos moindres faits et gestes, et la contestation réduite au silence, c’est ce qui se joue chaque jour sous les néons de l’entrepôt d’Amazon, avec, pour principale arme de persuasion, la promesse d’un emploi. »

    (1) Le prénom a été modifié.

    LIBERATION

    #Amazon #Travail #Digital_labour

  • Comment les youtubeurs se font financer par leur communauté
    https://www.ladn.eu/media-mutants/reseaux-sociaux/comment-youtubeurs-font-financer-communaute

    Pour éviter d’être à la merci de la monétarisation aléatoire de YouTube, certains créateurs de contenu préfèrent jouer la carte de la communauté et du financement participatif.

    Imaginez que chaque matin vous alliez au travail sans vraiment savoir ce qu’on attend de vous. Vos horaires de bureau changent tout le temps et vous effectuez des tâches sans savoir si c’est que votre boss attend de vous. Par ailleurs, ce dernier ne vous paye jamais la même somme et change les termes de votre contrat sans vous dire vraiment quelles sont les règles précises. Tout ce que vous savez, c’est qu’il faut toujours produire plus, pour espérer lui plaire et assurer un salaire minimum pour vivre.
    Dans l’enfer de YouTube

    Ce cauchemar professionnel a de quoi vous mener directement au burn-out. Il s’agit pourtant d’une réalité vécue par les milliers de créateurs de contenu qui officient sur YouTube. Ces derniers ne sont jamais assurés que leurs revenus basés sur la publicité vont tomber : on n’est jamais à l’abri d’un changement d’algorithme ou d’une démonétisation pour cause de sujet jugé touchy par les annonceurs.

    #YouTube #Monétisation #Digital_labour

  • Assistant vocal d’Apple: le calvaire des salariés
    https://www.mediapart.fr/journal/international/300819/assistant-vocal-d-apple-le-calvaire-des-salaries

    À la fin du mois de juillet, « The » "Guardian" et « El País » révélaient que des centaines de personnes étaient chargées d’écouter les conversations d’utilisateurs de Siri, l’assistant vocal d’Apple, afin de corriger ses résultats. Après avoir suspendu le programme qui reprendra à l’automne, la société vient d’annoncer le licenciement de 300 salariés. Mediapart a rencontré certains d’entre eux et s’est procuré des documents détaillant leur travail.

    #NUMÉRIQUE #Digital_labour,_Siri,_Micro-travail,_Apple,_GAFAM,_vie_privée,_A_la_Une

  • UP Magazine - Enquête sur les travailleurs clandestins du clic
    http://www.up-magazine.info/index.php?option=com_content&view=article&id=8301:enquete-sur-les-trav

    Dans son nouvel ouvrage intitulé En attendant les robots, enquête sur le travail du clic (Seuil, 2019), Antonio Casilli explore ainsi l’émergence d’un capitalisme de surveillance, opaque et invisible, marquant l’avènement d’une nouvelle forme de prolétariat du numérique : le digital labor — ou travail numérique « du doigt » en français. Du microtravailleur du clic, conscient et rémunéré, à l’usager dont l’activité de production de données est implicite, le sociologue analyse les coulisses d’un travail hors travail, et la réalité bien palpable de cette économie de l’immatériel.

    Antonio Casilli interroge notamment la capacité des plateformes du Net à mettre leurs utilisateurs au travail, convaincus d’être plus consommateurs que producteurs. « La gratuité de certains services numériques n’est qu’une illusion. Chaque clic alimente d’une part un vaste marché publicitaire, de l’autre il produit de la donnée qui nourrit des intelligences artificielles. Chaque j’aime, chaque post, chaque photo, chaque notation ou connexion remplit une condition : produire de la valeur. Ce digital labor est très faiblement voire non rémunéré, puisque personne ne touche une rétribution à la hauteur de la valeur produite. Mais cela reste du travail : c’est une source de valeur, tracée, mesurée, évaluée, et encadrée contractuellement par les conditions générales d’usage des plateformes » explique le sociologue.

    Encadrer le digital labor par le droit ?
    Ces nouvelles formes de travail échappent encore aux normes salariales. Néanmoins, les recours collectifs contre les plateformes numériques pour revendiquer certains droits se sont multipliés ces dernières années. À l’image des chauffeurs Uber ou des livreurs Deliveroo qui tentent, par voie de justice, de faire requalifier leur contrat commercial en contrat de travail. Face à cette précarisation du travail numérique, Antonio Casilli envisage trois évolutions possibles pour une reconnaissance sociale, économique et politique du digital labor.

    « De Uber aux modérateurs des plateformes, le droit du travail classique — donc la requalification en salariat — pourrait permettre une reconnaissance de leur statut. Mais le travail dépendant n’est pas forcément la panacée. Aussi, on voit de plus en plus se développer des formes de plateformes coopératives où les usagers deviennent les propriétaires des moyens de production et des algorithmes. » Antonio Casilli voit toutefois des limites à ces deux évolutions. Pour lui, une troisième voie est possible. « Nous ne sommes ni les petits propriétaires, ni les petits entrepreneurs de nos données. Nous sommes les travailleurs de nos données. Et ces données personnelles, ni privées, ni publiques, appartiennent à tous et à personne. La vie privée doit être une négociation collective. Il nous reste à inventer et à faire émerger des institutions pour en faire un véritable bien commun. Internet est un nouveau champ de luttes » s’enthousiasme le chercheur.

    #Digital_labour #Plateformes

  • Pour une protection sociale des données personnelles – – S.I.Lex –
    https://scinfolex.com/2018/02/05/pour-une-protection-sociale-des-donnees-personnelles

    Attention, c’est du lourd. Beaucoup de choses à reprendre et peaufiner dans ce texte majeur.

    par Lionel Maurel et Laura Aufrère

    Cette invocation des « droits des travailleurs de la donnée » a selon nous l’immense mérite de replacer la question de la protection des données sur le terrain du droit social. Ce point de vue n’est pas absolument nouveau, car le droit social est déjà convoqué dans les discussions suscitées par « l’ubérisation » et la manière dont des plateformes comme Deliveroo, Uber ou Amazon Mecanical Turk font basculer les individus dans des situations « d’infra-emploi » (Bernard Friot) les privant des protections liées au salariat. Antonio Casilli et Paola Tubaro nous invitent cependant à aller plus loin et à considérer l’ensemble des relations entre les utilisateurs et les plateformes comme un « rapport social de production » que le droit doit saisir en tant que tel. S’il y a un rapport de production assimilable à du travail, alors il faut s’assurer de l’extension des régimes de protection du travail, y compris à ceux qui, de prime abord, seraient présentés comme de simples usagers ou consommateurs.

    Le système actuel reste en effet imprégné d’un individualisme méthodologique qui n’envisage la personne que de manière isolée et indépendamment des rapports sociaux dans laquelle la vie privée est toujours étroitement enchâssée.

    Car la protection sociale renvoie plus fondamentalement à la question des solidarités et celles-ci ne peuvent être uniquement une affaire d’État. Si négociation collective autour de la vie privée il y a, celle-ci doit être le fait d’une société civile collectivement organisée, sans quoi les individus ne pourront échapper aux rapports structurellement inégalitaires auxquels les soumettent les plateformes, et la négociation ne pourra conduire qu’à la soumission collective. L’histoire de la protection sociale nous fournit des exemples de formes de socialisation, au-delà de la sphère du travail, qui permettent de gérer collectivement des institutions mettant en œuvre des droits sociaux, ancrés dans les droits humains (santé, éducation, etc.). Ces formes de socialisation pourraient pareillement être mobilisées pour mettre en œuvre les droits et protéger les usagers des plateformes et les « travailleurs de la donnée ».

    C’est ce fil que nous souhaitons suivre dans cet article qui vise à explorer les différentes dimensions d’une protection des données repensée comme une protection sociale

    Un premier phénomène inédit surgit dans le fait que nous ne soyons pas toujours consciemment parties prenantes d’une certaine expression de notre identité numérique à travers l’exploitation des données, qui émanent pourtant de nos propres pratiques numériques. Le second phénomène inédit, intrinsèquement lié au premier, c’est le degré d’opacité des mécanismes techniques et humains de production des données qui forgent cette identité. Ce qui nous échappe, c’est donc autant la perception (y compris physique) de nos traces et signaux numériques, que les processus de production (partant de l’exploitation de ces signaux et traces) qui forgent une donnée, et enfin leur exploitation ou utilisation sous la forme d’une expression explicite de nos identités et de nos activités.

    Cette triple perte de contrôle justifie à notre sens que notre relation avec les plateformes soit considérée sous l’angle d’une présomption de subordination d’usage.

    Compte tenu de l’existence de fait d’un rapport de production, et des conditions de subordination du travail et des usages qui lui sont attachés, se pose de façon centrale la question des conditions de consentement des individus à participer à l’effort de production. Cette dimension mérite à notre sens, un commentaire et une discussion approfondie.

    En effet c’est l’encastrement des traces numériques de nos comportements individuels dans des comportements collectifs, qui permet leur exploitation en tant que valeurs économiques. Ce qui appelle un premier commentaire : le consentement du point de vue de la gestion des données ne peut pas être uniquement individuel, dans la mesure où celles-ci incluent des informations sur nos relations sociales qui engagent des tiers (pensons par exemple aux carnets d’adresses qui constituent toujours les premières informations que les plateformes essaient de récupérer). D’autre part, le rappel de la dimension collective des relations de production mérite un effort d’explicitation : la reconfiguration de la vie privée sous l’influence des pratiques numériques importe dans l’espace privé la question du travail et du consentement à la participation à un effort de production.

    Or il importe selon nous autant, sinon davantage, de « protéger les droits des travailleurs de la donnée » que de protéger le droit, plus fondamental encore, de ne pas devenir malgré nous de tels travailleurs de la donnée.

    Que reste-t-il des aspirations et du sens investi collectivement dans le travail lorsque l’on exerce des « métiers » de tâcherons développés par les industries numériques ? Au-delà des déséquilibres économiques, c’est la dignité des personnes qui est à protéger face au retour des modèles d’exploitation féodaux. De même, il apparaît combien notre conception du travail sous-tend nos conceptions de la société dans son ensemble, et les perspectives de progrès social et de progrès humain partagé qu’il nous revient de discuter collectivement.

    Si l’enjeu consiste à faire émerger des formes institutionnelles pour accueillir et organiser la négociation collective sur les données, force est de constater qu’il sera difficile d’y parvenir en restant dans le cadre juridique actuel, car celui-ci demeure largement surdéterminé par un paradigme individualiste qui fait de l’individu et de ses choix le centre de gravité de la régulation des données. Dépasser cette approche nécessite de se donner les moyens de refaire le lien entre l’individu isolé autour duquel s’organise le droit à la protection des données et la figure du citoyen en tant qu’agent capable de participer à des discussions collectives.

    Si l’on veut sortir de cette vision « atomiste » de la protection des données, il importe de reconstruire un lien entre la figure de l’individu souhaitant protéger sa vie privée et celle du citoyen capable de se mobiliser avec ses semblables pour défendre les droits humains fondamentaux. Pour ce faire, nous proposons un détour par la notion de « données d’intérêt général », qui avait été envisagée au moment du vote de la loi République numérique comme un moyen de reprendre du pouvoir sur les plateformes. S’appuyer sur cette notion peut s’avérer utile pour trouver un fondement à l’action collective sur les données, mais à condition d’en renverser complètement la signification.

    Nos données personnelles sont produites dans le cadre de comportements qui, par ailleurs, sont identifiés du point de vue du droit comme appartenant à des espaces de la vie civile, là où nous exprimons notre citoyenneté et où nous vivons ensemble. On pourrait donc considérer que les traces numériques relèvent de l’intérêt général en tant que données « citoyennes ». Il y a bien lieu de parler à leur sujet d’intérêt général, parce que les plateformes ne devraient pas avoir le droit d’utiliser ces données sans nous demander un consentement individuellement, mais aussi et surtout, collectivement.

    Comme l’affirment A. Casilli et P. Tubaro dans leur tribune, il est indéniable que la vie privée résulte davantage aujourd’hui d’une négociation collective que de l’application des droits individuels prévus par les textes de loi. Ce processus associe de manière complexe les grandes plateformes, les pouvoirs publics et les individus. Mais dans les circonstances actuelles, le rapport de forces est tellement asymétrique que la voix des individus, et les voies de leur négociation, ne peuvent avoir qu’un poids infinitésimal. Des mobilisations collectives surviennent parfois, mais elles prennent des formes fugitives et éruptives, lorsque les utilisateurs expriment par exemple leur colère lors du rachat d’une plateforme par une autre ou en cas de changement des conditions d’utilisation jugés abusifs. Ces mouvements attestent d’une conscience collective que des droits sont bafoués et méritent d’être défendus, mais sans que cette volonté d’agir trouve une forme institutionnelle dans laquelle se couler.

    Une des pistes pour donner consistance à l’action collective en matière de protection des données réside dans les recours collectifs (actions de groupe ou class actions), qui autorisent des individus à déléguer la défense de leurs droits individuels à des représentants comme des associations, de manière à les faire valoir en justice face aux plateformes.

    Admettre d’emblée que toutes nos activités numériques sont assimilables à du Digital Labor ne revient-il pas à entériner que ce basculement dans des rapports de production est inéluctable et que plus rien de nous permettra d’échapper à cette « financiarisation » forcée de nos vies, y compris dans ce qu’elles ont de plus intime ? Si tel était le cas, la « protection sociale des données » pourrait recevoir la même critique que celle qu’on adresse parfois à la protection sociale tout court : que ces mécanismes, installés dans leur forme actuelle pendant la période fordiste, visent simplement à « compenser » les rapports de domination imposés aux individus dans la sphère du travail et non à remettre en cause le principe même de la soumission qu’ils impliquent.

    Pour conjurer ce risque, il importe selon nous d’être au contraire capable d’opérer des distinctions claires au sein même du continuum de pratiques décrites comme du Digital Labor, en les repositionnant soigneusement par rapport à l’idée de protection sociale.

    En imposant aux individus d’inscrire leur intimité dans un rapport de production, les plateformes provoquent en réalité un effondrement de la distinction entre la sphère publique et la sphère privée, phénomène qu’Hannah Arendt a identifié comme un des mécanismes par lesquels le totalitarisme s’empare des sociétés. Le cadre analytique du Digital Labor traduit donc une certaine vérité, car à l’époque moderne c’est bien le fait de faire apparaître une activité dans l’espace public qui la transforme presque mécaniquement en « travail ». Mais dans le même temps, cette « publicisation forcée » détruit la possibilité de préserver l’intimité, car celle-ci a nécessairement besoin d’une sphère privée séparée pour exister. Si par protection sociale, on entend des dispositifs qu’une société se donne pour échapper aux « risques de désintégration qui se concrétisent chaque fois que les forces marchandes dominent toutes les sphères de la vie sociale », alors on comprend que le cœur même d’une protection sociale des données doit consister en la préservation d’un droit fondamental pour les individus « à ne pas travailler » en tant que condition de possibilité de la vie privée.

    #Données_personnelles #Digital_Labour #Protection_sociale #Négociation_collectives

    • La domination des géants du numérique est-elle un nouveau colonialisme ?
      http://www.telerama.fr/idees/la-domination-des-geants-du-numerique-est-elle-un-nouveau-colonialisme,n546

      Google, Apple, Facebook, Amazon, Microsoft… En offrant nos données personnelles à ces géants aussi puissants que des Etats, nous les laissons nous exploiter, selon le sociologue et chercheur italien #Antonio_Casilli, qui plaide pour un “tournant décolonial numérique”.

      On les dit plus puissants que certains Etats. Les géants de l’économie numérique – Google, Apple, Facebook, Amazon et Microsoft en tête – n’ont qu’à jeter un œil par les fenêtres que nous leur ouvrons sur nos vies pour savoir ce que nous faisons, ce que nous consommons ou ce à quoi nous rêvons. Sans nous en rendre compte, nous produisons chaque jour, gratuitement, et parfois même avec délectation, des données personnelles monétisées et revendues à des entreprises tierces ou à des Etats. L’autonomie des utilisateurs vantée par les plateformes cache en réalité l’exploitation de cette production bénévole : nous travaillons tous gratuitement pour Facebook ou Google. Nous serions même devenus de la « chair à algorithmes », comme le dénonce une tribune datée du 5 février, parue dans Le Monde, invitant chacun à monnayer ses données personnelles.
      Une position à laquelle s’oppose fermement le sociologue et chercheur italien Antonio Casilli, maître de conférences en humanités numériques à Télécom ParisTech et auteur, en 2010, des Liaisons numériques. Vers une nouvelle sociabilité ? (éd. Seuil). Dans un article paru en fin d’année dernière dans la revue académique américaine International Journal of Communication, il met toutefois en parallèle la « mise au travail » des internautes avec les modes de subordination appliqués à ses travailleurs par l’économie numérique. Dans le Nord – les chauffeurs Uber – mais aussi et surtout dans le Sud – les employés des « fermes à clics », ces « micro-travailleurs » engagés pour accomplir de toutes petites tâches censées enrichir ces mêmes plateformes.

      #data #mise_au_travail_généralisée #travail

  • How Uber Uses Psychological Tricks to Push Its Drivers’ Buttons - The New York Times
    https://www.nytimes.com/interactive/2017/04/02/technology/uber-drivers-psychological-tricks.html

    Uber’s innovations reflect the changing ways companies are managing workers amid the rise of the freelance-based “gig economy.” Its drivers are officially independent business owners rather than traditional employees with set schedules. This allows Uber to minimize labor costs, but means it cannot compel drivers to show up at a specific place and time. And this lack of control can wreak havoc on a service whose goal is to seamlessly transport passengers whenever and wherever they want.

    Uber helps solve this fundamental problem by using psychological inducements and other techniques unearthed by social science to influence when, where and how long drivers work. It’s a quest for a perfectly efficient system: a balance between rider demand and driver supply at the lowest cost to passengers and the company.

    Employing hundreds of social scientists and data scientists, Uber has experimented with video game techniques, graphics and noncash rewards of little value that can prod drivers into working longer and harder — and sometimes at hours and locations that are less lucrative for them.

    Je n’ajoute rien... il faudrait citer tout l’article. Le biopouvoir à l’oeuvre dans toute sa splendeur.

    #Uber #Psychologie #Manipulation #Digital_labour #Société_de_merde

  • How Google Arts and Culture’s Face Match A.I. Actually Works | Inverse
    https://www.inverse.com/article/40177-google-arts-and-culture-technology

    That’s part of what made the viral Google Arts and Culture feature, allowing users to compare their faces with a work of art, so fun. It played up our natural vanity, for sure, but it also gave us a chance to test out what A.I. is capable of.

    Some users took the opportunity to punk the A.I. to hilarious effect:

    It sounds like an easy process, but in fact, there is a lot of learning that the machine has to do first. After identifying faces in an image, it may have to reorient or resize it for a better reading — we’ve all been in cases where a selfie taken from too close looks distorted from reality.

    Then, once the A.I. has resized and reoriented the face, it creates a “faceprint,” a set of characteristics that uniquely identify one person’s face. This could include the distance between facial features, such as eyes, or shapes and sizes of noses.

    Faceprints can then be compared with an individual photo or to databases of many images.

    In the case of Google’s museum selfie feature, each selfie that is uploaded is compared with its database of over 70,000 works of art.

    According to the Post, users currently have to opt into facial recognition on Google Photos (but not on Facebook).

    But, by playing around with this selfie feature, that’s essentially what we’re doing, so we are actively consenting to making Google’s A.I. smarter.

    #Google #Reconnaissance_faciale #Intelligence_artificielle #Digital_labour

  • Video Games Are Destroying the People Who Make Them - The New York Times
    https://www.nytimes.com/2017/10/25/opinion/work-culture-video-games-crunch.html

    Among video game developers, it’s called “crunch”: a sudden spike in work hours, as many as 20 a day, that can last for days or weeks on end. During this time, they sleep at work, limit bathroom breaks and cut out anything that pulls their attention away from their screens, including family and even food. Crunch makes the industry roll — but it’s taking a serious toll on its workers.

    Modern video games like Mass Effect and Uncharted cost tens of millions of dollars and require the labor of hundreds of people, who can each work 80- or even 100-hour weeks. In game development, crunch is not constrained to the final two or three weeks of a project. A team might crunch at any time, and a crunch might endure for several months. Programmers will stay late on weeknights to squash bugs, artists will use weekends to put the final polish on their characters, and everyone on the team will feel pressured to work extra hours in solidarity with overworked colleagues.

    Importance des syndicats... qui sont absents du monde du jeu vidéo

    While many jobs are demanding, the conditions in this industry are uniquely unforgiving. Most game developers in the United States do not receive extra compensation for extra hours. They may gaze with envy at their colleagues in the film industry, where unions help regulate hours and ensure overtime pay. Their income pales in comparison to what’s offered in other fields with reputations for brutal hours, like banking and law. The average American game developer earned $83,060 in 2013, according to a Gamasutra survey, or less than half the pay of a first-year associate at a New York law firm.

    While I was reporting for a book on how video games are made, veteran game makers told me stories of lost family time, relationship strains and such severe burnout that they considered leaving for other industries.

    Une question de culture professionnelle qui rend la souffrance nécessaire.

    To avoid long-term deleterious effects, game developers must commit to stop facilitating a culture in which crunch is the norm. The occasional long night or weekend at the office can be useful and even exhilarating, but as a constant, it is damaging. No video game is worth burnout, brain damage or overnight stays at the hospital.

    #Jeu_vidéo #Souffrance_travail #digital_labour #syndicalisme

  • Générer de la cryptomonnaie à partir de son site web est-il une bonne idée ? - Korben
    https://korben.info/generer-de-cryptomonnaie-a-partir-de-site-web-bonne-idee.html

    Si même Korben se met à défendre l’usage par autrui de mon ordinateur... sans que je ne le voie. Car le problème de l’invisibilité de la fabrique des connaissance est au cœur du débat politique sur les technologies numériques. J’ai fait pas mal de cours là dessus depuis quinze ans. Les technologies de la confiance et les technologies de l’invisible sont dangereuses pour la démocratie. On ne peut pas les aborder du strict point de vue de la technique (consommation de CPU et d’électricité) ni de l’insensibilité à l’usager.

    Mais le débat est lancé et vaut le coup. Au delà de l’exemple donné par Korben : nous aurons les deux : minage avec la CPU et minage de notre cerveau par la pub. Qui peut le plus peut toujours plus.

    Cela ne vous aura pas échappé, le sujet du moment côté monétisation de sites web, c’est l’arrivée des JavaScript qui minent de la cryptomonnaie dans les pages web de nos sites préférés. The Pirate Bay a ouvert la voie grâce à Coin-Hive tout comme le site de la chaine Showtime (à son insu apparemment).

    Le concept est relativement simple. Pour le webmaster, il suffit d’intégrer un petit bout de code JavaScript dans les pages de son site et quand un internaute s’y connecte, ce JavaScript participe à des calculs cryptographiques nécessaires à la production de cryptomonnaie. Cela évidemment implique de faire bosser le CPU des internautes qui passent sur le site.

    Et d’autres, en mode sale, balancent des popups, des bannières pleins écrans impossibles à fermer, des trucs vidéos qui se déclenchent tout seuls et j’en passe.
    Et évidemment ces emplacements publicitaires consomment aussi des ressources du côté de l’internaute... De l’espace disque (cache), du CPU et de la RAM à cause des JavaScript exécutés, sans compter les usages intempestifs de carte vidéo et de carte son. On pourrait penser que la mise en place d’un Adblocker permette de limiter cette consommation CPU, mais à quelques exceptions prêts c’est pire, car ces plugins bouffent encore plus de ressources que les scripts qu’ils sont censés bloquer. Donc oui la pub consomme du CPU + du temps de cerveau et conserve ce petit côté « irritant », car elle est visible de l’internaute.

    Miner des cryptomonnaies via un script comme le fait The Pirate Bay est à mon sens moins problématique que d’afficher de la pub. Déjà ça ne bouffe pas de temps de cerveau, ça n’enlaidit pas le site, ça n’exige pas d’interaction avec l’internaute en lui demandant de cliquer sur des trucs et ça ne surprend pas son monde en jouant un fichier audio à plein tube...

    #Cryptomonnaie #Invisibilité #Digital_labour #Publicité

  • Les damnés de la Toile
    http://abonnes.lemonde.fr/pixels/article/2017/05/22/les-damnes-de-la-toile_5131443_4408996.html

    Sur MTurk, une plate-forme d’Amazon, ils effectuent des tâches répétitives pour quelques cents, bien en dessous du salaire minimum. Ces forçats du clic sont indispensables aux algorithmes des entreprises de la Silicon Valley.

    Il n’est pas encore 6 heures. Le visage de Marie Mento se dessine dans la ­lumière de l’écran de son ordinateur. Dans sa banlieue proprette du New ­Jersey, une tasse de café à la main, elle fait défiler les tâches qui lui sont proposées. Transcrire une vidéo de 35 secondes, 5 cents. Ecrire la description commerciale d’un produit, 12 cents. Noter des photos d’hommes pour un site de rencontres, 3 cents. Répondre à une étude scientifique, 10 cents.

    Un œil sur les forums, l’autre sur son objectif de la journée, Marie passera une heure sur Amazon Mechanical Turk (MTurk), un service du géant américain Amazon, avant de partir pour l’école où elle travaille comme bibliothécaire scolaire depuis près de quarante ans. « Chercher une bonne tâche m’a déjà mise en retard. C’est addictif. »

    Reste que dans le jargon typique de la Silicon Valley, Amazon Turk ne propose pas de travail, mais des « HIT », pour human intelligence tasks. Des tâches dites pour intelligence humaine ; un jeu de mots pour les différencier de celles réalisées par les intelligences artificielles. Car sur MTurk, il est surtout question d’aider des machines à accomplir leur besogne.

    Pour que YouTube propose automatiquement des vidéos pertinentes à la fin d’un sketch de Cyprien, par exemple, il faut que des milliers de personnes aient identifié puis classé des images à la chaîne. En clair, si perfectionnés soient-ils, les algorithmes élaborés par Facebook, Google et tant d’autres ont besoin d’être alimentés en données pour fonctionner correctement.

    Nettoyage de bases de données, « taggage » d’images ou de vidéos, modération, transcription… Un labeur souvent répétitif, monotone, ingrat et pourtant indispensable au développement de services sophistiqués, que les « turkers » accomplissent en tant qu’indépendants, sans protection sociale d’aucune sorte, pour une rétribution souvent dérisoire.

    « Notre travail fait tourner la planète. Nous organisons Internet. Nous aidons des multinationales à faire des profits immenses et nous gagnons un salaire d’esclave », résume ­ « Lucile », une « turkeuse » américaine de 29 ans. Marie Mento s’en amuse. « La première semaine, je me suis fait 1 dollar. Ces derniers temps, je parviens à gagner 60 à 70 dollars » pour environ 30 heures passées sur MTurk. Soit 2,30 dollars de l’heure, bien en deçà du salaire minimum fédéral américain, fixé à 7,25 dollars.

    #amazonologie #travail #digital_labour

  • Tiens Change.org recrute par email #Digital_labour :

    Êtes-vous prêt-e à changer 2017 ?

    Ces dernières semaines, peut-être avez-vous déjà participé à certaines actions dans le cadre de notre projet « Changez 2017 » dont l’objectif est de remettre les citoyens comme vous au coeur de l’élection présidentielle à venir.
    Les résultats de la consultation citoyenne à laquelle vous avez été des milliers à répondre ont révélé que l’éducation fait partie des causes qui selon vous, mériteraient plus de place dans les programmes politiques pour 2017.
    Aujourd’hui, nous vous invitons à participer à une étape majeure du projet « Changez 2017 » : soumettre vos propositions aux candidats en lançant votre pétition afin qu’ils s’engagent sur des mesures concrètes pour l’éducation.

    A quatre mois du premier tour de l’élection présidentielle, c’est le moment d’agir pour obtenir des engagements de la part des candidats. Alors qu’est-ce qui vous retient ? Cliquez ici pour lancer maintenant votre pétition.
    S’il y a une mesure phare que vous souhaiteriez voir adopter par votre futur président, n’attendez pas qu’il soit élu pour le faire : demandez-lui via une pétition en cliquant ici .
    Les pétitions les plus populaires seront portées auprès des candidats par les ambassadeurs citoyens de « Changez 2017 ».
    Merci d’agir pour changer cette élection
    Aminata et toute l’équipe de Change.org

    [...]

    Apichat,

    Il y a quelques semaines, je vous avais envoyé un e-mail pour vous demander d’envoyer un tweet aux candidats à la présidentielle afin qu’ils créent leur profil vérifié sur Change.org et puissent répondre aux pétitions que vous êtes des milliers à leur adresser. Cette action a porté ses fruits puisqu’elle a déjà convaincu 5 candidats d’ouvrir leur profil.
    Mais ce n’est pas assez ! Pour être sûr que notre futur président sera à l’écoute, nous devons nous assurer que tous les candidats aient ouvert leur profil pour répondre à vos pétitions.
    Chez Change.org, nous ne manquons pas d’imagination pour faire entendre votre voix auprès des décideurs. Ainsi, à quelques mois du premier tour de l’élection présidentielle, nous vous invitons à interpeller les candidats à la présidentielle en vidéo !
    Pour vous inspirer à préparer votre propre message, découvrez l’exemple de l’appel qu’Adrien Sergent et Yohan Reboul, les ambassadeurs citoyens du projet “Changez 2017” ont lancé aux candidats :

    A votre tour, saisissez l’opportunité d’appeler les candidats de votre choix à ouvrir leur profil. La semaine prochaine, les meilleurs messages seront diffusés dans une vidéo inédite qui sera diffusée sur notre page Facebook et auprès des candidats.
    Nous avons besoin de votre participation pour redonner une place centrale à la parole citoyenne dans cette élection. Pour relever ce défi, envoyez-nous une courte vidéo (30 secondes maximum) par email à l’adresse suivante : .
    Merci d’agir pour “Changez 2017”
    Aminata et toute l’équipe de Change.org

    [...]

    Bonjour Apichat,
    Il a quelques jours, je vous demandais de nous envoyer une vidéo appelant les candidats à la présidentielle à ouvrir leur profil sur Change.org pour dialoguer avec vous. Merci à toutes les personnes qui ont répondu à cet appel. Découvrez dans cette vidéo le message qu’ont souhaité adressé des citoyens comme vous aux candidats :

    Vous n’avez pas pu nous envoyer votre vidéo ? Vous pouvez quand même participer en faisant connaître cette vidéo autour de vous pour pousser les candidats à répondre à l’appel des citoyens sur Change.org ! Cliquez ici pour la partager. Plus vous serez nombreux à partager cette vidéo, plus nous aurons de chance de convaincre les candidats de répondre aux pétitions que vous êtes des millions à leur adresser.
    Merci d’agir pour “Changez 2017”
    Aminata et toute l’équipe de Change.org