• Christopher Wylie : interview du lanceur d’alerte de Cambridge Analytica
    https://www.ladn.eu/tech-a-suivre/data-big-et-smart/christopher-wylie-cambridge-analytica-menaces-democraties

    Une parole publique confisquée

    Hyper-segmentation, profilage psychologique, exploitation des biais cognitifs des individus pour activer les recoins les plus sombres de la psyché. Les techniques imaginées et mises en œuvre par Cambridge Analytica continuent d’être appliquées, autant par des entreprises que des gouvernements. Pour Christopher Wylie, elles ont très largement contribué à fragmenter durablement les groupes sociaux. « Ces méthodes sont essentiellement de la ségrégation. Les individus deviennent incapables d’éprouver le sentiment de cohésion, d’identité commune partagée qui est le propre de toute nation », prévient-il. À moins de cinquante jours de la prochaine élection présidentielle américaine, et alors que d’autres élections majeures se déroulent en Bolivie, au Chili ou au Burkina Faso cet automne, le lanceur d’alerte estime que les menaces qui pèsent sur les démocraties sont importantes.

    Plus encore, cette affaire a permis de révéler le phénomène très inquiétant de la privatisation du discours politique et de la parole publique. Lorsqu’une entreprise est capable de s’immiscer dans la vie quotidienne des gens, en agrégeant des centaines de kilos octets de données à leur sujet, et qu’elle est aussi en mesure de les écouter en temps réel via la somme d’objets connectés qui compose désormais notre environnement quotidien, alors le débat public perd de sa vigueur pour ne devenir qu’une somme de conversations privées. « La parole et le débat public sont des piliers des démocraties », rappelle le lanceur d’alerte. Mais on le voit aujourd’hui : la majorité des discussions qui ont trait à des sujets publics, comme la gestion de la pandémie, se tiennent sur des plateformes privées comme Facebook. « A-t-on vraiment envie de confier la gestion de la parole publique à un milliardaire de la Silicon Valley ? A-t-on vraiment envie de faire de Mark Zuckerberg le seul arbitre de nos prises de décision politiques, et donc in fine de notre processus électoral ? La fonction publique est trop importante pour qu’on la confie à une entreprise privée. »

    Ethique : aucun standard pour les ingénieurs

    Pour résoudre l’équation qui consiste à encadrer les GAFAM, sans renoncer pour autant aux produits et services qu’ils proposent, Christopher Wylie propose de renverser la perspective. Plutôt que de s’attaquer à la structure, il propose de repartir des produits, et de ceux qui les conçoivent. « Les produits Facebook sont conçus par des ingénieurs, des designers-produit, des data scientist. Or, à l’inverse de leurs collègues d’autres secteurs, comme l’aéronautique ou la construction, ces derniers n’ont aucun cadre éthique auquel se référer. La construction d’un avion ou d’un bâtiment repose sur des cahiers des charges précis, il doit en être de même pour les produits des plateformes digitales ».

    Qu’est-ce qu’un code sûr et respectueux des utilisateurs ? Quels sont les standards minimums de sécurité ? Quel encadrement éthique pour les architectes de ces plateformes ? Autant de questions qui ne trouvent pas de traduction dans les chartes d’entreprise des géants du numérique. « Si un ou une employé·e se rend compte que son employeur lui demande de construire un produit qui n’est pas conforme aux standards éthiques, son droit d’opposition doit être sanctuarisé », rajoute le lanceur d’alerte, qui a lui-même du ferrailler contre Cambridge Analytica dans les premiers moments de son parcours de lanceur d’alerte. « Les décideurs et les ingénieurs des grandes entreprises du numérique étant majoritairement blancs et privilégiés, il est indispensable d’avoir des équipes les plus diverses possible pour réfléchir à ce cadre éthique. L’inclusivité permet d’envisager les risques et les failles sous des perspectives plus riches et complémentaires ».

    #Cambridge_analytica #Christopher_Wylie #Industrie_influence #Facebook

  • L’intelligence artificielle de Persado trouve les mots pour vous faire acheter
    https://www.ladn.eu/tech-a-suivre/ia-machine-learning-iot/intelligence-artificielle-publicite-impactante

    Comment ça marche ?

    Au départ, il y a un message. Celui écrit par l’équipe marketing, « qui aurait été diffusé sans l’apport de Persado ». L’intelligence artificielle le digère, ainsi que la charte communication de la marque et son objectif business - qui consiste « souvent à augmenter les ventes, explique Hani Ramzi. L’intelligence artificielle teste ensuite différentes combinaisons et élit le meilleur message, celui qui sera le plus engageant, le message champion ». Pour sélectionner ce « message champion », l’IA s’appuie sur une base de connaissances de mots et d’images triés selon les émotions qu’ils suscitent, mais aussi sur l’historique de précédentes campagnes.
    Petites différences, gros résultats

    La différence entre le message initial et le message élaboré par Persado n’est pas toujours criante. « Parfois ça se joue à peu de choses, mais les gains en matière de performance sont énormes », précise Hani Ramzi. Dans une campagne réalisée pour Vodafone, le message d’une bannière publicitaire de base était « Ne ratez pas la dernière chance pour profiter de cette offre ». Il a été transformé par l’IA en « Récompensez-vous avec cette offre spéciale ». « Le premier message génère de l’anxiété, alors que le second est dans la gratification », explique Hani Ramzi. Le bouton « activer » de cette même publicité a lui été remplacé par un bouton « cliquer pour activer », « pour ajouter une impression de simplicité », poursuit-il.

    Et ça marche. De petits changements comme celui-ci sont concoctés par l’IA de Persado dans chacune des campagnes de Vodafone depuis 2012. Ils ont permis d’augmenter le taux de conversion de la marque de 40 % et de faire progresser son chiffre d’affaires de 11 %, avancent les dirigeants.

    #Publicité #Intelligence_artificielle #Industrie_influence

  • Uber is creating a new gig economy that turns workers into customers.
    https://slate.com/technology/2019/03/uber-gig-workers-customers.html

    Uber brings the technology culture of Silicon Valley to the world of work. Facebook sparked a public outcry after it quietly experimented with the psychological states of select users by displaying happier or sadder posts to them in their news feed to study the effects of emotional contagion. People were outraged both because they didn’t want to be the unwitting subjects of mood experimentation, and also because the experiment contradicted the idea that a neutral, objective, and benevolent algorithm curates their news feed. Similarly, Uber experimented with driver pay by implementing upfront pricing without alerting drivers or adjusting their contracts, until months later, after drivers crowdsourced evidence of a new pay policy.

    When Uber takes advantage of the unwitting users of its technology, it could be within its rights to do so, though its particular machinations actually contradict the company’s own description of its business model: In legal forums and in its contracts with drivers, the company says it provides a platform that connects all its users, implying that its technology is neutral, like a credit card processor. In one court hearing, Uber’s lawyers used rough metaphors to explain this logic in oral arguments, saying, “People demand ice cream. We have vendors, vendors who produce ice cream that are able, through our software, demanded—on demand to people that want ice cream. We facilitate that transaction. We’re not in the ice cream business, you know.”

    But Uber is in the figurative ice cream business. Uber monitors drivers through the data they generate on the job and controls their workplace behavior through various methods, from in-app behavioral nudges that influence when and where drivers work to the threat of account deactivation if drivers don’t follow some of Uber’s behavioral “suggestions.” Yet Uber also explicitly adopts a model of customer service communications in managing its workers as if they were mere consumers. In fact, beyond intense supervision, Uber controls drivers by creating an appeals process that limits their ability to find resolutions to their concerns.

    The very vocabulary that Uber deploys to describe its drivers and its own practices reinforces this view of labor: It treats its workers as “end users” and “customers” of its software. The terms are used in Uber’s lawsuits, and a senior Uber employee casually referred to the company’s workforce as “end users” in conversation with me. The rhetorical impact of that language is clever. By fudging the terms of employment within its control, Uber provides us with a template for questioning what we know about employment relationships that can create legal distance between a worker and an employer. And it ushers in a new way of doing business all while the same old problems, like workplace harassment, persist under the veneer of technological neutrality.

    The central conflict of how to categorize a driver—and how to consider work in the sharing economy more broadly—animates the conflict between labor advocates and Uber. And Uber’s defense of their labor practices articulate dynamic changes in how employment and consumption are negotiated in digital spaces. The question in this new economy is whether algorithmic management really creates a qualitative distinction between work and consumption. Because by encouraging this distinction and describing its technology as a way to merely connect two groups of users, Uber can have its cake and eat it too, avoiding responsibility for prospective labor law violations while its ostensibly neutral algorithms give the company vast leverage over how drivers do their work.

    #Uber #Industrie_influence #Travail

  • The Software That Shapes Workers’ Lives | The New Yorker
    https://www.newyorker.com/science/elements/the-software-that-shapes-workers-lives

    How could I know which had been made ethically and which hadn’t?

    Answering this question can be surprisingly difficult. A few years ago, while teaching a class about global labor at the University of California, Los Angeles, I tried assigning my students the task of analyzing the “supply chain”—the vast network of factories, warehouses, and shipping conduits through which products flow—by tracing the components used in their electronic devices. Almost immediately, I hit a snag: it turns out that even companies that boast about “end-to-end visibility” and “supply-chain transparency” may not know exactly where their components come from. This ignorance is built into the way supply chains work. The housing of a television, say, might be built in a small factory employing only a few people; that factory interacts only with the suppliers and buyers immediately adjacent to it in the chain—a plastic supplier on one side, an assembly company on the other. This arrangement encourages modularity, since, if a company goes out of business, its immediate partners can replace it without consulting anyone. But it also makes it hard to identify individual links in the chain. The resilient, self-healing quality of supply chains derives, in part, from the fact that they are unsupervised.

    When people try to picture supply chains, they often focus on their physical infrastructure. In Allan Sekula’s book “Fish Story,” a volume of essays and photographs produced between 1989 and 1995, the writer and photographer trains his lens on ports, harbors, and the workers who pilot ships between them; he reveals dim shipboard workspaces and otherworldly industrial zones. In “The Forgotten Space,” a documentary that Sekula made with the film theorist Noël Burch, in 2010, we see massive, gliding vessels, enormous machines, and people rummaging through the detritus around ports and harbors. Sekula’s work suggests the degree to which our fantasy of friction-free procurement hides the real, often gruelling, work of global shipping and trade.

    But supply chains aren’t purely physical. They’re also made of information. Modern supply-chain management, or S.C.M., is done through software. The people who design and coördinate supply chains don’t see warehouses or workers. They stare at screens filled with icons and tables. Their view of the supply chain is abstract. It may be the one that matters most.

    Most of the time, the work of supply-chain management is divided up, with handoffs where one specialist passes a package of data to another. No individual is liable to possess a detailed picture of the whole supply chain. Instead, each S.C.M. specialist knows only what her neighbors need.

    In such a system, a sense of inevitability takes hold. Data dictates a set of conditions which must be met, but there is no explanation of how that data was derived; meanwhile, the software takes an active role, tweaking the plan to meet the conditions as efficiently as possible. sap’s built-in optimizers work out how to meet production needs with the least “latency” and at the lowest possible costs. (The software even suggests how tightly a container should be packed, to save on shipping charges.) This entails that particular components become available at particular times. The consequences of this relentless optimization are well-documented. The corporations that commission products pass their computationally determined demands on to their subcontractors, who then put extraordinary pressure on their employees. Thus, China Labor Watch found that workers in Heyuan City, China, tasked with producing Disney’s Princess Sing & Sparkle Ariel Bath Doll—retail price today, $26.40—work twenty-six days a month, assembling between eighteen hundred and twenty-five hundred dolls per day, and earning one cent for each doll they complete.

    Still, from a worker’s point of view, S.C.M. software can generate its own bullwhip effect. At the beginning of the planning process, product requirements are fairly high-level. But by the time these requirements reach workers, they have become more exacting, more punishing. Small reductions in “latency,” for instance, can magnify in consequence, reducing a worker’s time for eating her lunch, taking a breath, donning safety equipment, or seeing a loved one.

    Could S.C.M. software include a “workers’-rights” component—a counterpart to PP/DS, incorporating data on working conditions? Technically, it’s possible. sap could begin asking for input about worker welfare. But a component like that would be at cross-purposes with almost every other function of the system. On some level, it might even undermine the purpose of having a system in the first place. Supply chains create efficiency in part through the distribution of responsibility. If a supervisor at a toy factory objects to the production plan she’s received, her boss can wield, in his defense, a PP/DS plan sent to him by someone else, who worked with data produced by yet another person. It will turn out that no one in particular is responsible for the pressures placed on the factory. They flow from the system—a system designed to be flexible in some ways and rigid in others.

    #Algorithmes #SAP #Droit_travail #Industrie_influence

  • Zeynep Tufekci: We’re building a dystopia just to make people click on ads | TED Talk
    https://www.ted.com/talks/zeynep_tufekci_we_re_building_a_dystopia_just_to_make_people_click_on_ads/transcript

    Allons un peu plus loin avec cet exemple de Las Vegas. Et si le système que nous ne comprenons pas déterminait qu’il est plus simple de vendre des billets pour Las Vegas aux gens bipolaires qui sont sur le point d’entrer dans la phase maniaque. De telles personnes ont tendance à dépenser et parier de façon compulsive. Ils pourraient le faire, vous ignoreriez que c’était là leur conclusion. Une fois, j’ai donné cet exemple à quelques informaticiens et après, l’un d’eux est venu me voir. Il était préoccupé : « C’est pour ça que je n’ai pas pu le publier ». J’ai dit : « Publier quoi ? » Il avait essayé de voir s’il l’on pouvait détecter le début d’une manie d’après les posts sur les réseaux sociaux avant les symptômes cliniques et ça avait fonctionné, ça avait très bien fonctionné, et il n’avait aucune idée de comment ça marchait ou ce que ça détectait.

    Le problème n’est pas résolu s’il ne le publie pas car il y a déjà des entreprises qui développent ce genre de technologie et beaucoup de choses existent déjà. Ce n’est plus très compliqué.

    #Zeynep_Tukekci #TED #Industrie_influence

  • Charity criticises British army campaign to recruit under-18s | UK news | The Guardian
    https://www.theguardian.com/uk-news/2017/nov/29/charity-criticises-british-army-campaign-to-recruit-under-18s

    The campaign includes beautifully produced 30-second films showing fictional scenes of young soldiers in various training and combat situations helping and supporting each other, facing difficult challenges with camaraderie and good humour. The films were disseminated via social media, television and cinema.

    A briefing campaign document seen by the Guardian in the summer spelled out that the key audience was 16- to 24-year-old “C2DEs” – marketing speak for the lowest three social and economic groups.

    The document also made it clear that while the campaign was UK-wide, there were “up-weights” to cities in northern England including Manchester and Sheffield, and to Birmingham, Belfast and Cardiff.

    #Armée #Industrie_influence #Grande_Bretagne

  • British army ads targeting ’stressed and vulnerable’ teenagers | UK news | The Guardian
    https://www.theguardian.com/uk-news/2018/jun/08/british-army-criticised-for-exam-results-day-recruitment-ads

    The British army has targeted recruitment material at “stressed and vulnerable” 16-year-olds via social media on and around GCSE results day, the Guardian can reveal.

    Paid-for Facebook messages suggested to 16-year-olds that a career in the army would still be open to them if they did not get the grades they hoped for.

    “Using Facebook to target the country’s young people unwittingly and exploiting the anxiety of those who may be disappointed with their GCSE results with idealised and unrealistic advertisements is shameful.”

    The Plaid Cymru MP Liz Saville Roberts said: “The government’s recruitment ads on social media tell young people that exam results don’t matter. If they truly have potential army recruits’ best interests at heart, they should prioritise their education budget over the army’s social media budget.”

    New information released after a written parliamentary question by Saville Roberts revealed that the army spent £1.7m on social media content between 2015 and 2017, the vast bulk of it on Facebook.

    Examination of the links to some of the posts reveal that some young people have been targeted in the run-up to GCSE results and on the day itself. Just before results day in August 2015, for example, a Facebook post said: “No matter what your results will be, you can still improve yourself in the army.” It was accompanied by an image of two soldiers on a quad bike riding through surf on a shingle beach.

    On 20 August, results day, an image of a young soldier happily driving a military vehicle appeared with the same message.

    #Industrie_influence #Armée #Facebook
    The following August the army told young people via Facebook: “Whatever happens on results day, we’ll help you learn, earn and stand on your own two feet.” The image showed an open-topped army vehicle during a beautiful sunset or sunrise. Readers were encouraged to click on to a button that took them through to the This is Belonging campaign.

  • Facebook : un test à la con et soudain la démocratie s’effondre | Slate.fr
    http://www.slate.fr/story/159379/facebook-cambridge-analytica-trump-democratie

    Le problème c’est qu’un président, ce n’est pas un tube de dentifrice. En délivrant un message politique différent à chaque catégorie d’électrices et d’électeurs, un message répété à l’infini, un message qui joue sur des émotions, on se situe exactement dans l’inverse du débat d’idées. Une membre de l’équipe numérique de campagne de Donald Trump a expliqué qu’une mère de famille intéressée par la garde d’enfant ne voudrait pas voir une pub pleine de guerre et de violence. L’équipe de Trump lui montrait alors un spot doux et chaleureux : « Il nous arrivait assez souvent de produire trente-cinq ou quarante-cinq mille itérations de ce type de pub au quotidien. »

    On est dans une forme de manipulation psychologique et émotionnelle. Cambridge Analytica explique que le vote se joue sur deux émotions : la peur et l’espoir. Et que les gens ne savent pas que quelque chose leur fait peur tant qu’on ne leur a pas montré. Évidemment, à Athènes, des orateurs pouvaient user de démagogie, mais ils le faisaient face à l’ensemble des citoyens en même temps. Ils n’allaient pas chez les votants la nuit pour les harceler avec leurs pires craintes. Cette manipulation est très efficacement renforcée par l’usage des fake news. (L’un des principaux investisseurs de Cambridge Analytica est également un des fondateurs de Breitbart News, site d’extrême droite soupçonné de fake news.)

    Cambridge Analytica ne s’arrête pas là. Dans un court et incroyable reportage (en anglais mais je vous le conseille), Channel 4 a filmé un dirigeant de l’entreprise en train d’expliquer qu’ils font appel à des sous-traitants qui recrutent des anciens agents des services secrets britanniques et israéliens : « On a employé une organisation différente pour un projet très réussi dans un pays d’Europe de l’Est, personne ne savait qu’ils étaient là, ils sont venus, ils ont fait le boulot, ils sont partis, et ils nous ont fourni du très bon matériel. »

    Cambridge Analytica est payé pour pratiquer une forme de « highjacking » de la démocratie. Savoir à quel point il fonctionne est impossible. Si vous avez une opinion désastreuse de Donald Trump, vous aurez tendance à penser que sa victoire est la preuve de la réussite de ces techniques de manipulation. Si vous détestez Obama, vous pourrez en tirer la même conclusion. On ne sait pas ce qui se passe dans la tête d’un électeur ou d’une électrice au moment de choisir un bulletin. Mais peu importe leur efficacité réelle, leur véritable impact sur nos vies démocratiques, ces pratiques sont condamnables. Il s’agit d’un détournement du modèle démocratique dans son fonctionnement même. Cambridge Analytica affirme l’avoir fait aux États-Unis, au Mexique, en Malaisie, avoir travaillé pour la campagne pro-Brexit, et bosser en ce moment au Brésil et en Chine.

    #Facebook #Cambridge_analytica #démocratie #Industrie_influence

  • The Follower Factory - The New York Times
    https://www.nytimes.com/interactive/2018/01/27/technology/100000005704904.app.html

    All these accounts belong to customers of an obscure American company named Devumi that has collected millions of dollars in a shadowy global marketplace for social media fraud. Devumi sells Twitter followers and retweets to celebrities, businesses and anyone who wants to appear more popular or exert influence online. Drawing on an estimated stock of at least 3.5 million automated accounts, each sold many times over, the company has provided customers with more than 200 million Twitter followers, a New York Times investigation found.

    The accounts that most resemble real people, like Ms. Rychly, reveal a kind of large-scale social identity theft. At least 55,000 of the accounts use the names, profile pictures, hometowns and other personal details of real Twitter users, including minors, according to a Times data analysis.
    Jessica Rychly, whose social identity was stolen by a Twitter bot when she was in high school.

    “I don’t want my picture connected to the account, nor my name,” Ms. Rychly, now 19, said. “I can’t believe that someone would even pay for it. It is just horrible.”

    Intéressant cette reprise/acceptation du concept d’industrie de l’influence

    These accounts are counterfeit coins in the booming economy of online influence, reaching into virtually any industry where a mass audience — or the illusion of it — can be monetized. Fake accounts, deployed by governments, criminals and entrepreneurs, now infest social media networks. By some calculations, as many as 48 million of Twitter’s reported active users — nearly 15 percent — are automated accounts designed to simulate real people, though the company claims that number is far lower.

    In November, Facebook disclosed to investors that it had at least twice as many fake users as it previously estimated, indicating that up to 60 million automated accounts may roam the world’s largest social media platform. These fake accounts, known as bots, can help sway advertising audiences and reshape political debates. They can defraud businesses and ruin reputations. Yet their creation and sale fall into a legal gray zone.

    J’aime beaucoup « Economie de l’influence »

    The Influence Economy

    Last year, three billion people logged on to social media networks like Facebook, WhatsApp and China’s Sina Weibo. The world’s collective yearning for connection has not only reshaped the Fortune 500 and upended the advertising industry but also created a new status marker: the number of people who follow, like or “friend” you. For some entertainers and entrepreneurs, this virtual status is a real-world currency. Follower counts on social networks help determine who will hire them, how much they are paid for bookings or endorsements, even how potential customers evaluate their businesses or products.

    High follower counts are also critical for so-called influencers, a budding market of amateur tastemakers and YouTube stars where advertisers now lavish billions of dollars a year on sponsorship deals. The more people influencers reach, the more money they make. According to data collected by Captiv8, a company that connects influencers to brands, an influencer with 100,000 followers might earn an average of $2,000 for a promotional tweet, while an influencer with a million followers might earn $20,000.

    Influencers need not be well known to rake in endorsement money. According to a recent profile in the British tabloid The Sun, two young siblings, Arabella and Jaadin Daho, earn a combined $100,000 a year as influencers, working with brands such as Amazon, Disney, Louis Vuitton and Nintendo. Arabella, who is 14, tweets under the name Amazing Arabella.

    But her Twitter account — and her brother’s — are boosted by thousands of retweets purchased by their mother and manager, Shadia Daho, according to Devumi records. Ms. Daho did not respond to repeated attempts to reach her by email and through a public relations firm.

    “I don’t know why they’d take my identity — I’m a 20-year-old college student,” Mr. Dodd said. “I’m not well known.” But even unknown, Mr. Dodd’s social identity has value in the influence economy. At prices posted in December, Devumi was selling high-quality followers for under two cents each. Sold to about 2,000 customers — the rough number that many Devumi bot accounts follow — his social identity could bring Devumi around $30.

    #Industrie_influence #Twitter #Followers

  • Sur Facebook, des catégories publicitaires pour viser ceux qui « détestent les juifs »
    http://abonnes.lemonde.fr/pixels/article/2017/09/15/sur-facebook-des-categories-publicitaires-pour-viser-ceux-qui-detest

    Pour comprendre, il faut s’attarder sur la manière dont la publicité fonctionne sur le réseau social. Afin que les marques puissent cibler leurs messages publicitaires, Facebook crée automatiquement des catégories publicitaires afin d’y classer ses utilisateurs qu’il estime y correspondre : centres d’intérêt, artistes, œuvres, lieux… Pour cela, le réseau social se base sur de nombreux critères : âge, profession, lieu de résidence, les pages que les utilisateurs ont aimé, les publicités sur lesquelles ils ont cliqué ou les applications qu’ils ont installées sur leur téléphone. Les annonceurs peuvent ensuite faire en sorte que leurs publicités soient vues par ces utilisateurs : un vendeur de vélo dans la Creuse a, en effet, tout intérêt à ce que ses publicités soient montrées aux amateurs creusois de cyclisme.

    Un algorithme de Facebook a donc créé automatiquement des groupes d’intérêt antisémites, qui, selon ProPublica, rassemblaient environ 2 300 personnes. Selon Facebook, cela s’expliquerait par le fait que certains utilisateurs auraient renseigné, dans les champs « éducation » et « employeur » de leur profil, des réponses antisémites, récupérées ensuite automatiquement par Facebook.

    #Facebook #Industrie_influence #Publicité

  • Facebook Enabled Advertisers to Reach ‘Jew Haters’ — ProPublica
    https://www.propublica.org/article/facebook-enabled-advertisers-to-reach-jew-haters

    Want to market Nazi memorabilia, or recruit marchers for a far-right rally? Facebook’s self-service ad-buying platform had the right audience for you.

    Until this week, when we asked Facebook about it, the world’s largest social network enabled advertisers to direct their pitches to the news feeds of almost 2,300 people who expressed interest in the topics of “Jew hater,” “How to burn jews,” or, “History of ‘why jews ruin the world.’”

    To test if these ad categories were real, we paid $30 to target those groups with three “promoted posts” — in which a ProPublica article or post was displayed in their news feeds. Facebook approved all three ads within 15 minutes.

    There are times where content is surfaced on our platform that violates our standards,” said Rob Leathern, product management director at Facebook. “In this case, we’ve removed the associated targeting fields in question. We know we have more work to do, so we’re also building new guardrails in our product and review processes to prevent other issues like this from happening in the future.”

    Facebook’s advertising has become a focus of national attention since it disclosed last week that it had discovered $100,000 worth of ads placed during the 2016 presidential election season by “inauthentic” accounts that appeared to be affiliated with Russia.

    Like many tech companies, Facebook has long taken a hands off approach to its advertising business. Unlike traditional media companies that select the audiences they offer advertisers, Facebook generates its ad categories automatically based both on what users explicitly share with Facebook and what they implicitly convey through their online activity.

    Traditionally, tech companies have contended that it’s not their role to censor the Internet or to discourage legitimate political expression. In the wake of the violent protests in Charlottesville by right-wing groups that included self-described Nazis, Facebook and other tech companies vowed to strengthen their monitoring of hate speech.

    #Economie_attention #Industrie_influence #Fake_news #Facebook

  • Enfants : plus d’écrans, plus de pub et… plus de malbouffe
    https://theconversation.com/enfants-plus-decrans-plus-de-pub-et-plus-de-malbouffe-76837

    Avec la multiplication des écrans, la promotion des produits alimentaires et des boissons a pris mille et une formes nouvelles. Les fabricants et les agences de publicité font désormais appel aux neurosciences pour mieux glisser leurs messages sous le seuil de conscience des spectateurs – des techniques relevant du neuromarketing. Plus que les adultes, ce sont les enfants qui sont ciblés, car particulièrement influençables.

    L’offensive publicitaire est multiple, imaginative, astucieuse. Pour en avertir ses enfants, et ne pas tomber soi-même dans le panneau, il est bon de connaître les procédés psychologiques utilisés et d’en repérer les dangers. Cette plongée dans la manipulation des cerveaux à l’ère d’Internet, au détriment d’une alimentation saine, se fonde notamment sur l’expertise collective de l’Inserm effectuée par un groupe de dix chercheurs et publiée en avril, Agir sur les comportements nutritionnels.

    Selon certains chercheurs, près d’un tiers des enfants obèses ne l’auraient pas été en l’absence de publicité télévisée pour des aliments de mauvaise qualité nutritionnelle, c’est-à-dire excessivement gras ou sucrés.

    Par ailleurs, on constate l’usage de plus en plus fréquent de techniques de communication commerciale agissant sur les consommateurs à un niveau peu ou non conscient, dit infra conscient. Elles sont capables d’influencer favorablement les évaluations et les préférences pour certaines marques en jouant sur la mémoire et les attitudes dites « implicites » ou non conscientes. Par exemple, les bannières publicitaires sur Internet provoquent des effets favorables sur l’attitude à l’égard de la marque sans même être vues consciemment sur l’écran. Une marque entrevue sur Internet et aussitôt oubliée laisse des traces favorables à la marque, lesquelles restent stockées en mémoire implicite au moins trois mois après l’exposition.

    On ne compte plus les techniques publicitaires ayant pour objectif de générer des émotions positives chez les enfants afin de perturber, en faveur de la marque, le processus de choix rationnel des produits. La publicité entoure « artificiellement » la marque d’un imaginaire émotionnel irréel, de symboles d’une soi-disant « liberté » ou de réussite sociale, n’ayant aucun lien avec les caractéristiques fonctionnelles du produit. C’est par exemple le cas de l’association de la marque avec des personnages fictifs comme les fruits Oasis anthropomorphisés (se comportant comme des humains) ou des célébrités bien réelles, par exemple des sportifs vantant une marque de chips ou de barres chocolatées. Ces procédés ont fait la preuve de leur efficacité sur les enfants.

    #Publicité #enfants #neuromarketing #industrie_influence