• #Université : une entreprise adepte de l’#optimisation_fiscale décroche le #marché des #tests_d’anglais

    Le gouvernement vient de confier l’organisation de #tests d’#anglais à l’université à une entreprise à la légitimité contestée, immatriculée à #Chypre et adepte de l’optimisation fiscale, pour plus de 8 millions d’euros par an. Au grand dam du corps enseignant.

    Dans les #facs vidées par le Covid-19 et qui se sentent abandonnées par l’État, l’attribution d’un #marché_public, fin décembre, a fait l’effet d’une petite bombe chez les enseignants en langue. L’objet de ce marché estimé à plus de 8 millions d’euros par an : l’organisation de tests et #certifications en anglais pour des centaines de milliers d’étudiants en licence, BTS ou DUT.

    Si quatre entreprises s’affrontaient au départ, le duel final a opposé #ETS_Global, une société qui fait référence (à l’origine du célèbre test #Toefl), à #PeopleCert, une entreprise fondée par un homme d’affaires grec et inconnue de la quasi-totalité des linguistes en France.

    Si ETS Global était devant, PeopleCert a cassé ses tarifs de 34,72 % pendant la phase de négociation avec le ministère de l’#enseignement_supérieur, d’après nos informations, pour emporter finalement le contrat.

    « La première chose que j’ai faite quand j’ai entendu ce nom, c’est d’aller voir leur site, qui comporte des fautes d’orthographe que je reprocherais à mes étudiants ! », raille Alexandra Sippel, maîtresse de conférences en cultures anglo-saxonnes à l’université Toulouse-Jean-Jaurès.

    Le choix de l’État est d’autant plus étonnant que PeopleCert pratique l’optimisation fiscale agressive, selon des documents consultés par Mediapart.

    #PeopleCert_International_Limited, l’entité qui a signé avec le ministère, est la société de tête d’un groupe qui en compte une dizaine (à Athènes, Londres, Istanbul ou Dubaï). Elle est immatriculée à Chypre, #paradis_fiscal européen très prisé, notamment des oligarques russes.

    C’était, lors de sa création, une société « boîte aux lettres » basée à l’adresse d’un cabinet de domiciliation chypriote. Elle contrôle deux sociétés britanniques, mais qui ne salarient que 8 personnes.

    En réalité, l’essentiel du travail est effectué par les sociétés grecques du groupe, dont la principale, #PeopleCert_Global_Services, employait 210 personnes en 2017 – en Grèce, le salaire minimum est presque deux fois moindre qu’en France.

    Étonnamment, PeopleCert Global Services réalisait seulement 412’000 euros de résultat pour 9,2 millions de chiffre d’affaires en 2018, tandis que la coquille chypriote #PeopleCert_International engrangeait 3,4 millions d’euros de profits.

    Il faut dire que les statuts de l’entité grecque autorisent deux des directeurs (dont le fils du fondateur) à effectuer « le transfert de n’importe quelle somme d’argent illimitée » vers les autres sociétés du groupe. En clair, le montage semble conçu pour transférer artificiellement les profits vers ce paradis fiscal.

    Entre 2015 et 2019, PeopleCert International a accumulé plus de 15 millions d’euros de bénéfices à Chypre, où le taux habituel de l’impôt sur les sociétés n’est que de 12,5 %, soit trois fois moins qu’en France.

    PeopleCert répond qu’aujourd’hui « plus de dix personnes sont employées dans les bureaux à Chypre, un État membre de l’UE ». « PeopleCert respecte la législation de chaque pays où il est implanté, en particulier la législation comptable, et y paie les impôts et taxes correspondants », indique #Frédéric_Borne, responsable du développement commercial de l’entreprise pour l’ouest de l’Europe.

    De son côté, le ministère de l’enseignement supérieur déclare à Mediapart que, Chypre étant membre de l’Union européenne, « l’implantation géographique du titulaire [du marché – ndlr] et de ses salariés n’a pas été prise en compte dans l’analyse des offres », car cela aurait été contraire au droit. Sur l’optimisation fiscale ? Aucun commentaire.

    Le fondateur grec du groupe, #Anastasios_Byron_Nikolaides, soigne aussi sa fiscalité personnelle. Entre 2011 et 2017, il contrôlait 100 % de PeopleCert International via des sociétés basées au #Liberia, remplacées en 2017 par une coquille offshore à Chypre, #PeopleCert_Holdings_Europe. Sollicité par Mediapart, il a refusé de répondre.

    Sa stratégie étonne d’autant plus qu’il répète à longueur d’interviews son attachement à la Grèce : ses parents, professeur d’anglais et institutrice, lui auraient inculqué le « philotimo », terme désignant le sens de l’honneur, du devoir, de la communauté.

    En 2018, il se félicitait de ne pas avoir abandonné son pays durement touché par la crise. « PeopleCert a fait ses preuves en maintenant non seulement son siège social en Grèce, mais aussi en y conservant des emplois ; aujourd’hui, plus de 90 % des employés de l’entreprise sont grecs », déclarait-il à Ritsa Masoura, présentée comme journaliste contributrice au Huffington Post Grèce, mais qui confie à Mediapart avoir travaillé deux ans pour PeopleCert.

    Les universitaires français apprécieront cette interprétation personnelle du « philotimo ». Ils sont nombreux, de toute façon, à s’élever contre le principe même de cette « #privatisation » des tests d’anglais. De quoi s’agit-il, exactement ?

    Jusqu’en 2018, chaque étudiant était libre de passer ou non une évaluation pour attester son niveau en langue (en plus de son diplôme) et de l’inscrire sur son CV. Il pouvait opter pour un dispositif public et gratuit (#le_Cles), ou bien pour le fameux #Toeic (organisé sur les campus, mais aux frais des candidats), ultra-populaire dans les écoles d’ingénieurs et les formations professionnalisantes.

    Puis Édouard Philippe, premier ministre, a décidé qu’une certification en langue serait obligatoire pour toute une série de diplômes (licence, BTS, DUT…) et a jugé indispensable de contracter avec un prestataire privé, au motif que le Cles manquerait de reconnaissance internationale.

    Depuis, la communauté universitaire est vent debout, dénonçant ici « une gabegie annoncée », là « une démonétisation des enseignements et diplômes accrédités par l’État », ou encore une « atteinte au plurilinguisme ». En septembre dernier, quinze associations de professeurs de langue ont lancé un #recours devant le #Conseil_d’État contre les textes rendant ces certifications obligatoires.

    Fin janvier, les mêmes ont attaqué l’attribution du marché à PeopleCert. « La question de la légitimité de cette entreprise se pose, de même que la question de la pertinence des critères d’attribution du marché et des modalités de sélection de l’entreprise retenue », écrivent-elles dans un communiqué.

    « Conclu sans montant maximum », le marché est reconductible tacitement chaque année jusqu’en 2024. Or, s’il s’agit de tester 22 000 étudiants en 2021, le volume doit gonfler à 281 000 étudiants « minimum » sur l’année universitaire 2023-2024. D’après les estimations de deux maîtresses de conférences, le coût pour l’État pourrait alors dépasser 32 millions d’euros par an. « [C’est] la moitié de l’enveloppe supplémentaire dévolue en 2020 à l’amélioration des conditions de vie étudiante », pointent-elles.

    Compte tenu de l’arrivée récente de PeopleCert dans l’univers des langues, sa victoire n’a fait qu’alimenter la controverse.

    Si la firme affirme avoir fait passer 7 millions d’examens dans 189 pays, elle ne précise pas la part de tests de langue dans ce total. Or, PeopleCert s’est construit en donnant des formations aux entreprises, aux particuliers ou aux ministères en cybersécurité, marketing digital ou management. Et s’il s’est ensuite fait un nom dans les certifications, c’est surtout en informatique et management.

    Plutôt que de développer son offre, PeopleCert a fondé son #business sur le rachat de certifications développées par d’autres. Depuis 2018, il distribue #Itil, une certification en gestion des services informatiques développée par un ancien organisme public anglais. En septembre, PeopleCert a acquis l’association américaine #IASSC et sa certification #Lean_Six_Sigma, populaire pour améliorer les performances des entreprises, récupérant ainsi de prestigieux clients comme Amazon, BMW, Cisco ou l’armée américaine.

    L’entreprise a adopté la même stratégie pour se diversifier dans les langues, avec sa marque #LanguageCert. Alors qu’il peinait jusqu’en 2015 à être reconnu dans le milieu universitaire, PeopleCert a ainsi acquis « toute la #propriété_intellectuelle et le matériel d’évaluation connexe pour les qualifications d’anglais de #City_&_Guilds, l’un des organismes de récompense les plus anciens et les plus prestigieux du Royaume-Uni », comme il le précise dans un dossier de présentation envoyé au corps enseignant français, le 1er février.

    Pour asseoir sa légitimité, PeopleCert s’est aussi payé un grand nom du secteur : #Michael_Milanovic, ancien PDG de #Cambridge_Assessment, qui baigne dans le milieu depuis plus de quarante ans.

    « Ils veulent se crédibiliser, mais leurs certifications en anglais sont des coquilles vides, confie Brice*, sous le couvert de l’anonymat, figure du secteur qui a côtoyé de près PeopleCert. On y voit bien leur philosophie : une plateforme qui délivre des examens créés par d’autres, mais pas un organisme de recherche et développement. Où sont les employés qui développent les items des tests de langues, où sont les psychomotriciens et statisticiens qui valident que la notation évalue bien ce qu’elle est censée évaluer ? »

    Cambridge Assessment et le leader du marché, #ETS_Global, emploient des dizaines de chercheurs pour développer et améliorer en permanence leurs systèmes de certification. Un coût que s’épargne PeopleCert avec sa stratégie de rachat.

    Malgré tout, le bilan de LanguageCert reste maigre, avec seulement une poignée de contrats signés ces dernières années : un au Royaume-Uni avec l’agence des visas et de l’immigration, et trois en Espagne, avec la région de Madrid, l’Andalousie et l’#université_Carlos-III.

    Et en #France ? L’entreprise a fait passer « 15’000 certifications pour l’année 2020, majoritairement par l’intermédiaire de ses 90 organismes de formation agréés sur 170 lieux d’examen », expose PeopleCert. Sans préciser s’il s’agit de tests d’anglais.

    Pour tenir le rythme, la société va devoir changer de braquet, puisque le marché signé avec le ministère prévoit la délivrance de 636’000 tests minimum sur quatre ans, soit un rythme annuel dix fois plus élevé que le total des tests réalisés en 2020 par la société en France.

    Le vice-président de la Société des anglicistes de l’enseignement supérieur, Cédric Sarré, s’interroge : « Ont-ils des examinateurs accrédités en France ? Des centres d’accréditation ? Leurs certifications sont-elles déjà utilisées par d’autres universités ? À ce stade, nous n’avons pas d’informations. »

    Responsable commercial de l’entreprise pour l’Europe de l’Ouest, Frédéric Borne répond que les étudiants auront le choix entre un test papier ou par ordinateur et que la surveillance des examens se fera au sein des universités, avec un chef surveillant dans chaque établissement pour vérifier le bon déroulé des tests.

    « Tous les services réalisés en France seront payés en France à des Français déployés sur le terrain », ajoute-t-il. Sans préciser si les corrections se feront en Grèce, pays où se trouve la grande majorité des salariés de PeopleCert.

    https://www.mediapart.fr/journal/france/150221/universite-une-entreprise-adepte-de-l-optimisation-fiscale-decroche-le-mar

  • How the Mercers Funded Election Unrest
    https://theintercept.com/2021/01/14/capitol-riot-mercers-election-unrest

    The billionaire Republican megadonors have funded numerous organizations now peddling baseless claims about the election. The storming of the U.S. Capitol on January 6 has brought to the fore a host of activists on the extreme right whose violent rhetoric helped to create the conditions for an assault that left five dead. One of the most prominent of those activists is Arizona Republican Party Chair Kelli Ward. On December 19, Ward fired off a tweet urging President Donald Trump to “cross (...)

    #CambridgeAnalytica/Emerdata #manipulation #élections #extrême-droite #lobbying

    ##CambridgeAnalytica/Emerdata

  • Facebook claims it does not conduct business in Australia in Cambridge Analytica appeal
    https://www.theguardian.com/technology/2021/jan/19/facebook-asks-to-appeal-court-ruling-that-it-conducts-business-in-austr

    Social media company aims to avoid liability over Cambridge Analytica scandal by arguing it does not collect or hold data in Australia Facebook is claiming it does not conduct business in Australia and does not collect and hold data in the country in its effort to avoid liability over the Cambridge Analytica scandal. Last year, the privacy commissioner took Facebook to court over an alleged mass privacy breach involving the use of Australians’ Facebook data in a vote-influencing operation (...)

    #CambridgeAnalytica/Emerdata #Facebook #algorithme #cookies #thisisyourdigitallife #manipulation #données #élections (...)

    ##CambridgeAnalytica/Emerdata ##profiling
    https://i.guim.co.uk/img/media/16a62329a93abece7af8d300cbb7f98b1d28ed8e/0_5_2545_1528/master/2545.jpg

  • Inside China’s unexpected quest to protect data privacy
    https://www.technologyreview.com/2020/08/19/1006441/china-data-privacy-hong-yanqing-gdpr

    A new privacy law would look a lot like Europe’s GDPR—but will it restrict state surveillance?

    Late in the summer of 2016, Xu Yuyu received a call that promised to change her life. Her college entrance examination scores, she was told, had won her admission to the English department of the Nanjing University of Posts and Telecommunications. Xu lived in the city of Linyi in Shandong, a coastal province in China, southeast of Beijing. She came from a poor family, singularly reliant on her father’s meager income. But her parents had painstakingly saved for her tuition; very few of her relatives had ever been to college.

    A few days later, Xu received another call telling her she had also been awarded a scholarship. To collect the 2,600 yuan ($370), she needed to first deposit a 9,900 yuan “activation fee” into her university account. Having applied for financial aid only days before, she wired the money to the number the caller gave her. That night, the family rushed to the police to report that they had been defrauded. Xu’s father later said his greatest regret was asking the officer whether they might still get their money back. The answer—“Likely not”—only exacerbated Xu’s devastation. On the way home she suffered a heart attack. She died in a hospital two days later.

    An investigation determined that while the first call had been genuine, the second had come from scammers who’d paid a hacker for Xu’s number, admissions status, and request for financial aid.

    For Chinese consumers all too familiar with having their data stolen, Xu became an emblem. Her death sparked a national outcry for greater data privacy protections. Only months before, the European Union had adopted the General Data Protection Regulation (GDPR), an attempt to give European citizens control over how their personal data is used. Meanwhile, Donald Trump was about to win the American presidential election, fueled in part by a campaign that relied extensively on voter data. That data included details on 87 million Facebook accounts, illicitly obtained by the consulting firm Cambridge Analytica. Chinese regulators and legal scholars followed these events closely.

    In the West, it’s widely believed that neither the Chinese government nor Chinese people care about privacy. US tech giants wield this supposed indifference to argue that onerous privacy laws would put them at a competitive disadvantage to Chinese firms. In his 2018 Senate testimony after the Cambridge Analytica scandal, Facebook’s CEO, Mark Zuckerberg, urged regulators not to clamp down too hard on technologies like face recognition. “We still need to make it so that American companies can innovate in those areas,” he said, “or else we’re going to fall behind Chinese competitors and others around the world.”

    In reality, this picture of Chinese attitudes to privacy is out of date. Over the last few years the Chinese government, seeking to strengthen consumers’ trust and participation in the digital economy, has begun to implement privacy protections that in many respects resemble those in America and Europe today.

    Even as the government has strengthened consumer privacy, however, it has ramped up state surveillance. It uses DNA samples and other biometrics, like face and fingerprint recognition, to monitor citizens throughout the country. It has tightened internet censorship and developed a “social credit” system, which punishes behaviors the authorities say weaken social stability. During the pandemic, it deployed a system of “health code” apps to dictate who could travel, based on their risk of carrying the coronavirus. And it has used a slew of invasive surveillance technologies in its harsh repression of Muslim Uighurs in the northwestern region of Xinjiang.

    This paradox has become a defining feature of China’s emerging data privacy regime, says Samm Sacks, a leading China scholar at Yale and New America, a think tank in Washington, DC. It raises a question: Can a system endure with strong protections for consumer privacy, but almost none against government snooping? The answer doesn’t affect only China. Its technology companies have an increasingly global footprint, and regulators around the world are watching its policy decisions.

    November 2000 arguably marks the birth of the modern Chinese surveillance state. That month, the Ministry of Public Security, the government agency that oversees daily law enforcement, announced a new project at a trade show in Beijing. The agency envisioned a centralized national system that would integrate both physical and digital surveillance using the latest technology. It was named Golden Shield.

    Eager to cash in, Western companies including American conglomerate Cisco, Finnish telecom giant Nokia, and Canada’s Nortel Networks worked with the agency on different parts of the project. They helped construct a nationwide database for storing information on all Chinese adults, and developed a sophisticated system for controlling information flow on the internet—what would eventually become the Great Firewall. Much of the equipment involved had in fact already been standardized to make surveillance easier in the US—a consequence of the Communications Assistance for Law Enforcement Act of 1994.

    Despite the standardized equipment, the Golden Shield project was hampered by data silos and turf wars within the Chinese government. Over time, the ministry’s pursuit of a singular, unified system devolved into two separate operations: a surveillance and database system, devoted to gathering and storing information, and the social-credit system, which some 40 government departments participate in. When people repeatedly do things that aren’t allowed—from jaywalking to engaging in business corruption—their social-credit score falls and they can be blocked from things like buying train and plane tickets or applying for a mortgage.

    In the same year the Ministry of Public Security announced Golden Shield, Hong Yanqing entered the ministry’s police university in Beijing. But after seven years of training, having received his bachelor’s and master’s degrees, Hong began to have second thoughts about becoming a policeman. He applied instead to study abroad. By the fall of 2007, he had moved to the Netherlands to begin a PhD in international human rights law, approved and subsidized by the Chinese government.

    Over the next four years, he familiarized himself with the Western practice of law through his PhD research and a series of internships at international organizations. He worked at the International Labor Organization on global workplace discrimination law and the World Health Organization on road safety in China. “It’s a very legalistic culture in the West—that really strikes me. People seem to go to court a lot,” he says. “For example, for human rights law, most of the textbooks are about the significant cases in court resolving human rights issues.”

    Hong found this to be strangely inefficient. He saw going to court as a final resort for patching up the law’s inadequacies, not a principal tool for establishing it in the first place. Legislation crafted more comprehensively and with greater forethought, he believed, would achieve better outcomes than a system patched together through a haphazard accumulation of case law, as in the US.

    After graduating, he carried these ideas back to Beijing in 2012, on the eve of Xi Jinping’s ascent to the presidency. Hong worked at the UN Development Program and then as a journalist for the People’s Daily, the largest newspaper in China, which is owned by the government.

    Xi began to rapidly expand the scope of government censorship. Influential commentators, or “Big Vs”—named for their verified accounts on social media—had grown comfortable criticizing and ridiculing the Chinese Communist Party. In the fall of 2013, the party arrested hundreds of microbloggers for what it described as “malicious rumor-mongering” and paraded a particularly influential one on national television to make an example of him.

    The moment marked the beginning of a new era of censorship. The following year, the Cyberspace Administration of China was founded. The new central agency was responsible for everything involved in internet regulation, including national security, media and speech censorship, and data protection. Hong left the People’s Daily and joined the agency’s department of international affairs. He represented it at the UN and other global bodies and worked on cybersecurity cooperation with other governments.

    By July 2015, the Cyberspace Administration had released a draft of its first law. The Cybersecurity Law, which entered into force in June of 2017, required that companies obtain consent from people to collect their personal information. At the same time, it tightened internet censorship by banning anonymous users—a provision enforced by regular government inspections of data from internet service providers.

    In the spring of 2016, Hong sought to return to academia, but the agency asked him to stay. The Cybersecurity Law had purposely left the regulation of personal data protection vague, but consumer data breaches and theft had reached unbearable levels. A 2016 study by the Internet Society of China found that 84% of those surveyed had suffered some leak of their data, including phone numbers, addresses, and bank account details. This was spurring a growing distrust of digital service providers that required access to personal information, such as ride-hailing, food-delivery, and financial apps. Xu Yuyu’s death poured oil on the flames.

    The government worried that such sentiments would weaken participation in the digital economy, which had become a central part of its strategy for shoring up the country’s slowing economic growth. The advent of GDPR also made the government realize that Chinese tech giants would need to meet global privacy norms in order to expand abroad.

    Hong was put in charge of a new task force that would write a Personal Information Protection Specification (PIPS) to help solve these challenges. The document, though nonbinding, would tell companies how regulators intended to implement the Cybersecurity Law. In the process, the government hoped, it would nudge them to adopt new norms for data protection by themselves.

    Hong’s task force set about translating every relevant document they could find into Chinese. They translated the privacy guidelines put out by the Organization for Economic Cooperation and Development and by its counterpart, the Asia-Pacific Economic Cooperation; they translated GDPR and the California Consumer Privacy Act. They even translated the 2012 White House Consumer Privacy Bill of Rights, introduced by the Obama administration but never made into law. All the while, Hong met regularly with European and American data protection regulators and scholars.

    Bit by bit, from the documents and consultations, a general choice emerged. “People were saying, in very simplistic terms, ‘We have a European model and the US model,’” Hong recalls. The two approaches diverged substantially in philosophy and implementation. Which one to follow became the task force’s first debate.

    At the core of the European model is the idea that people have a fundamental right to have their data protected. GDPR places the burden of proof on data collectors, such as companies, to demonstrate why they need the data. By contrast, the US model privileges industry over consumers. Businesses define for themselves what constitutes reasonable data collection; consumers only get to choose whether to use that business. The laws on data protection are also far more piecemeal than in Europe, divvied up among sectoral regulators and specific states.

    At the time, without a central law or single agency in charge of data protection, China’s model more closely resembled the American one. The task force, however, found the European approach compelling. “The European rule structure, the whole system, is more clear,” Hong says.

    But most of the task force members were representatives from Chinese tech giants, like Baidu, Alibaba, and Huawei, and they felt that GDPR was too restrictive. So they adopted its broad strokes—including its limits on data collection and its requirements on data storage and data deletion—and then loosened some of its language. GDPR’s principle of data minimization, for example, maintains that only necessary data should be collected in exchange for a service. PIPS allows room for other data collection relevant to the service provided.

    PIPS took effect in May 2018, the same month that GDPR finally took effect. But as Chinese officials watched the US upheaval over the Facebook and Cambridge Analytica scandal, they realized that a nonbinding agreement would not be enough. The Cybersecurity Law didn’t have a strong mechanism for enforcing data protection. Regulators could only fine violators up to 1,000,000 yuan ($140,000), an inconsequential amount for large companies. Soon after, the National People’s Congress, China’s top legislative body, voted to begin drafting a Personal Information Protection Law within its current five-year legislative period, which ends in 2023. It would strengthen data protection provisions, provide for tougher penalties, and potentially create a new enforcement agency.

    After Cambridge Analytica, says Hong, “the government agency understood, ‘Okay, if you don’t really implement or enforce those privacy rules, then you could have a major scandal, even affecting political things.’”

    The local police investigation of Xu Yuyu’s death eventually identified the scammers who had called her. It had been a gang of seven who’d cheated many other victims out of more than 560,000 yuan using illegally obtained personal information. The court ruled that Xu’s death had been a direct result of the stress of losing her family’s savings. Because of this, and his role in orchestrating tens of thousands of other calls, the ringleader, Chen Wenhui, 22, was sentenced to life in prison. The others received sentences between three and 15 years.Retour ligne automatique
    xu yuyu

    Emboldened, Chinese media and consumers began more openly criticizing privacy violations. In March 2018, internet search giant Baidu’s CEO, Robin Li, sparked social-media outrage after suggesting that Chinese consumers were willing to “exchange privacy for safety, convenience, or efficiency.” “Nonsense,” wrote a social-media user, later quoted by the People’s Daily. “It’s more accurate to say [it is] impossible to defend [our privacy] effectively.”

    In late October 2019, social-media users once again expressed anger after photos began circulating of a school’s students wearing brainwave-monitoring headbands, supposedly to improve their focus and learning. The local educational authority eventually stepped in and told the school to stop using the headbands because they violated students’ privacy. A week later, a Chinese law professor sued a Hangzhou wildlife zoo for replacing its fingerprint-based entry system with face recognition, saying the zoo had failed to obtain his consent for storing his image.

    But the public’s growing sensitivity to infringements of consumer privacy has not led to many limits on state surveillance, nor even much scrutiny of it. As Maya Wang, a researcher at Human Rights Watch, points out, this is in part because most Chinese citizens don’t know the scale or scope of the government’s operations. In China, as in the US and Europe, there are broad public and national security exemptions to data privacy laws. The Cybersecurity Law, for example, allows the government to demand data from private actors to assist in criminal legal investigations. The Ministry of Public Security also accumulates massive amounts of data on individuals directly. As a result, data privacy in industry can be strengthened without significantly limiting the state’s access to information.

    The onset of the pandemic, however, has disturbed this uneasy balance.

    On February 11, Ant Financial, a financial technology giant headquartered in Hangzhou, a city southwest of Shanghai, released an app-building platform called AliPay Health Code. The same day, the Hangzhou government released an app it had built using the platform. The Hangzhou app asked people to self-report their travel and health information, and then gave them a color code of red, yellow, or green. Suddenly Hangzhou’s 10 million residents were all required to show a green code to take the subway, shop for groceries, or enter a mall. Within a week, local governments in over 100 cities had used AliPay Health Code to develop their own apps. Rival tech giant Tencent quickly followed with its own platform for building them.

    The apps made visible a worrying level of state surveillance and sparked a new wave of public debate. In March, Hu Yong, a journalism professor at Beijing University and an influential blogger on Weibo, argued that the government’s pandemic data collection had crossed a line. Not only had it led to instances of information being stolen, he wrote, but it had also opened the door to such data being used beyond its original purpose. “Has history ever shown that once the government has surveillance tools, it will maintain modesty and caution when using them?” he asked.

    Indeed, in late May, leaked documents revealed plans from the Hangzhou government to make a more permanent health-code app that would score citizens on behaviors like exercising, smoking, and sleeping. After a public outcry, city officials canceled the project. That state-run media had also published stories criticizing the app likely helped.

    The debate quickly made its way to the central government. That month, the National People’s Congress announced it intended to fast-track the Personal Information Protection Law. The scale of the data collected during the pandemic had made strong enforcement more urgent, delegates said, and highlighted the need to clarify the scope of the government’s data collection and data deletion procedures during special emergencies. By July, the legislative body had proposed a new “strict approval” process for government authorities to undergo before collecting data from private-sector platforms. The language again remains vague, to be fleshed out later—perhaps through another nonbinding document—but this move “could mark a step toward limiting the broad scope” of existing government exemptions for national security, wrote Sacks and fellow China scholars at New America.

    Hong similarly believes the discrepancy between rules governing industry and government data collection won’t last, and the government will soon begin to limit its own scope. “We cannot simply address one actor while leaving the other out,” he says. “That wouldn’t be a very scientific approach.”

    Other observers disagree. The government could easily make superficial efforts to address public backlash against visible data collection without really touching the core of the Ministry of Public Security’s national operations, says Wang, of Human Rights Watch. She adds that any laws would likely be enforced unevenly: “In Xinjiang, Turkic Muslims have no say whatsoever in how they’re treated.”

    Still, Hong remains an optimist. In July, he started a job teaching law at Beijing University, and he now maintains a blog on cybersecurity and data issues. Monthly, he meets with a budding community of data protection officers in China, who carefully watch how data governance is evolving around the world.

    #criminalité #Nokia_Siemens #fraude #Huawei #payement #Cisco #CambridgeAnalytica/Emerdata #Baidu #Alibaba #domination #bénéfices #BHATX #BigData #lutte #publicité (...)

    ##criminalité ##CambridgeAnalytica/Emerdata ##publicité ##[fr]Règlement_Général_sur_la_Protection_des_Données__RGPD_[en]General_Data_Protection_Regulation__GDPR_[nl]General_Data_Protection_Regulation__GDPR_ ##Nortel_Networks ##Facebook ##biométrie ##consommation ##génétique ##consentement ##facial ##reconnaissance ##empreintes ##Islam ##SocialCreditSystem ##surveillance ##TheGreatFirewallofChina ##HumanRightsWatch

  • Who (really) targets you ?
    https://panoptykon.org/political-ads-report

    Facebook in Polish election campaigns INTRODUCTION Beginning in 2018, on the heels of the Cambridge Analytica scandal, conversations about the scale and impact of political microtargeting (‘PMT’) began to significantly fuel the newscycle and shape the political agenda. The EU began its war on disinformation and convinced leading internet platforms, including Facebook, to self-regulate. As a result, internet users were offered new tools and disclaimers (see : Facebook moves towards (...)

    #CambridgeAnalytica/Emerdata #Facebook #algorithme #manipulation #données #élections #microtargeting #profiling (...)

    ##CambridgeAnalytica/Emerdata ##publicité

  • Exploitation des données, manipulation de l’opinion, culte du secret… La trahison des GAFA
    https://www.lemonde.fr/m-le-mag/article/2020/12/18/exploitation-des-donnees-manipulation-de-l-opinion-culte-du-secret-la-trahis

    Il y a encore quelques années, Mark Zuckerberg était considéré comme un génie, Google comme l’une des entreprises les plus cool au monde… et puis la confiance s’est perdue. L’avidité des géants de la tech semble avoir eu raison des valeurs des pionniers du numérique : liberté, innovation et progrès.

    Deux jours d’audience de presque cinq heures chacune, pas loin de six cents questions, une centaine de membres du Congrès. Et face à eux : Mark Zuckerberg, le puissant PDG de Facebook, costume et cravate bleus, visage gris. Nous sommes le 10 avril 2018 et le prodige des nouvelles technologies, 33 ans, troisième fortune mondiale, témoigne pour la ­première fois devant les élus américains. Ce ne sera pas la dernière.

    « Mon équipe reviendra vers vous pour des détails supplémentaires », martèle-t-il à seize reprises en guise de réponse aux interrogations minutées des démocrates et des républicains. Elles sont pourtant simples : les données personnelles récoltées par Facebook ont-elles été transmises à des entreprises tierces ? Ces données étaient-elles protégées par les serveurs de l’entreprise ? Ou encore quelle fut la réaction de l’entreprise face aux comptes diffusant des « fake news », notamment sur la vie politique américaine ? Imperturbable, Mark Zuckerberg conserve une voix monotone et une expression neutre. Comme s’il était habitué à être questionné de la sorte.

    A vrai dire, le jeune patron a été formé en urgence par un ancien conseiller spécial du président George W. Bush, sous la pression du scandale Cambridge Analytica. Soit l’utilisation illégale des données personnelles d’environ 87 millions d’utilisateurs de Facebook par cette entreprise britannique financée par le businessman ultraconservateur Robert Mercer, et cofondée par Steve Bannon, ancien stratège du président américain Donald Trump. Tout ça dans le but de favoriser l’élection de ce dernier, en novembre 2016 – une méthode visiblement efficace.

    Au micro, le sénateur du Dakota du Sud John Thune résume l’atmosphère au Capitole : « Dans le passé, beaucoup de mes collègues, des deux côtés de l’allée [majorité et opposition, des deux côtés de l’hémicycle au Sénat], étaient prêts à laisser les entreprises technologiques faire l’effort de s’autoréguler. » Pause. « Cela pourrait changer. » L’image est emblématique : Mark Zuckerberg garde les mains posées sur le large bureau noir, face à des dizaines d’appareils photo, comme s’il craignait d’être englouti par ce haut lieu du pouvoir américain. Il se raccroche aux origines « modestes » de son entreprise, créée dans un « dortoir » de l’université Harvard en 2004, et concède : « Nous avons fait des erreurs et nous essayons d’en tirer des conclusions. » Comme un premier aveu de faiblesse.Retour ligne automatique
    La Silicon Valley tremble

    Il y en aura d’autres. Au-delà du plus célèbre réseau social, scruté de plus en plus intensément aux Etats-Unis comme dans l’Union Européenne, c’est la Silicon Valley tout entière qui tremble. La crise est sans précédent. A tel point que, le 16 décembre 2018, l’influent Financial Times dévoile un « mot de l’année » inédit et directement adressé à l’industrie la plus riche de l’histoire : techlash. Contraction de tech et backlash (« contrecoup », en VF), il désigne l’animosité croissante d’une large part de la population envers les plus grandes entreprises technologiques mondiales et leur pouvoir intimidant.

    « Même la femme au foyer de 50 ans originaire du Minnesota intéresse Cambridge Analytica. Nous sommes tous victimes de la surveillance généralisée. » Christopher Wylie, lanceur d’alerte

    L’année suivante, un sondage du Pew Research Center confirme l’intuition du média financier : la part d’Américains persuadés que la technologie produit un impact positif sur la société est passée à seulement 50 % en 2019, contre 71 % en 2015. « A mesure que les grandes entreprises technologiques se sont hissées au top du capitalisme mondial, les contestations sont apparues », constate Sébastien Broca, sociologue à l’université Paris-VIII.

    Difficile d’en vouloir à l’opinion : en quelques années à peine, ces innovations, vendues comme révolutionnaires et consacrées au bien commun, ont accompagné l’élection de Donald Trump et sa rhétorique raciste et rétrograde ; Google a discrètement cherché à développer un moteur de recherche censuré, le projet « Dragonfly », fait sur mesure pour respecter les exigences du gouvernement chinois ; Amazon a nié toutes les avancées du droit du travail pour maintenir la cadence dans ses immenses entrepôts nécessaires à la vente en ligne.

    Les exemples ne manquent pas. « Le techlash est le résultat prévisible pour une industrie incapable de se gouverner elle-même », conclut le Financial Times. Depuis, les mêmes questions ne cessent de hanter les cercles de pouvoir, les médias et les plates-formes de discussions, tous réseaux sociaux confondus : où est passée l’utopie ? Comment la Silicon Valley a-t-elle pu devenir cette inquiétante machine dont on aurait visiblement perdu le contrôle ? Peut-on encore l’empêcher de menacer nos libertés, nos vies privées, et peut-être même la démocratie ?Retour ligne automatique
    Le coup de grâce Cambridge Analytica

    Sa puissance, visiblement sans limites, est déjà devenue « inquiétante », selon les termes de plusieurs personnes interrogées pour cet article. Pour une industrie de la tech déjà en plein doute existentiel, les révélations sur les pratiques de l’entreprise Cambridge Analytica font office de coup de grâce. En 2018, l’ancien consultant Christopher Wylie, qui a travaillé pour cette entreprise britannique spécialisée dans le conseil en communication et l’analyse de données, transfère des disques durs de documents à plusieurs journalistes du quotidien anglais The Guardian, toutes employées dans la rubrique « Arts et culture ».

    « Il n’y avait pas un seul journaliste tech sur cette histoire, raconte le lanceur d’alerte via Zoom, il fallait des gens, en l’occurrence uniquement des femmes, qui ne faisaient pas partie de ce petit monde masculin pour pointer ses failles. » Elles sont béantes : un outil dédié à la lutte contre la radicalisation aurait été tordu pour devenir un vaste projet de manipulation des données permettant d’influer sur plusieurs élections démocratiques. Cambridge Analytica serait ainsi devenu un outil de « guerre psychologique », pointe Christopher Wylie.

    L’impact médiatique de cette série d’articles est à la hauteur des informations rendues publiques. Le trentenaire, installé à Londres, se lance dans une « tournée d’audiences parlementaires », s’exprime sur tous les plateaux de télévision disponibles, devient le visage – cheveux de couleurs variées, lunettes branchées – de la débâcle de la tech. Il précise : « Pour la première fois, tout le monde a compris qu’il pouvait être une cible, même la femme au foyer de 50 ans originaire du Minnesota intéresse Cambridge Analytica. Nous sommes tous victimes de la surveillance généralisée. » Avec, comme dommage collatéral, les idéaux fondateurs de la Silicon Valley.Retour ligne automatique
    Des nerds devenus les rois du monde

    Cupertino, Californie, 1984. Jean-Louis Gassée est attablé au Good Earth, un café du centre-ville aujourd’hui disparu pour cause de gentrification. C’est l’heure du petit-déjeuner. Le premier d’une nouvelle vie. Le Français de 40 ans vient d’être nommé directeur de la division recherche et développement chez Apple, les cool kids de l’ordinateur personnel – un Macintosh, comme ils ont appelé leur révolution estampillée d’une pomme croquée. Mais, pour l’instant, Jean-Louis Gassée regarde le ciel et laisse son esprit vagabonder dans le big sky country.

    « La tech était sexy, c’était le futur et c’était forcément génial ! Je crois qu’il y a eu un gros manque de responsabilité de la part de ces leaders politiques qui n’ont pas prêté attention aux signes avant-coureurs. » Un ancien grand patron de la tech

    « Je me disais, ça y est, je suis arrivé, rejoue-t-il aujourd’hui par téléphone depuis la Côte ouest, c’est l’endroit où j’avais toujours voulu aller. » Depuis son arrivée chez Hewlett-Packard, et sa branche française, en 1968, le cadre n’a jamais cessé de rêver des Etats-Unis. Là-bas, il entrevoit le « sentiment des possibilités » et une culture de l’entreprenariat plus aboutie qu’à Paris. « Il n’y avait pas que le fric qui comptait ! Je voulais y aller pour faire ce qui n’existait pas avant, pour innover ! », sourit l’ancien businessman, 76 ans aujourd’hui. En l’espace de deux décennies, il a vu se lancer des dizaines de start-up, et certaines sont devenues, depuis, des empires.

    La saga emblématique de cet âge d’or reste peut-être celle de Google, symbole de la méritocratie en vogue au cœur de cette Silicon Valley encore tâtonnante. La preuve : Larry Page et Sergey Brin sont les « deux meilleurs ingénieurs » de l’université Stanford et ils ont une « idée toute simple et très belle », assure l’entrepreneur. Ils souhaitent ranger les pages Internet en les classant selon leur mérite. Jean-Louis Gassée : « Ils ont construit un algorithme, mis sur pied quelques serveurs et c’est devenu ce qu’on sait. »

    Hors de cette bulle de nerds devenus les rois du monde, on loue aussi la vision de cette jeune génération fraîchement débarquée dans les affaires, prête à tout gagner, autant qu’à « contribuer au bien de l’humanité ». Les médias érigent Steve Jobs, et plus tard Mark Zuckerberg ou Jeff Bezos, au rang de nouvelles figures du cool et de la réussite à l’américaine. Le grand public est conquis. Et les décideurs politiques leur ouvrent bientôt grand les portes. Toutes les portes.

    Snowden sonne l’alarme

    Les années Obama sont le théâtre d’une véritable love story entre la tech et la Maison Blanche. A partir de 2008, les pontes de Google ont organisé près d’« un rendez-vous par semaine » avec le président, selon un ancien patron d’une grande entreprise canadienne. A en croire les archives répertoriées pendant les deux mandats de Barack Obama, près de quatre cents de ces rendez-vous ont bien eu lieu dans la plus haute sphère du pouvoir politique.

    Assez pour que de nombreux hauts fonctionnaires poursuivent leur carrière dans les conseils d’administration des mastodontes de la Silicon Valley. Et vice versa. Un feu vert symbolique pour tout un corps de métier. Cet ancien grand nom de l’innovation canadienne confirme : « La tech était sexy, c’était le futur et c’était forcément génial ! Je crois qu’il y a eu un gros manque de responsabilité de la part de ces leaders politiques qui n’ont pas prêté attention aux signes avant-coureurs. Ces signaux étaient pourtant là. »

    Le plus flagrant se manifeste en 2013. C’est un cataclysme. Le jeune informaticien Edward Snowden dévoile un vaste programme de surveillance de masse pilotée par la NSA (National Security Agency). Les services de renseignement ont puisé directement des données sur les plateformes Internet et dans les entreprises de leur propre pays, sans autorisation ni contrôle. Adolescent dans les années 1990, Snowden avait cru aux interventions des pionniers de la tech, détaille-t-il dans son autobiographie. « Il raconte comment, à 14 ans, il pouvait parler à des scientifiques renommés à l’autre bout du monde, explique le sociologue Sébastien Broca. Mais, pour lui, il y a eu trahison de cette utopie initiale. »

    C’est ainsi qu’il justifie son geste radical et pour lequel il sera prêt à vivre en exil au nom de la protection de nos données privées. Dans ce programme, décrit comme « orwellien » par la justice fédérale américaine, les grandes entreprises mises en cause ont souvent été considérées comme victimes plutôt que complices. Malgré leur participation évidente à certaines de ces manœuvres.

    Le péché originel

    A la même époque, le 17 juin 2014, Facebook et la prestigieuse université Cornell publient un article scientifique intitulé « La preuve expérimentale de la contagion émotionnelle à grande échelle à travers les réseaux sociaux », ou comment manipuler les sentiments des utilisateurs des réseaux sociaux grâce à des publicités ciblées. Comme une conclusion logique, l’année suivante, Google abandonne sans bruit son slogan historique, le célèbre « Don’t be evil » (« ne faites pas le mal »).

    Mais pour Tim O’Reilly, pionnier légendaire de la Silicon Valley, le ver était dans le fruit bien avant les révélations de Snowden : « Le 8 février 1996, la section 230 a été adoptée dans la loi américaine, qui permet aux plateformes Internet de ne pas être responsables des publications sur leurs sites, détaille l’entrepreneur, donc on a arrêté de modérer le contenu correctement. »

    En parallèle, un autre verrou saute : la monétisation des données. Oublié l’utopie de start-up tournées vers le bien commun. A l’aube des années 2000, les nouvelles compagnies commencent à songer en termes de rentabilité et Google se met à vendre ses données au plus offrant. La pratique sera bientôt généralisée et des milliards de dollars de profits suivront.

    Et l’on découvre que les GAFA sont des entreprises capitalistes comme les autres, voire pire que les autres. Pour Tim O’Reilly, la tech s’inscrit dans la logique ultralibérale définie par l’économiste Milton Friedman. Dans une tribune publiée dans le New York Times Magazine le 13 septembre 1970, le futur Prix Nobel écrivait : « La responsabilité sociale des entreprises est de générer du profit. » Tim O’Reilly y voit le péché originel, le fruit défendu dans lequel ont croqué les GAFA. Jusqu’à ce que le paradis fantasmé ne devienne un enfer.

    La fronde des employés

    Le 1er novembre 2018, à 11 heures du matin, environ 20 000 employés de Google quittent leur poste de travail, sans un regard pour les open spaces bientôt déserts. Dublin, Chicago, Zurich ou Berlin, presque aucun bureau n’échappe à la « plus grande grève de l’histoire du droit du travail moderne », selon Ben Tarnoff, auteur du livre d’entretiens Voices from the Valley (2020, non traduit), organisée simultanément dans cinquante villes. Les employés modèles protestent contre les parachutes dorés offerts à plusieurs cadres dirigeants accusés de harcèlement sexuel – notamment Andy Rubin, créateur de la technologie Android, parti avec 90 millions de dollars.

    Cette « révolte de la tech » dans le plus grand moteur de recherche du monde avait débuté plus tôt dans l’année, contre le « Projet Maven » – un contrat noué avec le Pentagone pour améliorer le programme de drones américains à l’aide de l’intelligence artificielle. « Ces sujets sont devenus très importants au cours des deux dernières années, raconte Evan Greer, directeur adjoint de Fight for the Future, un organisme à but non lucratif militant pour la défense des droits des usagers du numérique. Et ils interrogent plus largement le but de toute cette technologie. »

    « Beaucoup d’entreprises se sont associées à des boîtes dont le seul but est de briser toute tentative de création de syndicat. » Ben Tarnoff, employé de la Silicon Valley

    Conscients de leur pouvoir immense, les employés de ces entreprises s’associent aux mouvements nationaux et internationaux, de Black Lives Matter aux différents cercles féministes impliqués dans la lutte contre le harcèlement et le viol depuis les révélations de #metoo en 2017. « Toutes ces actions ne viennent pas de nulle part, elles reposent sur une dynamique plus globale dans la société », souligne Evan Greer.

    Résultat, toute la « Vallée » est bientôt rythmée par les levées de boucliers : des employés pressent Microsoft d’abandonner ses liens et son projet à 10 milliards de dollars avec l’armée américaine ; en pleine administration Trump, l’entreprise Salesforce est pointée du doigt pour son partenariat avec les douanes américaines ; Amazon doit, pour la première fois, organiser des négociations avec les employés de ses hangars de tri. Alors, tout est en train de s’arranger ? Pas vraiment.Retour ligne automatique
    Représailles et surveillance

    « On dirait que c’est de nouveau le XIXe siècle », s’amuse Ben Tarnoff, comme pour tenir l’épuisement à distance. Par là, l’employé de la Silicon Valley fait référence aux « représailles agressives » tristement devenues la norme sous le soleil de la Californie. Dans les plus grandes entreprises, plusieurs leaders de ces mouvements spontanés ont été licenciés dans la foulée de leurs prises de parole publiques.

    En novembre 2020, le site d’information américain Motherboard révèle qu’Amazon a signé un généreux contrat avec l’entreprise Pinkerton, leader historique des agences anti-syndicats et spécialisée dans l’espionnage des employés prêts à sortir du rang. « Beaucoup d’entreprises se sont associées à des boîtes dont le seul but est de briser toute tentative de création de syndicat », précise Ben Tarnoff.

    Pour ne prendre aucun risque, les moyens de surveillance développés dans la Silicon Valley sont régulièrement utilisés en interne – même chez Google, l’une des entreprises les plus « libres » : les téléphones professionnels sont mis sur écoute, les serveurs internes prévus pour les échanges entre services sont rendus accessibles au management et des accords de confidentialité impitoyables sont imposés à certains employés. Le pire ? Tout ça fonctionne. Depuis l’année 2018, le nombre de manifestations publiques ou privées a drastiquement diminué. La routine semble avoir repris ses droits. Ben Tarnoff : « Après la frustration et la colère de voir leurs équipes se rebeller, beaucoup de cadres dirigeants ont adopté un discours réactionnaire. »Retour ligne automatique
    Les « réformateurs de la tech »

    D’autres ont pris le chemin inverse, renoncé à leurs salaires à six chiffres, leurs titres ronflants et leurs portefeuilles de stock-options, pour se lancer dans la mêlée. C’est le cas de Jim Balsillie, ancien PDG de l’entreprise RIM et créateur du célèbre BlackBerry, devenu en quelques années une figure centrale d’un jeune mouvement de « réformateurs de la tech ». Soit d’anciens cadres haut placés et chief executive officers (CEO) qui ont vu la bête de l’intérieur, le désastre potentiel et ont décidé de ne pas rester les bras ballants. « Je ne pensais pas que la tech deviendrait si toxique », regrette le multimilliardaire.

    Ses actions contre le projet de « smart city » pilotée par Google à Toronto, la ville où il a fait ses études, aux côtés d’associations locales, ses travaux avec le milliardaire hongrois George Soros pour le Forum économique mondial de Davos ou la création de plusieurs think tanks ont fait de lui un véritable « activiste », comme l’a résumé Shoshana Zuboff, influente autrice de L’Age du capitalisme de surveillance (Zulma, 2020). Aux côtés de puissantes personnalités de la Silicon Valley, comme Roger McNamee, ancien mentor de Mark Zuckerberg et investisseur star de Californie, ou Tristan Harris, ancien cadre de Google, il pointe la cupidité des nouveaux pontes de l’innovation, emportés par leur hubris et leurs rêves de monopole, encouragés par des succès tonitruants ou leurs réactions violentes face à la moindre tentative de contrôle.

    Jim Balsillie rappelle : « Dans l’histoire, le travail des enfants, l’esclavage et les déchets toxiques ont été bannis. Nous avons toujours imposé des règles pour contrôler le capitalisme, afin que le bien-être de la société reste l’objectif final. » L’entrepreneur aimerait bien que cela continue. Fin novembre 2020, 132 patrons, souvent jeunes, de sociétés de nouvelles technologies basées au Canada ont transmis une lettre ouverte au premier ministre Justin Trudeau qui, tel Obama il y a quelques années, semble sous le charme de la tech. Exigeant des garde-fous, ils l’ont invité à se montrer « responsable sur la question des données » pour favoriser la « construction de la nation », surtout dans une période de crise. « Il faut réguler, pointe le créateur du BlackBerry, c’est une question de démocratie. »

    La riposte des Etats

    En 2019, aux Etats-Unis, la Federal Trade Commission (FTC) a infligé une amende record de 5 milliards de dollars – la plus importante de l’histoire du pays – à Facebook, pour non-respect de la vie privée. Dans l’Union européenne, 8,25 milliards d’euros ont été demandés à Google pour abus de position dominante de 2017 à 2019, a tranché la commissaire à la concurrence Margrethe Vestager, qui a aussi permis l’avènement du règlement général sur la protection des données (RGPD), première base juridique solide pour contrer les GAFA.

    « Dans les cercles politiques, tout le monde sait désormais que ces entreprises ne sont pas forcément là pour agir dans l’intérêt de tous », précise Damian Collins, député conservateur au Parlement britannique. Grâce au soutien des idéalistes de la tech, et à son rôle au sein du Real Facebook Oversight Board – un groupe indépendant pour le contrôle des activités du réseau social –, l’homme politique a prévu de passer à la vitesse supérieure : des régulations contraignantes et internationales. « Ces entreprises sont présentes partout et nous sommes limités dans nos décisions nationales, justifie le membre du Parlement, donc nous avons par exemple instauré un grand comité international avec des parlementaires en Europe et dans le monde. »

    L’idée est en cours depuis deux ans déjà, et les premières avancées, des deux côtés de l’Atlantique, commencent à surgir, malgré l’absence presque totale de collaboration des GAFA. Le 9 décembre, la FTC et 48 Etats américains ont accusé Facebook d’avoir bafoué les lois anti-trust en rachetant des concurrents pour s’assurer un contrôle total de plusieurs marchés. Le 19 décembre, c’est Google qui a fait l’objet d’une troisième plainte en deux mois. Une coalition de 38 Etats a lancé des poursuites contre le géant de l’Internet là aussi pour pratiques anticoncurrentielles.

    Quant à l’Union européenne, elle a dévoilé, le 15 décembre, un plan d’attaque en deux volets : un Digital Service Acte (DSA) pour la régulation des contenus, et le Digital Market Act (DMA) afin de préserver la concurrence dans le numérique. Affaire à suivre. Gageons que les protestations – et les pressions – des géants du numérique seront à la hauteur des ambitions des législateurs.

    Habituellement, les premières « questions difficiles » posées, le dialogue se rompt très vite. « J’ai demandé à Facebook, dans un rendez-vous privé, de vérifier combien et quelles publicités avaient été achetées par des comptes russes pendant la campagne pour le Brexit », se souvient Damian Collins, lui-même en faveur du maintien dans l’UE. Les équipes de Zuckerberg proposent alors de vérifier des preuves que le parlementaire apporterait, sans avoir accès aux serveurs de l’entreprise. Difficile de faire plus, assurent-ils. « Puis ils ont ajouté qu’ils ne regarderaient pas et ne me donneraient pas l’information », poursuit le parlementaire britannique.

    Le poids des étudiants

    Pour rester optimiste, le milieu de l’année 2020 a déjà apporté une (petite) victoire. Pendant l’été, la grande entreprise de données Palantir Technologies, cofondée par Peter Thiel, un des seuls soutiens de Donald Trump dans la tech, a dû quitter Palo Alto. Et la Silicon Valley tout entière. Direction Denver, dans le Colorado, où l’entreprise a installé ses nouveaux locaux, prête à continuer à collaborer avec l’Immigration and Customs Enforcement (ICE) pour « optimiser » les renvois de réfugiés illégaux, présents sur le territoire américain, comme ce fut le cas durant toute l’administration Trump.

    Qu’est-ce qui a poussé la grande entreprise loin de la Côte ouest ? « Les étudiants », sourit Ben Tarnoff. Plusieurs milliers de jeunes, organisés dans seize universités différentes, dont Stanford, qui jouxte Palo Alto. Armés de pancartes désignant Palantir comme « social evil », ils ont réussi à faire ployer l’une des entreprises les plus mystérieuses et les plus puissantes du monde moderne. « Ce sont eux qui ont le pouvoir, précise l’auteur de Voices from the Valley. Cette boîte, comme beaucoup d’autres, recrute principalement à Stanford ou au MIT, et d’un coup ils ne pouvaient plus recruter. »

    La première victoire d’une longue série ? Cette stratégie a été appliquée dans d’autres cas, pour chambouler des géants comme Amazon. Sans succès. Ces entreprises et nos vies n’ont pas fini d’être intimement liées. Le sociologue Sébastien Broca raconte : « Dans le New York Times, il y a quelque temps, un consultant en nouvelles technologies a dit quelque chose que je n’arrive pas à oublier. Il expliquait que le nirvana vanté par la Silicon Valley avait du plomb dans l’aile, mais que nous, en tant que consommateurs, nous ne cessions de voter pour ces entreprises. »

    Après l’annonce du départ de Palantir, les étudiants de Stanford ont célébré leur victoire sur Instagram, Facebook ou TikTok. Puis, le soir même, certains ont probablement regardé une série Netflix, commandé un plat sur Uber Eats ou se sont offert un cadeau sur Amazon. Il fallait bien fêter ça.

    #Apple #Google #CambridgeAnalytica/Emerdata #NSA #Amazon #Facebook #GoogleSearch #algorithme #Dragonfly #consommation #manipulation #consentement #domination #BigData #GAFAM #GigEconomy #PRISM #syndicat #travail (...)

    ##CambridgeAnalytica/Emerdata ##FTC

  • « Une nation ne peut pas se permettre qu’une puissance étrangère ait la main sur les données de ses citoyens »
    https://www.franceinter.fr/une-nation-ne-peut-pas-se-permettre-qu-une-puissance-etrangere-ait-la-ma

    Si Trump a voulu qu’une entreprise américaine rachète Tik Tok, et si l’Irlande demande à Facebook de cesser d’envoyer les données collectées aux États-Unis, c’est que désormais le big data relève de la souveraineté des pays. C’est en tout cas l’avis d’Arnold Zéphir, concepteur d’intelligences artificielles. Pour justifier sa position, Trump a mis en avant les risques d’espionnage via la collecte, à grande échelle, de données des Américains. Récemment, l’Autorité irlandaise de protection des données (...)

    #ByteDance #CambridgeAnalytica/Emerdata #TikTok #algorithme #smartphone #GPS #géolocalisation #BigData #marketing #surveillance (...)

    ##CambridgeAnalytica/Emerdata ##CNIL

  • Shoshana Zuboff : « Larry Page, cofondateur de Google, a découvert rien de moins que le capitalisme de surveillance »
    https://www.lemonde.fr/idees/article/2020/11/26/shoshana-zuboff-larry-page-cofondateur-de-google-a-decouvert-rien-de-moins-q

    Dans un entretien au « Monde », l’universitaire américaine montre comment, au début du nouveau millénaire, Google et consorts ont fait de nos « informations personnelles » la marchandise suprême, et bâti des empires sur leur collecte et leur commerce. Shoshana Zuboff est professeure émérite à la Harvard Business School. Elle a étudié l’essor du capitalisme numérique, la transformation du travail et de la société de consommation qu’a entraînée cette révolution. Elle vient de faire paraître L’Age du (...)

    #Google #GoogleSearch #algorithme #domotique #prédiction #bénéfices #BigData #publicité #surveillance #CambridgeAnalytica/Emerdata #Facebook #manipulation #Amazon #Zoom (...)

    ##publicité ##CambridgeAnalytica/Emerdata ##technologisme

  • Geneva Human Rights Talks

    Les Geneva Human Rights Talks (GHRT) ouvriront la Semaine des droits humains en portant le regard sur différents aspects du respect de la dignité humaine : les données personnelles, le racisme institutionnel, la discrimination ethnique, et la question des prisonniers politiques.

    Les récits et témoignages des quatre personnalités invitées lors de cet événement interactif illustreront différents combats qui nécessitent encore et toujours un engagement sans faille.

    #Protection_des_données personnelles, un combat inégal et perdu d’avance ? (En français)
    Intervenant dans le documentaire The Great Hack de Netflix, #Paul_Olivier_Dehaye s’est distingué par son enquête sur la firme d’analyse de données #Cambridge_Analytica. Aujourd’hui, il est le fondateur de l’association #PersonalData.IO, œuvrant à rendre les #droits_à_la_protection_des_données effectifs et collectivement utiles.
    –-> il parle notamment de #algocratie

    Le #racisme_institutionnel, défis de nos sociétés ? (En français), à partir de 1:22:15


    #Rokhaya_Diallo est une journaliste française, autrice et réalisatrice reconnue pour son travail contre la discrimination raciale, de genre et religieuse. Elle a animé et co-écrit des émissions télévisées et a réalisé plusieurs documentaires. Elle est aussi active dans le domaine littéraire, s’exprimant à travers différentes créations. Elle est selon le New York Times « une des activistes anti-racistes les plus importantes en France ».

    Violation des droits de l’homme ou prévention du #séparatisme ? (In english)
    #Jewher_Ilham est la fille d’#Ilham_Tohti, un professeur qui s’est investi dans la lutte contre les discriminations et violations commises envers les #ouïghours, minorité ethnique en #Chine. Jewher Ilham témoignera de l’arrestation de son père, de ses efforts constants pour le libérer et de son engagement à faire en sorte que les minorités voient leurs droits préservés en Chine. Elle parlera également des #camps_de_rééducation du #Xinjiang et de ses suggestions pour prévenir les violations des droits humains qui s’y déroulent.

    #Prisonniers_politiques, criminels ou témoins de violations cachées des #droits_humains ? (En français)
    #Lakhdar_Boumediene était responsable humanitaire pour le Croissant-Rouge quand il a été emprisonné en 2002 à #Guantanamo pour des raisons politiques. En 2008, suite à sa demande, la Cour Suprême des États-Unis a reconnu le droit des détenus de Guantanamo de contester judiciairement la légalité de leur détention, indépendamment de leur nationalité. Il a ainsi été déclaré innocent et libéré en 2009. Depuis, il vit en France avec sa famille et il dénonce les traitements injustes et inhumains subis durant sa #détention ainsi que le phénomène des prisonniers politiques.

    https://www.unige.ch/cite/evenements/semaine-des-droits-humains/sdh2020/geneva-humain-rights-talk

    #vidéo

    ping @karine4 @isskein

  • The Lawfare Podcast : Maria Ressa on the Weaponization of Social Media
    https://www.lawfareblog.com/lawfare-podcast-maria-ressa-weaponization-social-media

    On this episode of Lawfare’s Arbiters of Truth series on disinformation, Evelyn Douek spoke with Maria Ressa, a Filipino-American journalist and co-founder of Rappler, an online news site based in Manila. Maria was included in Time’s Person of the Year in 2018 for her work combating fake news, and is currently fighting a conviction for “cyberlibel” in the Philippines for her role at Rappler. Maria and her fight are the subject of the film, “A Thousand Cuts,” released in virtual cinemas this (...)

    #Facebook #manipulation #harcèlement

  • « Réélire Donald Trump serait un changement du cours de l’histoire »
    https://www.lemonde.fr/idees/article/2020/10/19/jill-lepore-reelire-donald-trump-serait-un-changement-du-cours-de-l-histoire

    L’historienne Jill Lepore raconte, dans un entretien au « Monde », la première expérience d’analyse de données à des fins politiques aux Etats-Unis, conçue en 1959 pour faire élire John Kennedy. Selon elle, le recours important aux mathématiques dans la politique américaine a conduit à à la situation actuelle, « où nous sommes tous tellement segmentés et microciblés que nous n’avons plus le sens du bien commun ». Historienne prolifique, Jill Lepore est aussi professeure à Harvard et journaliste au New (...)

    #CambridgeAnalytica/Emerdata #Simulmatics #algorithme #élections #données #DataBrokers #microtargeting (...)

    ##CambridgeAnalytica/Emerdata ##profiling

  • Élections américaines : entre Facebook et Trump, un mariage de réseau
    https://www.telerama.fr/idees/elections-americaines-entre-facebook-et-trump-un-mariage-de-reseau-6712640.

    Son patron, Mark Zuckerberg, a beau s’en défendre, Facebook est accusé de faire le lit du conspirationnisme et le jeu de Donald Trump, plus conciliant à son égard que le camp démocrate. Au point d’avoir scellé un pacte avec le président ? Octobre 2019 : alors qu’il est à Washington pour être cuisiné par le Congrès, Mark Zuckerberg reçoit une invitation informelle à dîner. Pas n’importe où : au 1600 Pennsylvania Avenue. À la Maison-Blanche. De cette réception en comité restreint, il ne filtrera rien, ni le (...)

    #CambridgeAnalytica/Emerdata #Facebook #manipulation #élections #extrême-droite

    ##CambridgeAnalytica/Emerdata

  • L’implication de Cambridge Analytica dans la campagne du Brexit était limitée… tout comme l’efficacité de ses outils
    https://www.lemonde.fr/pixels/article/2020/10/08/l-implication-de-cambridge-analytica-dans-la-campagne-du-brexit-etait-limite

    Une enquête britannique conclut que l’entreprise au cœur du scandale de vol de données personnelles n’avait développé aucune technologie innovante. Cambridge Analytica « n’a effectué qu’un travail limité pour la campagne [pro-Brexit] Leave.eu, au-delà de son implication dans l’analyse des données des membres du parti UKIP ». C’est l’une des principales conclusions de l’enquête menée par l’Information Commissionner Office (ICO – « Bureau du commissaire à l’information ») britannique, qui a publié mercredi 7 (...)

    #CambridgeAnalytica/Emerdata #algorithme #manipulation #données #élections #profiling (...)

    ##CambridgeAnalytica/Emerdata ##publicité

    • @koantig c’est plus facile de penser que c’est du vent (et ça rassure la population de croire que ça n’a pas eu d’influence sur le vote vu la monstruosité du scandale) que d’évaluer à sa mesure le système de surveillance mis en place pour profiler les électeurs et les influencer dans leur vote. Plusieurs films documentaires sur Cambridge Analytica présentent des enquêtes extrêmement bien menées pour se faire une idée plus précise de cette surveillance et du basculement mené tout en maintenant le mythe démocratique du vote, cela permet de comprendre l’avènement de figure tel que Trump. Enfin, pour mieux comprendre la réification en bulletin de vote des êtres humains dans la sphère politique, on peut se faire une idée des forces en œuvre avec les côtes prédictives de la bourse mondiale et les gains pharaoniques et cyniques du même auteur du programme.

    • Je n’ignore évidemment pas les problèmes que la généralisation de la surveillance engendrent (j’écris ce message sur tor ! Et il n’y a qu’à voir le genre de trucs que je poste) mais il faut s’attacher à mesurer les effets de ces outils à leur juste valeur.

      Pour Trump et le Brexit, elles ont sans doute jouer un rôle mais c’est parce que le vote était déjà à 50-50. Un effet même marginal peut décider de l’issue. Le fait que ces élections étaient si serrées au départ est un problème plus profond.

      Le FUD et le confusionisme m’ont l’air beaucoup plus efficaces pour saloper la démocratie que des machines fonctionnant sous deep learning, nourri par la surveillance (raison de plus de s’en passer !).

    • Le mot Brexit n’apparait que 2 fois dans le rapport en ligne, j’ai repris les passages qui me semblaient intéressants. Je ne développerai pas parce que je trouve épuisantes et stériles les conversations « pour avoir raison ».

      https://ico.org.uk/media/action-weve-taken/2618383/20201002_ico-o-ed-l-rtl-0181_to-julian-knight-mp.pdf

      This further work confirms my earlier conclusion that there are systemic vulnerabilities in our democratic systems.

      The investigation is therefore concluding, and the following letter and Annexes acts as our final written account to Parliament. It provides a summary of the conclusions we have drawn from our analysis of the evidence in the final stages of our investigation, the additional actions we have taken and why, and broader learning we and other data protection authorities can draw on to inform future investigations and regulatory work in the digital era. In addition, Annex 1 provides the Committee with detailed answers to the specific questions asked by the Committee. Annex 2 provides a deep dive into how SCL Elections / Cambridge Analytica used the personal data it held, whether these methods could be used in the future, and the associated risks to citizens.

      The following organisations have now paid the penalty notices levied on them:•Facebook (£500,000) paid 04 November 2019•Vote Leave (£40,000) paid 29 April 2019•Leave.EU (£15,000) paid 15 May 2019 •Emma’s Diary (£140,000) paid 29 August 201814.In addition, we successfully prosecuted SCL Elections for their failure to comply with my Enforcement Notice. We fined them £18,000

      22 - What is clear is that the use of digital campaign techniques are a permanent fixture of our elections and the wider democratic process and will only continue to grow in the future. The COVID-19 pandemic is only likely to accelerate this process as political parties and campaigns seek to engage with voters in a safe and socially distanced way.

      23 - I have always been clear that these are positive developments. New technologies enable political parties and others to engage with a broad range of communities and hard to reach groups in a way that cannot be done through traditional campaigning methods alone. But for this to be successful, citizens need to have trust in how their data is being used to engage with them.

      27.The impact of this investigation has also had international reach. I have been asked to brief parliaments and governments across the world and I have shared the learning from this investigation with election oversight and privacy regulators internationally. The prominence of the use of personal data in political influence has grown significantly, and several international counterparts have since undertaken similar work, as is appropriate to safeguard their national democratic structures.

      –----

      10.SCL’s own marketing material claimed they had “Over 5,000 data points per individual on 230 million adult Americans.” However, based on what we found it appears that this may have been an exaggeration. 11.Although we do not have a list of all the datasets, during the document review we discovered evidence that some of the data sets as at September 2015 included:•Nationwide voter files from L2 (meaning “Labels and Lists”) and DataTrust (~50 data points for 160M individuals)•Nationwide consumer data from Acxiom and Infogroup (~500 data points for 160M individuals) •Election return results from Magellan (~20data points for national census tracks) •Nationwide consumer data from DataTrust (3000 data points for 100M individuals) •Psychographic inventories (10 data points for 30M individuals) •Facebook social network (graph database containing 30M individuals) •Facebook likes (570 data points for 30M individuals) •In-depth Republican Primary focused surveys (80k) •ForAmerica member data (14.6M post comments, 240M post likes across 31 M users) •Emails from Infogroup (30M) •Emails from DataTrust (26M)12.In short, the number of data points varied considerably, both from individual to individual and from one project to the next.

      14.In respect of Dr Kogan’s application, which he called thisisyourdigitallife(the App), the material obtained in the evidence review corroborated our understanding as set out in our previous reports that it obtained data from individuals who authorised it to access their Facebook data. However, the App functioned in a way which meant that it was also able to obtain the data of that user’s Facebook ’friends’ (who had not themselves restricted such sharing through their own Facebook ’privacy controls’). In conjunction with the personality quiz function of the App, along with a record of each user’s ’likes’ information, Dr Kogan was able to model personality traits for users of the App, and for their Facebook ’friends’. This approach seeming built on
      14earlier work by Dr Kogan involving Facebook ‘likes’ and personality scores.Dr Kogan set up a new company, GSR, this was established and funded for the primary purpose of acting as a vehicle for the provision of the services anticipated under the contract between GSR and SCL / CA.

      19.It was suggested that some of the data was utilised for political campaigningassociated with the Brexit Referendum. However, our view on review of the evidence is that the data from GSR could not have been used in the Brexit Referendum as the data shared with SCL/Cambridge Analytica by Dr Kogan related to US registered voters. There was evidence of considerable focus in the data collection and data matching processes between GSR and SCL on US voters, as this was what was to be paid for under the contract(s) between them. Cambridge Analytica did appear to do a limited amount of
      15workfor Leave.EU but this involved the analysis of UKIP membership data rather than data obtained from Facebook or GSR. Some evidence was recovered however that suggested an intention by SCL / GSR to target UK voters in 2014 through the same process. This work does not appear however to have been taken forward.

      23.In early 2014, SCL/CA commissioned Aggregate IQ ("AIQ"), a Canadian based company, to build a Customer Relationship Management (CRM) tool for use during the American 2014 midterm elections. SCL called the tool RIPON. It was designed to help political campaigns with typical campaign activity such as door to door, telephone and email canvassing. In October 2014, AIQ also placed online advertisements (including on the Facebook Platform) for SCL on behalf of its clients.

      29.The data points collected by GSR with respect to survey users and their Facebook ‘friends’ was specifically selected to enable a ‘matching’ process against pre-existing SCL databases. Matching took place using file sharing platforms and by reference to name, date of birth and location –with SCL’s existing datafiles being ‘enriched’ and supplemented by GSR’s data about those same individuals –and this matched information being passed back into SCL systems. This resulted for example information including scores for voting frequency, whether likely republican or democrat, voting consistency, and a profile which predicted personality traits matched to information such as voter ID, name, address, age, and other commercial data.

      30.Through such processes the relevant US voter GSR data (about approx. 30 million individuals) was then further analysed using machine learning algorithms to create additional “predicted” scores relating to partisanship and other criteria which were then applied to all the individuals in the database. Some of these focussed on likes as wide ranging as “gay rights”, “Obama the worst president in US history”, “Re-elect President Obama in 2012”, “the Bible” and “National Rifle Association”. These scores were used to identify clusters of similar individuals who could be potentially targeted with advertising relating to political campaigns. This targeted advertising was ultimately likely the final purpose of the data gathering but whether or which specific data from GSR was then used in any specific part of campaign has not been possible todetermine from the digital evidence reviewed. There is however evidence recovered that suggests that similar approaches and models based on the predicted personality traits and other measures were used with Republican National Committee (RNC) data.

  • L’#Université, le #Covid-19 et le danger des #technologies_de_l’éducation

    La crise actuelle et la solution proposée d’un passage des enseignements en ligne en urgence ont accéléré des processus systémiques déjà en cours dans les universités britanniques, en particulier dans le contexte du Brexit. Même si l’enseignement en ligne peut avoir une portée radicale et égalitaire, sa pérennisation dans les conditions actuelles ouvrirait la voie à ce que les fournisseurs privés de technologies de l’éducation (edtech d’après l’anglais educational technology) imposent leurs priorités et fassent de l’exception une norme.

    Mariya Ivancheva, sociologue à l’université de Liverpool dont les recherches portent sur l’enseignement supérieur, soutient que nous devons repenser ce phénomène et y résister, sans quoi le secteur de l’enseignement supérieur britannique continuera d’opérer comme un outil d’extraction et de redistribution de l’argent public vers le secteur privé.

    *

    Avec la propagation mondiale du coronavirus et la désignation du COVID-19 comme pandémie par l’Organisation mondiale de la santé le 11 mars, les universités de nombreux pays ont eu recours à l’enseignement en ligne. Rien qu’aux États-Unis, dès le 12 mars, plus de 100 universités sont passées à l’enseignement à distance. Depuis, rares sont les pays où au moins une partie des cours n’est pas dispensée en ligne. Les prestataires de services d’enseignement privés ont été inondés de demandes de la part des universités, qui les sollicitaient pour faciliter le passage à l’enseignement à distance.

    Au Royaume-Uni, la réticence initiale du gouvernement et des directions de certaines institutions d’enseignement supérieur à imposer des mesures de distanciation sociale et à fermer les établissements ont mené plusieurs universités à prendre cette initiative de leur propre chef. Le 23 mars, lorsque les règles de confinement et de distanciation sociale ont finalement été introduites, la plupart des universités avaient déjà déplacé leurs cours en ligne et fermé la plus grande partie de leur campus, à l’exception des « services essentiels ». Si un débat sur les inégalités face à l’université dématérialisée a eu lieu (accès aux ordinateurs, à une connexion Internet sécurisée et à un espace de travail calme pour les étudiant.e.s issus de familles pauvres, vivant dans des conditions défavorables, porteurs de responsabilités familiales ou d’un handicap), l’impact sur le long terme de ce passage en ligne sur le travail universitaire n’a pas été suffisamment discuté.

    Ne pas laisser passer l’opportunité d’une bonne crise

    Étant donnée la manière criminelle dont le gouvernement britannique a initialement répondu à la crise sanitaire, un retard qui aurait coûté la vie à plus de 50 000 personnes, les mesures de confinement et de distanciation prises par les universités sont louables. Toutefois, la mise en ligne des enseignements a également accéléré des processus déjà existants dans le secteur universitaire au Royaume-Uni.

    En effet, surtout depuis la crise de 2008, ce secteur est aux prises avec la marchandisation, les politiques d’austérité et la précarisation. Désormais, il doit également faire aux conséquences du Brexit, qui se traduiront par une baisse des financements pour la recherche provenant de l’UE ainsi que par une diminution du nombre d’étudiant.e.s européens. Entre l’imminence d’une crise économique sans précédent, les craintes d’une baisse drastique des effectifs d’étudiant.e.s étranger/ères payant des frais de scolarité pour l’année académique à venir et le refus du gouvernement de débourser deux milliards de livres pour renflouer le secteur, la perspective d’une reprise rapide est peu probable.

    Le passage en ligne a permis à de nombreux étudiant.e.s de terminer le semestre et l’année académique : pourtant, les personnels enseignants et administratifs n’ont reçu que de maigres garanties face à la conjoncture. Pour les enseignements, les universités britanniques dépendent à plus de 50% de travailleurs précaires, ayant des contrats de vacation souvent rémunérés à l’heure et sur demande (« zero-hour contract » : contrat sans horaire spécifié). Si certaines universités ont mis en place des systèmes de congé sans solde ou de chômage partiel pour faire face à la pandémie, la majorité d’entre elles envisage de renvoyer les plus vulnérables parmi leurs employés.

    Parallèlement, les sociétés prestataires d’edtech, qui sollicitaient auparavant les universités de manière discrète, sont désormais considérées comme des fournisseurs de services de « premiers secours » voire « palliatifs ». Or, dans le contexte actuel, la prolongation de ces modes d’enseignements entraînerait une précarisation et une externalisation accrues du travail universitaire, et serait extrêmement préjudiciable à l’université publique.

    Les eaux troubles de l’enseignement supérieur commercialisé

    Au cours des dernières décennies, le domaine universitaire britannique a connu une énorme redistribution des fonds publics vers des prestataires privés. Les contributions du public et des particuliers à l’enseignement supérieur se font désormais par trois biais : les impôts (budgets pour la recherche et frais de fonctionnement des universités), les frais d’études (frais de scolarité, frais de subsistance et remboursement des prêts étudiants) et par le port du risque de crédit pour les prêts étudiants (reconditionnés en dette et vendus aux investisseurs privés)[1].

    Lorsque les directions des universités mettent en œuvre des partenariats public-privé dont les conditions sont largement avantageuses pour le secteur privé, elles prétendent que ces contrats profitent au « bien public », et ce grâce à l’investissement qu’ils permettraient dans les infrastructures et les services, et parce qu’ils mèneraient à la création d’emplois et donc à de la croissance. Mais cette rhétorique dissimule mal le fait que ces contrats participent en réalité à un modèle d’expansion de l’université fondé sur la financiarisation et le non-respect des droits des travailleurs dont les conditions de travail deviennent encore plus précaires.

    À cet égard, les retraites des universitaires ont été privatisées par le biais d’un régime appelé Universities Superannuation Scheme (USS), dont il a été divulgué qu’il s’agissait d’un régime fiscal offshore. Par ailleurs, les universités britanniques, très bien notées par les agences de notation qui supposent que l’État les soutiendrait le cas échéant, ont été autorisées à emprunter des centaines de millions de livres pour investir dans la construction de résidences étudiantes privées, s’engageant à une augmentation exponentielle du nombre d’étudiant.e.s.

    Le marché de la construction des résidences universitaires privées atteignait 45 milliards de livres en 2017, et bénéficiait souvent à des sociétés privées offshores. Les étudiant.e.s sont ainsi accueillis dans des dortoirs sans âme, fréquentent des infrastructures basiques (par exemple les installations sportives), alors qu’ils manquent cruellement d’accès aux services de soutien psychologique et social, ou même tout simplement de contact direct avec leurs enseignants, qu’ils voient souvent de loin dans des amphithéâtres bondés. Ces choix ont pour résultat une détérioration dramatique de la santé mentale des étudiant.e.s.

    Avec des frais universitaires pouvant aller jusqu’à £9 000 par an pour les études de premier cycle et dépassant parfois £20 000 par an en cycle de masters pour les étudiant.e.s étranger/ères (sans compter les frais de subsistance : nourriture, logement, loisirs), la dette étudiante liée à l’emprunt a atteint 121 milliards de livres. La prévalence d’emplois précaires et mal payés sur le marché du travail rend à l’évidence ces prêts de plus en plus difficiles à rembourser.

    Enfin, le financement de la recherche provient toujours principalement de sources publiques, telles que l’UE ou les comités nationaux pour la recherche. Candidater pour ces financements extrêmement compétitifs demande un énorme investissement en temps, en main d’œuvre et en ressources. Ces candidatures sont cependant fortement encouragées par la direction des universités, en dépit du faible taux de réussite et du fait que ces financements aboutissent souvent à des collaborations entre université et industrie qui profitent au secteur privé par le biais de brevets, de main-d’œuvre de recherche bon marché, et en octroyant aux entreprises un droit de veto sur les publications.

    Les edtech entrent en scène

    Dans le même temps, les sociétés d’edtech jouent un rôle de plus en plus important au sein des universités, profitant de deux changements du paradigme véhiculé par l’idéologie néolibérale du marché libre appliquée à l’enseignement supérieur – ainsi qu’à d’autres services publics.

    D’abord, l’idée de services centrés sur les « utilisateurs » (les « apprenants »selon la terminologie en cours dans l’enseignement), s’est traduite concrètement par des coûts additionnels pour le public et les usagers ainsi que par l’essor du secteur privé, conduisant à l’individualisation accrue des risques et de la dette. Ainsi, la formation professionnelle des étudiant.e.s, autrefois proposée par les employeurs, est désormais considérée comme relevant de la responsabilité des universités. Les universitaires qui considèrent que leur rôle n’est pas de former les étudiant.e.s aux compétences attendues sur le marché du travail sont continuellement dénigrés.

    Le deuxième paradigme mis en avant par les sociétés edtech pour promouvoir leurs services auprès des universités est celui de l’approche centrée sur les « solutions ». Mais c’est la même « solution » qui est invariablement proposée par les sociétés edtech, à savoir celle de la « rupture numérique », ou, en d’autres termes, la rupture avec l’institution universitaire telle que nous la connaissons. En réponse aux demandes en faveur d’universités plus démocratiques et égalitaires, dégagées de leur soumission croissante aux élites au pouvoir, les sociétés edtech (dont la capitalisation s’élève à des milliards de dollars) se présentent comme offrant la solution via les technologies numériques.

    Elles s’associent à une longue histoire où le progrès technologique (que ce soit les lettres, la radio, les cassettes audio ou les enregistrements vidéo) a effectivement été mis au service d’étudiant.e.s « atypiques » tels que les travailleurs, les femmes, les personnes vivant dans des zones d’accès difficile, les personnes porteuses de handicap ou assumant des responsabilités familiales. L’éducation ouverte par le biais par exemple de webinaires gratuits, les formations en ligne ouvertes à tous (MOOC), les ressources éducatives disponibles gratuitement et les logiciels open source suivaient à l’origine un objectif progressiste d’élargissement de l’accès à l’éducation.

    Toutefois, avec le passage en ligne des enseignements dans un secteur universitaire fortement commercialisé, les technologies sont en réalité utilisées à des fins opposées. Avant la pandémie de COVID-19, certaines universités proposaient déjà des MOOC, des formations de courte durée gratuites et créditées et des diplômes en ligne par le biais de partenariats public-privé avec des sociétés de gestion de programmes en ligne.

    Au sein du marché général des technologies de l’information, ces sociétés représentent un secteur d’une soixantaine de fournisseurs, estimé à 3 milliards de dollars et qui devrait atteindre 7,7 milliards de dollars d’ici 2025 – un chiffre susceptible d’augmenter avec les effets de la pandémie. Le modèle commercial de ces partenariats implique généralement que ces sociétés récoltent entre 50 à 70% des revenus liés aux frais de scolarité, ainsi que l’accès à des mégadonnées très rentables, en échange de quoi elles fournissent le capital de démarrage, la plateforme, des services de commercialisation et une aide au recrutement et assument le coût lié aux risques.

    L’une des différences essentielles entre ces sociétés et d’autres acteurs du secteur des technologies de l’éducation proposant des services numériques est qu’elles contribuent à ce qui est considéré comme le « cœur de métier » : la conception des programmes, l’enseignement et le soutien aux étudiant.e.s. Une deuxième différence est que, contrairement à d’autres prestataires d’enseignement privés, ces sociétés utilisent l’image institutionnelle d’universités existantes pour vendre leur produit, sans être trop visibles.

    Normaliser la précarisation et les inégalités

    Le secteur de la gestion des programmes en ligne repose sur une charge importante de travail académique pour les employés ainsi que sur le recours à une main-d’œuvre précaire et externalisée. Ceci permet aux sociétés bénéficiaires de contourner la résistance organisée au sein des universités. De nombreux MOOC, formations de courte durée et des diplômes en ligne en partenariat avec ces sociétés font désormais partie de l’offre habituelle des universités britanniques.

    La charge de travail académique déjà croissante des enseignants est intensifiée par les enseignements en ligne, sans rémunération supplémentaire, et alors même que de tels cours demandent une pédagogie différente et prennent plus de temps que l’enseignement en classe. Avec la transformation de l’enseignement à distance d’urgence en une offre d’« éducation en ligne », ces modalités pourraient devenir la nouvelle norme.

    L’université de Durham a d’ailleurs tenté d’instaurer un dangereux précédent à cet égard, qui en présage d’autres à venir. L’université a conclu un accord avec la société Cambridge Education Digital (CED), afin d’offrir des diplômes entièrement en ligne à partir de l’automne 2020, sans consultation du personnel, mais en ayant la garantie de CED que seules six heures de formation étaient nécessaires pour concevoir et délivrer ces diplômes.

    Dans le même temps, les sociétés de gestion de programmes en ligne ont déjà recruté de nombreux·ses travailleur/euses diplômé·e·s de l’éducation supérieure, souvent titulaires d’un doctorat obtenu depuis peu, cantonné·e·s à des emplois précaires, et chargés de fournir un soutien académique aux étudiant.e.s. Il s’agit de contrats temporaires, sur la base d’une rémunération à la tâche, peu sécurisés et mal payés, comparables à ceux proposés par Deliveroo ou TaskRabbit. Ces employés, qui ne sont pas syndiqués auprès du même syndicat que les autres universitaires, et qui sont souvent des femmes ou des universitaires noirs ou issus de minorités racisées, désavantagés en matière d’embauche et de promotion, seront plus facilement ciblé·e·s par les vagues de licenciement liées au COVID-19.

    Cela signifie également qu’ils/elles seront utilisé·e·s – comme l’ont été les universitaires des agences d’intérim par le passé – pour briser les piquets de grève lors de mobilisations à l’université. Ce système se nourrit directement de la polarisation entre universitaires, au bénéfice des enseignant·e·s éligibles aux financements de recherche, qui s’approprient les recherches produites par les chercheur/ses précaires et utilisent le personnel employé sur des contrats uniquement dédiés à l’enseignement [pour fournir les charges d’enseignement de collègues déchargés]. Il s’agit là de pratiques légitimées par le mode de financement de l’UE et des comités nationaux pour la recherche ainsi que par le système de classements et d’audits de la recherche.

    Avec le COVID-19, le modèle proposé par les entreprises de gestion de programmes en ligne, fondé sur l’externalisation et la privatisation des activités de base et de la main-d’œuvre de l’université, pourrait gagner encore plus de terrain. Ceci s’inscrit en réalité dans le cadre d’un changement structurel qui présagerait la fin de l’enseignement supérieur public. Le coût énorme du passage en ligne – récemment estimé à 10 millions de livres sterling pour 5-6 cours en ligne par université et 1 milliard de livres sterling pour l’ensemble du secteur – signifie que de nombreuses universités ne pourront pas se permettre d’offrir des enseignements dématérialisés.

    De plus, les sociétés de gestion de programmes en ligne ne travaillent pas avec n’importe quelle université : elles préfèrent celles dont l’image institutionnelle est bien établie. Dans cette conjoncture, et compte tenu de la possibilité que de nombreux/ses étudiant.e.s annulent (ou interrompent) leur inscription dans une université du Royaume-Uni par crainte de la pandémie, de nombreuses universités plus petites et moins visibles à l’échelle internationale pourraient perdre un nombre importante d’étudiant.e.s, et le financement qui en découle.

    En dépit de tous ces éléments, l’appel à une réglementation et à un plafonnement du nombre d’étudiant.e.s admis par chaque institution, qui permettraient une redistribution sur l’ensemble du secteur et entre les différentes universités, semble tomber dans l’oreille d’un sourd.

    Un article sur le blog de Jo Johnson, ancien ministre de l’Éducation et frère du Premier ministre britannique, exprime une vision cynique de l’avenir des universités britanniques. Sa formule est simple : le gouvernement devrait refuser l’appel au soutien des universités moins bien classées, telles que les « instituts polytechniques », anciennement consacrés à la formation professionnelle et transformés en universités en 1992. Souvent davantage orientées vers l’enseignement que vers la recherche, ceux-ci n’ont que rarement des partenariats avec des sociétés de gestion de programmes en ligne ou une offre de cours à distance. Selon Johnson, ces universités sont vouées à mourir de mort naturelle, ou bien à revenir à leur offre précédente de formation professionnelle.

    Les universités du Groupe Russell[2], très concentrées sur la recherche, qui proposent déjà des enseignements dématérialisés en partenariat avec des prestataires de gestion des programmes en ligne, pourraient quant à elles se développer davantage, à la faveur de leur image institutionnelle de marque, et concentreraient ainsi tous les étudiant.e.s et les revenus. Ce qu’une telle vision ne précise pas, c’est ce qu’il adviendrait du personnel enseignant. Il est facile d’imaginer que les nouvelles méga-universités seraient encore plus tributaires des services de « soutien aux étudiant.e.s » et d’enseignement dispensés par des universitaires externalisés, recrutés par des sociétés de gestion des programmes en ligne avec des contrats à la demande, hyper-précaires et déprofessionnalisés.

    Lieux de lutte et de résistance

    Ce scénario appelle à la résistance, mais celle-ci devient de plus en plus difficile. Au cours des six derniers mois, les membres du syndicat « University and College Union » (UCU) ont totalisé 22 jours de grève. L’une des deux revendications portées par cette mobilisation, parmi les plus longues et les plus soutenues dans l’enseignement supérieur britannique, portait sur les retraites.

    La seconde combinait quatre revendications : une réduction de la charge de travail, une augmentation des salaires sur l’ensemble du secteur (ils ont diminué de 20% au cours de la dernière décennie), s’opposer à la précarisation, et supprimer les écarts de rémunération entre hommes et femmes (21%) et ceux ciblant les personnes racisées (26%). Les employeurs, représentés par « Universities UK » et l’Association des employeurs « Universities and Colleges », n’ont jusqu’à présent pas fait de concessions significatives face à la grève. La crise du COVID-19 a limité l’option de la grève, alors que l’augmentation de la charge de travail, la réduction des salaires et la précarisation sont désormais présentées comme les seules solutions pour faire face à la pandémie et aux crises économiques.

    Dans ce contexte, le passage vers l’enseignement en ligne doit devenir un enjeu central des luttes des syndicats enseignants. Toutefois, la possibilité de mener des recherches sur ce processus – un outil clé pour les syndicats – semble limitée. De nombreux contrats liant les universités et les entreprises de gestion de programme en ligne sont conclus sans consultation du personnel et ne sont pas accessibles au public. En outre, les résultats de ces recherches sont souvent considérés comme nocifs pour l’image des sociétés.

    Pourtant, un diagnostic et une réglementation des contrats entre les universités et ces entreprises, ainsi que celle du marché de l’edtech en général, sont plus que jamais nécessaires. En particulier, il est impératif d’en comprendre les effets sur le travail universitaire et de faire la lumière sur l’utilisation qui est faite des données collectées concernant les étudiant.e.s par les sociétés d’edtech. Tout en s’opposant aux licenciements, l’UCU devrait également se mettre à la disposition des universitaires travaillant de manière externalisée, et envisager de s’engager dans la lutte contre la sous-traitance du personnel enseignant.

    Bien que tout cela puisse aujourd’hui sembler être un problème propre au Royaume-Uni, la tempête qui y secoue aujourd’hui le secteur de l’enseignement supérieur ne tardera pas à se propager à d’autres contextes nationaux.

    Traduit par Céline Cantat.

    Cet article a été publié initialement sur le blog du bureau de Bruxelles de la Fondation Rosa Luxemburg et de Trademark Trade-union.
    Notes

    [1] La réforme de 2010 a entraîné le triplement des droits d’inscriptions, qui sont passés de 3000 à 9000 livres (soit plus de 10 000 euros) par an pour une année en licence pour les étudiant.e.s britanniques et originaires de l’UE (disposition qui prendra fin pour ces dernier.e.s avec la mise en œuvre du Brexit). Le montant de ces droits est libre pour les étudiant.e.s hors-UE, il équivaut en général au moins au double. Il est également bien plus élevé pour les masters.

    [2] Fondé en 1994, le Russell Group est un réseau de vingt-quatre universités au Royaume-Uni censé regrouper les pôles d’excellence de la recherche et faire contrepoids à la fameuse Ivy League étatsunienne.

    https://www.contretemps.eu/universite-covid19-technologies-education

    #le_monde_d'après #enseignement #technologie #coronavirus #facs #UK #Angleterre #distanciel #enseignement_en_ligne #privatisation #edtech #educational_technology #Mariya_Ivancheva #secteur_privé #enseignement_à_distance #dématérialisation #marchandisation #austérité #précarisation #Brexit #vacation #précaires #vacataires #zero-hour_contract #externalisation #ESR #enseignement_supérieur #partenariats_public-privé #financiarisation #conditions_de_travail #Universities_Superannuation_Scheme (#USS) #fiscalité #résidences_universitaires_privées #immobilier #santé_mentale #frais_universitaires #dette #dette_étudiante #rupture_numérique #technologies_numériques #MOOC #business #Cambridge_Education_Digital (#CED) #ubérisation #Russell_Group

  • Algorithmic Governmentality and the Death of Politics
    https://www.greeneuropeanjournal.eu/algorithmic-governmentality-and-the-death-of-politics

    In recent years, the likes of the Cambridge Analytica scandal together with regulatory steps such as the EU’s GDPR data law have contributed to a swell in public awareness on the potential risks of big data and artificial intelligence. Privacy, however, is only the tip of the iceberg. We sat down with legal philosopher Antoinette Rouvroy to discuss her work on algorithmic governmentality and the profound transformation the neoliberal-driven tech revolution is catalysing in society and (...)

    #CambridgeAnalytica/Emerdata #algorithme #[fr]Règlement_Général_sur_la_Protection_des_Données_(RGPD)[en]General_Data_Protection_Regulation_(GDPR)[nl]General_Data_Protection_Regulation_(GDPR) #prédiction #BigData #GAFAM #profiling (...)

    ##CambridgeAnalytica/Emerdata ##[fr]Règlement_Général_sur_la_Protection_des_Données__RGPD_[en]General_Data_Protection_Regulation__GDPR_[nl]General_Data_Protection_Regulation__GDPR_ ##surveillance

  • Christopher Wylie : interview du lanceur d’alerte de Cambridge Analytica
    https://www.ladn.eu/tech-a-suivre/data-big-et-smart/christopher-wylie-cambridge-analytica-menaces-democraties

    Une parole publique confisquée

    Hyper-segmentation, profilage psychologique, exploitation des biais cognitifs des individus pour activer les recoins les plus sombres de la psyché. Les techniques imaginées et mises en œuvre par Cambridge Analytica continuent d’être appliquées, autant par des entreprises que des gouvernements. Pour Christopher Wylie, elles ont très largement contribué à fragmenter durablement les groupes sociaux. « Ces méthodes sont essentiellement de la ségrégation. Les individus deviennent incapables d’éprouver le sentiment de cohésion, d’identité commune partagée qui est le propre de toute nation », prévient-il. À moins de cinquante jours de la prochaine élection présidentielle américaine, et alors que d’autres élections majeures se déroulent en Bolivie, au Chili ou au Burkina Faso cet automne, le lanceur d’alerte estime que les menaces qui pèsent sur les démocraties sont importantes.

    Plus encore, cette affaire a permis de révéler le phénomène très inquiétant de la privatisation du discours politique et de la parole publique. Lorsqu’une entreprise est capable de s’immiscer dans la vie quotidienne des gens, en agrégeant des centaines de kilos octets de données à leur sujet, et qu’elle est aussi en mesure de les écouter en temps réel via la somme d’objets connectés qui compose désormais notre environnement quotidien, alors le débat public perd de sa vigueur pour ne devenir qu’une somme de conversations privées. « La parole et le débat public sont des piliers des démocraties », rappelle le lanceur d’alerte. Mais on le voit aujourd’hui : la majorité des discussions qui ont trait à des sujets publics, comme la gestion de la pandémie, se tiennent sur des plateformes privées comme Facebook. « A-t-on vraiment envie de confier la gestion de la parole publique à un milliardaire de la Silicon Valley ? A-t-on vraiment envie de faire de Mark Zuckerberg le seul arbitre de nos prises de décision politiques, et donc in fine de notre processus électoral ? La fonction publique est trop importante pour qu’on la confie à une entreprise privée. »

    Ethique : aucun standard pour les ingénieurs

    Pour résoudre l’équation qui consiste à encadrer les GAFAM, sans renoncer pour autant aux produits et services qu’ils proposent, Christopher Wylie propose de renverser la perspective. Plutôt que de s’attaquer à la structure, il propose de repartir des produits, et de ceux qui les conçoivent. « Les produits Facebook sont conçus par des ingénieurs, des designers-produit, des data scientist. Or, à l’inverse de leurs collègues d’autres secteurs, comme l’aéronautique ou la construction, ces derniers n’ont aucun cadre éthique auquel se référer. La construction d’un avion ou d’un bâtiment repose sur des cahiers des charges précis, il doit en être de même pour les produits des plateformes digitales ».

    Qu’est-ce qu’un code sûr et respectueux des utilisateurs ? Quels sont les standards minimums de sécurité ? Quel encadrement éthique pour les architectes de ces plateformes ? Autant de questions qui ne trouvent pas de traduction dans les chartes d’entreprise des géants du numérique. « Si un ou une employé·e se rend compte que son employeur lui demande de construire un produit qui n’est pas conforme aux standards éthiques, son droit d’opposition doit être sanctuarisé », rajoute le lanceur d’alerte, qui a lui-même du ferrailler contre Cambridge Analytica dans les premiers moments de son parcours de lanceur d’alerte. « Les décideurs et les ingénieurs des grandes entreprises du numérique étant majoritairement blancs et privilégiés, il est indispensable d’avoir des équipes les plus diverses possible pour réfléchir à ce cadre éthique. L’inclusivité permet d’envisager les risques et les failles sous des perspectives plus riches et complémentaires ».

    #Cambridge_analytica #Christopher_Wylie #Industrie_influence #Facebook

  • Why Facebook’s political-ad ban is taking on the wrong problem
    https://www.technologyreview.com/2020/09/06/1008192/why-facebooks-political-ad-ban-is-taking-on-the-wrong-problem

    A moratorium on new political ads just before election day tackles one kind of challenge caused by social media. It’s just not the one that matters. When Mark Zuckerberg announced that Facebook would stop accepting political advertising in the week before the US presidential election, he was responding to widespread fear that social media has outsize power to change the balance of an election. Political campaigns have long believed that direct voter contact and personalized messaging are (...)

    #CambridgeAnalytica/Emerdata #Facebook #algorithme #manipulation #domination #élections (...)

    ##CambridgeAnalytica/Emerdata ##SocialNetwork

  • If Then : How the Simulmatics Corporation Invented the Future
    https://bookshop.org/books/if-then-how-the-simulmatics-corporation-invented-the-future/9781631496103

    The Simulmatics Corporation, launched during the Cold War, mined data, targeted voters, manipulated consumers, destabilized politics, and disordered knowledge—decades before Facebook, Google, and Cambridge Analytica. Jill Lepore, best-selling author of These Truths, came across the company’s papers in MIT’s archives and set out to tell this forgotten history, the long-lost backstory to the methods, and the arrogance, of Silicon Valley. Founded in 1959 by some of the nation’s leading social (...)

    #CambridgeAnalytica/Emerdata #Simulmatics #algorithme #élections #prédiction #marketing #microtargeting #profiling (...)

    ##CambridgeAnalytica/Emerdata ##publicité

  • The Anti-Democratic Origins of Voter Prediction
    https://newrepublic.com/article/158821/jill-lepore-if-then-book-review-simulmatics-corporation-voter-election-

    How the Simulmatics Corporation tried to engineer an election—and paved the way for the Cambridge Analytica scandal I’m always a bit relieved when a tech company’s algorithm seems to fall short of mind reading. It’s somewhat reassuring when a so-called smart ad displays hideous shoes I would never buy just because I once bought a different pair from the same brand, or when Facebook suggests I befriend a good friend’s ex, having determined that he’s in my extended orbit, but lacking the (...)

    #algorithme #élections #prédiction #marketing #microtargeting #profiling #publicité #Simulmatics (...)

    ##publicité ##CambridgeAnalytica/Emerdata

  • The problems AI has today go back centuries
    https://www.technologyreview.com/2020/07/31/1005824/decolonial-ai-for-everyone

    Algorithmic discrimination and “ghost work” didn’t appear by accident. Understanding their long, troubling history is the first step toward fixing them. In March of 2015, protests broke out at the University of Cape Town in South Africa over the campus statue of British colonialist Cecil Rhodes. Rhodes, a mining magnate who had gifted the land on which the university was built, had committed genocide against Africans and laid the foundations for apartheid. Under the rallying banner of “Rhodes (...)

    #CambridgeAnalytica/Emerdata #DeepMind #algorithme #éthique #racisme #discrimination #GigEconomy (...)

    ##CambridgeAnalytica/Emerdata ##travail

  • Manipulations numériques en Afrique, par André-Michel Essoungou
    https://www.monde-diplomatique.fr/2020/09/ESSOUNGOU/62142

    Début juin, Facebook a fermé 446 pages, 96 groupes et plus de 200 comptes Instagram administrés par la société franco-tunisienne URéputation. Celle-ci aurait cherché à influencer, par la diffusion de fausses informations, des élections en Afrique francophone. Laboratoire mondial des manipulations numériques, le continent développe plusieurs types de riposte. Un temps rangées au musée des utopies, les élections démocratiques se sont répandues en Afrique au cours des trois dernières décennies. Mais, à (...)

    #CambridgeAnalytica/Emerdata #ChinaMobile #Huawei #Orange #Vodafone #Facebook #Twitter #WhatsApp #manipulation #données #élections #fraude #censure #microtargeting #SocialNetwork (...)

    ##CambridgeAnalytica/Emerdata ##payement

  • If you’re not terrified about Facebook, you haven’t been paying attention
    https://www.theguardian.com/commentisfree/2020/jul/26/with-facebook-we-are-already-through-the-looking-glass?CMP=share_btn_tw

    Facebook and America are now indivisible, says the Observer journalist who broke the Cambridge Analytica scandal – and the world is a sicker place for it In 2016, we didn’t know. We were innocent. We still believed social media connected us and that connections were good. That technology equalled progress. And progress equalled better. Four years on, we know too much. And yet, it turns out, we understand nothing. We know social media is a bin fire and that the world is burning. But it’s (...)

    #DataPropria #CambridgeAnalytica/Emerdata #FBI #Facebook #Instagram #WhatsApp #manipulation #données #élections #BigData #microtargeting #publicité (...)

    ##CambridgeAnalytica/Emerdata ##publicité ##SocialNetwork
    https://i.guim.co.uk/img/media/ce781bc53cdba8703e9c035e177769d00c87624c/0_177_5184_3112/master/5184.jpg

  • Brad Parscale, le sorcier numérique de Trump
    https://www.mediapart.fr/journal/international/190720/brad-parscale-le-sorcier-numerique-de-trump

    Donald Trump, en chute dans les sondages depuis le printemps 2020 après sa gestion catastrophique de la pandémie, s’est séparé de son directeur de campagne Brad Parscale quatre mois avant l’élection de novembre. Au centre du système Trump, il a été celui qui a tout misé sur le numérique et la puissance de Facebook dans la campagne présidentielle de 2016. Ironie de l’histoire, c’est sur Facebook et non pas sur Twitter, victime d’un piratage massif, que Trump a d’abord annoncé le remplacement de Parscale. (...)

    #CambridgeAnalytica/Emerdata #Google #Facebook #Twitter #algorithme #manipulation #technologisme #données #élections #BigData #GAFAM #microtargeting (...)

    ##CambridgeAnalytica/Emerdata ##profiling

  • Cambridge Analytica, big data et gros dégâts
    https://www.liberation.fr/futurs/2017/08/17/cambridge-analytica-big-data-et-gros-degats_1590468

    L’entreprise britannique spécialisée dans le marketing politique promet monts, merveilles et prospérité aux politiques, grâce au microciblage de leurs électeurs, via les données personnelles. Donald Trump et les brexiters en auraient profité. Jusqu’à la fin de l’année 2016, seuls les familiers du « big data » (traitement massif de données) électoral ou connaissaient l’entreprise SCL (pour Strategic Communication Laboratories) et sa filiale Cambridge Analytica. Un premier article, très documenté, paraît à (...)

    #CambridgeAnalytica/Emerdata #SCL #manipulation #données #élections #BigData #marketing #microtargeting (...)

    ##CambridgeAnalytica/Emerdata ##publicité

  • Why we’re concerned about profiling and micro-targeting in elections.
    https://privacyinternational.org/news-analysis/3735/why-were-concerned-about-profiling-and-micro-targeting-electio

    There is now an ecosystem that drives voter profiling and targeted messages, often known as micro-targeting, that accompany modern political campaigning globally. The targeted ad-supported internet is made up of thousands of companies that track and profile us all 24 hours a day- not just during election time. Key points While data driven political campaigns are not new, the granularity of data available and the potential power to sway or suppress voters through that data is. There is a (...)

    #CambridgeAnalytica/Emerdata #Facebook #Twitter #algorithme #[fr]Règlement_Général_sur_la_Protection_des_Données_(RGPD)[en]General_Data_Protection_Regulation_(GDPR)[nl]General_Data_Protection_Regulation_(GDPR) #données #élections #prédiction #religion #BigData #comportement (...)

    ##CambridgeAnalytica/Emerdata ##[fr]Règlement_Général_sur_la_Protection_des_Données__RGPD_[en]General_Data_Protection_Regulation__GDPR_[nl]General_Data_Protection_Regulation__GDPR_ ##marketing ##microtargeting ##profiling ##publicité ##PrivacyInternational