• « Va te faire foutre, #Twitter ! » dit #Aral_Balkan
    https://framablog.org/2021/06/05/va-te-faire-foutre-twitter-dit-aral-balkan

    Avec un ton acerbe contre les géants du numérique, Aral Balkan nourrit depuis plusieurs années une analyse lucide et sans concession du capitalisme de surveillance. Nous avons maintes fois publié des traductions de ses diatribes. Ce qui fait la particularité … Lire la suite­­

    #Autonomie_numérique #Fédération #Libertés_Numériques #algorithme #Capital-risque #Facebook #Fediverse #SmallTech #SmallWeb #startup #timeline

  • Cash Investigation - Nos données personnelles valent de l’or !
    https://www.france.tv/france-2/cash-investigation/2450927-nos-donnees-personnelles-valent-de-l-or.html

    Le prochain numéro de Cash Investigation, intitulé « Nos données personnelles valent de l’or » est disponible en avant-première, une semaine avant sa diffusion sur France 2. Dans cette nouvelle enquête, l’équipe de Cash va vous révéler comment vos téléphones vous espionnent et collectent des données très personnelles sur votre religion, votre moral ou votre grossesse sans votre consentement. Par exemple, lorsque vous vous connectez sur des sites de santé, vous transmettez des informations qui vont être (...)

    #algorithme #smartphone #données #DataBrokers #profiling #santé

    ##santé

  • Amazon’s book recommendation algorithms promote anti-vaccine and QAnon conspiracy theories and far-right, white nationalist content
    https://www.codastory.com/disinformation/amazon-algorithm-extremist-literature

    A new report says the retail giant’s book recommendation algorithms direct people toward conspiracy theories and far-right, white nationalist content A recently released report highlights how Amazon’s book recommendation algorithms can lead people to literature about extremism, white nationalism, and conspiracy theories, including QAnon and Covid-19 disinformation. The study, published in April by the Institute for Strategic Dialogue, a UK-based think tank researching extremism, analyzed (...)

    #Amazon #algorithme #manipulation #COVID-19 #extrême-droite #QAnon #santé

    ##santé

  • #Suisse Devant la justice pour un « J’aime » ou un « partage » sur les réseaux sociaux

    Un simple « like », une simple mention « J’aime », sur les réseaux sociaux peut conduire son auteur devant la justice. Les plaintes déposées contre les commentaires injurieux ou calomnieux se multiplient en Suisse. Plus de 700 personnes font l’objet d’une enquête concernant une seule et même affaire en Valais.

    L’histoire commence dans un restaurant du centre-ville de Martigny. Pour des raisons écologiques et économiques, le patron Fred Faibella a choisi de faire payer la carafe d’eau à ses clients. Mais un soir d’octobre, la décision du restaurateur n’est pas comprise.

    « Quatre personnes rentrent, ils vont s’installer et ils passent commande. Ils souhaitent une carafe d’eau, alors ma fille leur répond que la politique de la maison est, effectivement, de la facturer. Ils n’ont pas du tout apprécié. Ils sont partis et ils ont été un peu se venger sur les réseaux sociaux », raconte Fred Faibella dans Mise au point.

    Avalanche de réactions
    Le lendemain, l’un des clients rédige en effet un commentaire sur son « mur » Facebook en indiquant le nom du restaurant, « La vache qui vole ». La publication est abondamment « likée », partagée et commentée. En trois jours, Fred Faibella assiste, médusé, à une tempête sur les réseaux sociaux : « La vache qui vole rackette le client », « Une cruche de gérante et une vache qui vole, un duo peu recommandable » ou encore « Sale pute fessée de chef hautaine et indigne... ta vache qui vole de merde ».

    « Il n’est pas possible que les gens puissent continuer à insulter, à calomnier. L’une de mes collaboratrices, qui a dû consulter, a été en arrêt maladie pendant une semaine. Elle avait des angoisses. Ces gens font énormément de mal. Ce n’est pas possible que cela continue », explique Fred Faibella.

    Plus de 700 personnes dénoncées
    Ainsi, la plus importante plainte du genre en Suisse a été lancée (lire encadré). Plus de 700 personnes ont été dénoncées devant le Ministère public valaisan. Elles sont donc convoquées tour à tour par la police pour avoir écrit des commentaires malveillants dans cette affaire, pour les avoir partagés ou pour les avoir approuvés avec un « J’aime ».

    « Je pense qu’on a dépassé toutes les limites de la bienséance et du respect. Avec une telle procédure, que le Ministère public est en train de faire prospérer, on va peut-être dissuader tout le monde de persister dans cette voie. Car on aura à la fin des gens qui auront des montants très importants à payer », estime l’avocat du restaurateur Sébastien Fanti. « (...) Pour que l’exercice ait un sens, il faut que tout le monde soit dénoncé. »

    « J’aurais dû réfléchir »
    L’immense majorité des personnes dénoncées ont refusé de témoigner devant la caméra de Mise au point. Mary-Claude, elle, en a eu le courage. Si elle ne connaît pas le restaurant de Martigny, elle n’est pas restée indifférente au commentaire du client en colère. « Je me suis dit que le restaurant exagérait. J’ai donc voulu faire de l’humour. En tant qu’ancienne journaliste, j’aurais dû réfléchir. »

    La retraitée, qui passe pas mal de temps sur Facebook, écrit ce commentaire « Une cruche de gérante et une vache qui vole, un duo peu recommandable ». « Moi j’ai écrit cela ? Ce n’est pas très gentil. J’ai été peut-être un peu fort », avoue Mary-Claude. Elle a donc été entendue par la Police cantonale. « J’ai cru à une farce », reconnaît-elle. Depuis, elle essaie d’être plus sage sur les réseaux sociaux.

    L’avocat Sébastien Fanti reconnaît qu’il y a une différence entre les commentaires « humoristiques » et haineux. « Mais les gens ne se rendent pas compte que même en faisant la petite blague, l’effet de meute est en train d’arriver. Le premier qui va commenter ou qui va diffuser l’information est, très souvent, dépassé par les événements. Sauf que ce qu’il ne sait pas, c’est qu’il lui appartient de modérer les commentaires. »

    Le deuil et les commentaires haineux
    Le Valais a connu un autre exemple de discussion sur les réseaux sociaux qui dégénère. Le 23 janvier dernier, un guide et son client sont emportés par une avalanche en faisant du hors-piste. Si le client s’en est sorti, le guide est décédé. Christophe Gay-Crosier, 56 ans, était père de deux filles, Manon et Coline.

    Mais à la douleur de perdre leur papa s’est ajoutée celle de lire les commentaires qui se sont aussitôt déchaînés sous les articles relatant ce tragique fait divers : « C’est un attardé », « Il va en faire quoi de son pognon, maintenant qu’il est mort » ou encore « S’il est suffisamment con pour accepter de se faire payer pour aller prendre des risques ».

    « Les gens disent des horreurs »
    « Même moi, qui ne connaît pas très bien la montagne, je sais qu’un guide, c’est quand même fait pour faire du hors piste », explique Coline. « (...) La réalité, c’est que c’était quelqu’un de prudent qui faisait ce métier pour nourrir sa famille. Du coup, c’est violent, parce qu’on n’a pas choisi que cette histoire soit exposée. »

    Et sa soeur Manon d’ajouter : « Les gens disent des horreurs et ce n’est pas correct. Quand on dit du mal de quelqu’un qui est mort et, en plus, quand on dit des choses qui ne sont pas vraies, c’est de la diffamation. Ça salit la mémoire. »

    Coline et Manon, après avoir longtemps hésité, ont finalement déposé plainte contre cinq auteurs de commentaires les plus blessants. Et elles ont défendu, en février dernier, l’honneur de leur père dans Le Nouvelliste https://www.lenouvelliste.ch/articles/valais/canton/on-ne-peut-pas-laisser-salir-papa-les-filles-du-guide-decede-a-nendaz- . L’article a suscité beaucoup d’émotions dans le canton. « Il y a vraiment eu un mouvement de solidarité et de soutien. Cela soulageait et il y avait presque un sentiment de justice », conclut Manon.

    #réseaux_sociaux

    #facebook #surveillance #twitter #censure #algorithme #manipulation #internet #publicité #données #google #profiling #médias #racisme #haine #censure #antisémitisme #islamophobie #violence #xénophobie

  • Cybersécurité : « Les attaques informatiques peuvent créer le chaos », alerte le patron de l’ANSSI | Public Senat
    https://www.publicsenat.fr/article/politique/cybersecurite-les-attaques-informatiques-peuvent-creer-le-chaos-alerte-l

    Interrogé par le sénateur RDSE, Ludovic Haye, ingénieur en cybersécurité de profession, sur la #surveillance par #algorithme des sites internet (dont la majorité est en protocole HTTPS, donc chiffré et protégé) prévu par la future loi antiterroriste, Guillaume Poupard a rejeté une solution technique qui consiste à supprimer le chiffrement. « Je ne veux pas faire de polémiques, mais il faut éviter les mauvaises solutions […] le chiffrement est une technologie qui est là pour aider. Sans chiffrement on ne peut pas faire de cybersécurité […] Le fait de dire que le chiffrement empêche les #services_de_renseignements de faire leur travail d’enquête donc il faut supprimer le #chiffrement, c’est quelque chose qui me fait bondir, ce n’est pas efficace », a-t-il estimé.

    Pour rappel, sur France Inter, fin avril, Gérald Darmanin avait jugé nécessaire de laisser le gouvernement « rentrer et faire des failles de sécurité » au sein « des messageries cryptées ».

  • Jennifer Bates : « Nous sommes les milliardaires d’Amazon » Jonathan Lefèvre

    « Dès le troisième jour, je souffrais, j’ai regardé autour de moi et j’ai réalisé que je n’étais pas la seule à souffrir. » Arrivée en mai dernier à l’entrepôt de Bessemer (Alabama), Jennifer Bates décide quelques semaines plus tard de tenter l’inimaginable : créer un syndicat chez Amazon. Portrait.


    Jennifer Bates, une ouvrière qui a fait bouger le président des États-Unis. (Photo AFP)

    En commençant à travailler chez Amazon, l’ancienne ouvrière de l’automobile pensait avoir trouvé un « bon job » : 15 dollars de l’heure, une assurance-maladie. Mais elle déchante vite. « Ce n’est pas seulement physique. C’est une tension mentale. » Jennifer Bates parle du contrôle du temps – « time off task » – en vigueur chez Amazon : chaque seconde où le travailleur ne fait pas la tâche qui lui est assignée est comptée. Si ce quota est dépassé, les travailleurs sont pénalisés (jusqu’au licenciement). Problème : c’est totalement arbitraire car les travailleurs ne connaissent pas leur quota. Pour Jennifer et ses collègues, aller aux toilettes devient donc un dilemme : si on n’arrive pas à se retenir jusqu’à sa pause, aller aux WC pendant son shift compte dans son « time off task ».

    Un jour a eu lieu un contrôle aléatoire pour vérifier si les travailleurs ne volent pas de marchandises. « J’ai dû enlever ma veste, passer au scanner, enlever mes chaussures. Alors j’ai demandé si ce temps passé au contrôle, j’allais le récupérer pour mon temps de pause. L’agent de sécurité a dit non. J’étais furieuse. » C’est le déclic : après une discussion avec des collègues, des travailleuses et travailleurs d’Amazon font appel au syndicat. Dans le plus grand secret. Car Amazon déteste les organisations de travailleurs.

    L’ouvrière qui fait bouger le président des États-Unis
    Elle et ses collègues forcent la tenue d’un referendum sur le droit à créer son syndicat dans l’entrepôt de Bessemer. Ils reçoivent le soutien d’élus de gauche (comme Bernie Sanders qui invitera Jennifer à un débat au Sénat), de stars d’Hollywood, de joueurs de football américain et même de... Joe Biden. Le président, poussé dans le dos par l’énorme mouvement de soutien, est obligé de se prononcer en faveur de la syndicalisation. Pour le journaliste du New York Times Michael Corkery, c’est historique : « Les historiens du travail n’avaient jamais vu un président en exercice faire une déclaration aussi forte en faveur de la syndicalisation. »

    Le vote qui pouvait permettre, pour la première fois de l’histoire d’Amazon aux USA, à un syndicat de s’implanter sur un de ses sites a été remporté par la direction. Grâce à des consultants « anti-syndicat » payés 3 000 dollars la journée, de harcèlement, et de pratiques sans doute illégales.

    Amazon gagne un vote, mais perd l’opinion
    La lutte de Jennifer Bates et ses collègues a mis en lumière les conditions de travail chez Amazon et surtout la violence que la direction utilise pour empêcher un vote favorable au syndicat. Comme une onde de choc, plus de 1 000 salariés d’Amazon ont contacté le syndicat pour mener le combat sur leur lieu de travail. Soit exactement ce que la direction voulait éviter.

    Comme l’explique celle qui a commencé à travailler à 16 ans dans un fast-food : « Nous ne sommes pas des robots conçus uniquement pour travailler. Nous travaillons pour vivre. Nous méritons de vivre, de rire, d’aimer et d’avoir une vie pleine et saine. Nous, les travailleurs, gagnons des milliards pour Amazon. Je dis souvent : “Nous sommes les milliardaires, mais nous n’avons pas le droit de dépenser un seul centime de cette fortune.” »

    Avant de passer du temps avec ses sept petits-enfants, Jennifer Bates entend bien poursuivre la lutte. Finalement, tout est une question de temps...

    Source : https://www.solidaire.org/articles/jennifer-bates-nous-sommes-les-milliardaires-d-amazon
     #ouvrière #amazon #wc #toilettes #algorithme #surveillance #travail #domination #santé #bigdata #gafam #bénéfices #gigeconomy #femmes #sexisme #féminisme #travail #violence #inégalités #exploitation #travail #capitalisme #surveillance #économie #esclavage #exploitation #Syndicat #vie

  • Les Suresnois·es : nouveaux cobayes de la technopolice
    https://technopolice.fr/blog/les-suresnois%C2%B7es-nouveaux-cobayes-de-la-technopolice

    La mairie de Suresnes a accepté que la start-up locale XXII analyse les moindres faits et gestes, sur la voie publique, des suresnois·es : durant un an et demi, l’entreprise sera libre d’utiliser les images de vidéosurveillance de Suresnes pour développer des algorithmes de “détection de comportements suspects” dont elle sera propriétaire. Ce sont ainsi les données personnelles de toute une population qui sont offertes à une entreprise privée dans le seul et unique but d’enrichir les actionnaires (...)

    #XXII #algorithme #CCTV #données #vidéo-surveillance #surveillance

  • A Lille, des locataires essuient les plâtres d’un bailleur public 100 % Internet Nicolas Lee - mediacites

    La révolution numérique vire parfois au cauchemar. Dans un immeuble neuf mais truffé de défauts, des locataires de CDC Habitat sont confrontés à un service client entièrement dématérialisé capable de rester plusieurs semaines aux abonnés absents.

    Moisissures sur les murs, dégâts des eaux, prises électriques défectueuses, système de ventilation inopérant… le bâtiment B du 291 boulevard Victor Hugo à Lille a beau être flambant neuf, les problèmes n’ont cessé de s’accumuler depuis son inauguration en décembre 2020. « On ne pensait pas avoir autant de soucis », souffle Fostine, jeune salariée en communication arrivée avec son compagnon parmi les premiers locataires.


    Depuis le boulevard Victor Hugo à Lille, le bâtiment flambant neuf de CDC Habitat. Photo : Nicolas Lee

    Sur les 32 logements de l’immeuble, au moins 10 occupants rapportent des imperfections et des défaillances dans leur foyer. Ce n’est pas la seule galère qu’ils partagent. Tous sont confrontés au même dialogue impossible avec leur bailleur : la Caisse des Dépôts et Consignations Habitat (CDC Habitat). Et à l’obligation de passer par un service client 100 % web.

    « Sans faille côté client »
    
Cela fait maintenant trois ans, en 2017, que l’entreprise publique, plus gros bailleur de France, a pris le tournant de la dématérialisation totale de ses relations avec les locataires. Une décision qui concerne quelque 500 000 logements.« Sans faille côté client », assure Tristant d’Inguimbert, le directeur délégué du service client. De l’entretien qui évalue l’éligibilité à la location jusqu’à la signature du bail sur une tablette numérique, en passant par la communication avec le bailleur après l’emménagement : tout se passe par internet.

    Fostine a trouvé la procédure de location dématérialisée plutôt efficace : « Là-dessus, j’ai rien à redire », reconnaît-elle. Mais les ennuis commencent lorsqu’elle remarque une fuite d’eau importante dans la salle de bain. La jeune locataire contacte alors le bailleur sur l’application « CDC Habitat et moi ». Quelques jours sont nécessaires . . .

    La suite payante : https://www.mediacites.fr/decryptage/lille/2021/04/30/a-lille-des-locataires-essuient-les-platres-dun-bailleur-public-100-inter

     #ia #algorithme #révolution_numérique #intelligence_artificielle #technologisme #bigdata #bêtise #CDC_Habitat #cauchemar #immobilier #dématérialisation #sevice_client #locataire #logement #internet #Lille #PS

  • Greek camps for asylum seekers to introduce partly automated surveillance systems
    https://algorithmwatch.org/en/greek-camps-surveillance

    An EU-funded surveillance system for “reception and identification centers” on five Greek islands raises questions about asylum seekers’ privacy and well-being. Despite assurances from European authorities, the Centaur system suggests that mass control, and not shelter, is the priority. The Greek Ministry of Migration and Asylum will soon develop and deploy a partly-automated surveillance system at new reception facilities on Greek islands, according to an official strategy document (...)

    #algorithme #CCTV #migration #vidéo-surveillance #surveillance #AlgorithmWatch

  • #Campagnes de #dissuasion massive

    Pour contraindre à l’#immobilité les candidats à la migration, jugés indésirables, les gouvernements occidentaux ne se contentent pas depuis les années 1990 de militariser leurs frontières et de durcir leur législation. Aux stratégies répressives s’ajoutent des méthodes d’apparence plus consensuelle : les campagnes d’information multimédias avertissant des #dangers du voyage.

    « Et au lieu d’aller de l’avant, il pensa à rentrer. Par le biais d’un serment, il dit à son cousin décédé : “Si Dieu doit m’ôter la vie, que ce soit dans mon pays bien-aimé.” » Cette #chanson en espagnol raconte le périple d’un Mexicain qui, ayant vu son cousin mourir au cours du voyage vers les États-Unis, se résout à rebrousser chemin. Enregistrée en 2008 grâce à des fonds gouvernementaux américains, elle fut envoyée aux radios de plusieurs pays d’Amérique centrale par une agence de #publicité privée, laquelle se garda bien de révéler l’identité du commanditaire (1).

    Arme de découragement typiquement américaine ? Plusieurs États européens recourent eux aussi à ces méthodes de #communication_dissuasive, en particulier depuis la « crise » des réfugiés de l’été 2015. En #Hongrie comme au #Danemark, les pouvoirs publics ont financé des publicités dans des quotidiens libanais et jordaniens. « Les Hongrois sont hospitaliers, mais les sanctions les plus sévères sont prises à l’encontre de ceux qui tentent d’entrer illégalement en Hongrie », lisait-on ici. « Le Parlement danois vient d’adopter un règlement visant à réduire de 50 % les prestations sociales pour les réfugiés nouvellement arrivés », apprenait-on là (2). En 2017, plusieurs #artistes ouest-africains dansaient et chantaient dans un #clip intitulé #Bul_Sank_sa_Bakane_bi (« Ne risque pas ta vie »). « L’immigration est bonne si elle est légale », « Reste en Afrique pour la développer, il n’y a pas mieux qu’ici », « Jeunesse, ce que tu ignores, c’est qu’à l’étranger ce n’est pas aussi facile que tu le crois », clamait cette chanson financée par le gouvernement italien dans le cadre d’une opération de l’#Organisation_internationale_pour_les_migrations (#OIM) baptisée « #Migrants_conscients » (3).

    « Pourquoi risquer votre vie ? »

    Ces campagnes qui ciblent des personnes n’ayant pas encore tenté de rejoindre l’Occident, mais susceptibles de vouloir le faire, insistent sur l’inutilité de l’immigration irrégulière (ceux qui s’y essaient seront systématiquement renvoyés chez eux) et sur les rigueurs de l’« État-providence ». Elles mettent en avant les dangers du voyage, la dureté des #conditions_de_vie dans les pays de transit et de destination, les #risques de traite, de trafic, d’exploitation ou tout simplement de mort. Point commun de ces mises en scène : ne pas évoquer les politiques restrictives qui rendent l’expérience migratoire toujours plus périlleuse. Elles cherchent plutôt à agir sur les #choix_individuels.

    Déployées dans les pays de départ et de transit, elles prolongent l’#externalisation du contrôle migratoire (4) et complètent la surveillance policière des frontières par des stratégies de #persuasion. L’objectif de #contrôle_migratoire disparaît sous une terminologie doucereuse : ces campagnes sont dites d’« #information » ou de « #sensibilisation », un vocabulaire qui les associe à des actions humanitaires, destinées à protéger les aspirants au départ. Voire à protéger les populations restées au pays des mensonges de leurs proches : une vidéo financée par la #Suisse (5) à destination du Cameroun enjoint ainsi de se méfier des récits des émigrés, supposés enjoliver l’expérience migratoire (« Ne croyez pas tout ce que vous entendez »).

    Initialement appuyées sur des médias traditionnels, ces actions se développent désormais via #Facebook, #Twitter ou #YouTube. En #Australie, le gouvernement a réalisé en 2014 une série de petits films traduits dans une quinzaine de langues parlées en Asie du Sud-Est, en Afghanistan et en Indonésie : « Pas question. Vous ne ferez pas de l’Australie votre chez-vous. » Des responsables militaires en treillis exposent d’un ton martial la politique de leur pays : « Si vous voyagez par bateau sans visa, vous ne pourrez jamais faire de l’Australie votre pays. Il n’y a pas d’exception. Ne croyez pas les mensonges des passeurs » (6).

    Les concepteurs ont sollicité YouTube afin que la plate-forme diffuse les #vidéos sous la forme de publicités précédant les contenus recherchés par des internautes susceptibles d’émigrer. Le recours aux #algorithmes permet en effet de cibler les utilisateurs dont le profil indique qu’ils parlent certaines langues, comme le farsi ou le vietnamien. De même, en privilégiant des vidéos populaires chez les #jeunes, YouTube facilite le #ciblage_démographique recherché. Par la suite, ces clips ont envahi les fils d’actualités Facebook de citoyens australiens issus de l’immigration, sélectionnés par l’#algorithme car ils parlent l’une des langues visées par la campagne. En s’adressant à ces personnes nées en Australie, les autorités espéraient qu’elles inviteraient elles-mêmes les ressortissants de leur pays d’origine à rester chez eux (7).

    C’est également vers Facebook que se tourne le gouvernement de la #Norvège en 2015. Accusé de passivité face à l’arrivée de réfugiés à la frontière russe, il finance la réalisation de deux vidéos, « Pourquoi risquer votre vie ? » et « Vous risquez d’être renvoyés » (8). Les utilisateurs du réseau social avaient initialement la possibilité de réagir, par le biais des traditionnels « j’aime » ou en postant des commentaires, ce qui aurait dû permettre une circulation horizontale, voire virale, de ces vidéos. Mais l’option fut suspendue après que la page eut été inondée de commentaires haineux issus de l’extrême droite, suscitant l’embarras de l’État.

    Ici encore, Facebook offre — ou plutôt, commercialise — la possibilité de cibler des jeunes hommes originaires d’Afghanistan, d’Éthiopie et d’Érythrée, dont le gouvernement norvégien considère qu’ils ne relèvent pas du droit d’asile. L’algorithme sélectionne en particulier les personnes situées hors de leur pays d’origine qui ont fait des recherches sur Internet dénotant leur intérêt pour l’Europe et la migration. Il s’agit de toucher des migrants en transit, qui hésitent quant à leur destination, et de les dissuader de choisir la Norvège. Les Syriens ne font pas partie des nationalités visées, afin de ne pas violer le droit d’asile. De même, le message mentionne explicitement que seuls les adultes seront refoulés, afin de ne pas contester le droit des enfants à être pris en charge.

    À plusieurs reprises, depuis 2015, les autorités belges ont elles aussi utilisé Facebook pour ce type d’initiatives (9). En 2018, des photographies de centres de détention et d’un jeune migrant menotté, assorties du slogan « Non à l’immigration illégale. Ne venez pas en #Belgique » (10), furent relayées à partir d’une page Facebook créée pour l’occasion par l’Office des étrangers. Cette page n’existait toutefois qu’en anglais, ce qui a fait croire à un faux (y compris parmi les forces de l’ordre), poussant le gouvernement belge à la supprimer au profit d’un site plus classique, humblement intitulé « Faits sur la Belgique » (11).

    Si de telles initiatives prolifèrent, c’est que les États européens sont engagés dans une course à la dissuasion qui les oppose les uns aux autres. Le 30 mai 2018, en France, M. Gérard Collomb, alors ministre de l’intérieur, affirmait lors d’une audition au Sénat que les migrants faisaient du « #benchmarking » pour identifier les pays les plus accueillants. Cette opinion semble partagée par ses pairs, et les États se montrent non seulement fermes, mais soucieux de le faire savoir.

    Le recours aux plates-formes de la Silicon Valley s’impose d’autant plus aisément que les autorités connaissent l’importance de ces outils dans le parcours des migrants. Une très large majorité d’entre eux sont en effet connectés. Ils dépendent de leur #téléphone_portable pour communiquer avec leur famille, se repérer grâce au #GPS, se faire comprendre par-delà les barrières linguistiques, conserver des photographies et des témoignages des atrocités qui justifient leur demande d’asile, appeler au secours en cas de naufrage ou de danger, ou encore retrouver des connaissances et des compatriotes dispersés.

    Un doute taraudait les autorités des États occidentaux : en connectant les individus et en leur facilitant l’accès à diverses sources d’information, les #technologies_numériques ne conféraient-elles pas une plus grande #autonomie aux migrants ? Ne facilitaient-elles pas en définitive l’immigration irrégulière (12) ? Dès lors, elles s’emploieraient à faire de ces mêmes outils la solution au problème : ils renseignent sur la #localisation et les caractéristiques des migrants, fournissant un canal privilégié de communication vers des publics ciblés.

    Systématiquement financées par les États occidentaux et impliquant de plus en plus souvent les géants du numérique, ces campagnes mobilisent aussi d’autres acteurs. Adopté sous les auspices de l’Organisation des Nations unies en 2018, le pacte mondial pour des migrations sûres, ordonnées et régulières (ou pacte de Marrakech) recommande ainsi de « mener des campagnes d’information multilingues et factuelles », d’organiser des « réunions de sensibilisation dans les pays d’origine », et ce notamment pour « mettre en lumière les risques qu’il y a à entreprendre une migration irrégulière pleine de dangers ». Le Haut-Commissariat pour les réfugiés (HCR) et l’OIM jouent donc le rôle d’intermédiaires privilégiés pour faciliter le financement de ces campagnes des États occidentaux en dehors de leur territoire.

    Efficacité douteuse

    Interviennent également des entreprises privées spécialisées dans le #marketing et la #communication. Installée à Hongkong, #Seefar développe des activités de « #communication_stratégique » à destination des migrants potentiels en Afghanistan ou en Afrique de l’Ouest. La société australienne #Put_It_Out_There_Pictures réalise pour sa part des vidéos de #propagande pour le compte de gouvernements occidentaux, comme le #téléfilm #Journey, qui met en scène des demandeurs d’asile tentant d’entrer clandestinement en Australie.

    Enfin, des associations humanitaires et d’aide au développement contribuent elles aussi à ces initiatives. Créée en 2015, d’abord pour secourir des migrants naufragés en Méditerranée, l’organisation non gouvernementale (ONG) #Proactiva_Open_Arms s’est lancée dans des projets de ce type en 2019 au Sénégal (13). Au sein des pays de départ, des pans entiers de la société se rallient à ces opérations : migrants de retour, journalistes, artistes, dirigeants associatifs et religieux… En Guinée, des artistes autrefois engagés pour l’ouverture des frontières militent à présent pour l’#immobilisation de leurs jeunes compatriotes (14).

    Le #discours_humanitaire consensuel qui argue de la nécessité de protéger les migrants en les informant facilite la coopération entre États, organisations internationales, secteurs privé et associatif. La plupart de ces acteurs sont pourtant étrangers au domaine du strict contrôle des frontières. Leur implication témoigne de l’extension du domaine de la lutte contre l’immigration irrégulière.

    Avec quelle #efficacité ? Il existe très peu d’évaluations de l’impact de ces campagnes. En 2019, une étude norvégienne (15) a analysé leurs effets sur des migrants en transit à Khartoum, avec des résultats peu concluants. Ils étaient peu nombreux à avoir eu connaissance des messages gouvernementaux et ils s’estimaient de toute manière suffisamment informés, y compris à propos des aspects les plus sombres de l’expérience migratoire. Compte tenu de la couverture médiatique des drames de l’immigration irrégulière, il paraît en effet vraisemblable que les migrants potentiels connaissent les risques… mais qu’ils migrent quand même.

    https://www.monde-diplomatique.fr/2021/03/PECOUD/62833
    #migrations #réfugiés #privatisation #Italie #humanitaire #soft_power

    –-

    Ajouté à la métaliste sur les #campagnes de #dissuasion à l’#émigration :
    https://seenthis.net/messages/763551

    ping @isskein @karine4 @_kg_ @rhoumour @etraces

  • EU urged to ban AI tools that detect gender, sexuality
    https://news.trust.org/item/20210416162604-x84jp

    Draft EU rules include curbs on AI technology like facial recognition, but not on systems that detect gender, sexuality, race or disability April 16 (Thomson Reuters Foundation) - A cross-party group of European lawmakers called on Friday for an EU ban on artificial intelligence (AI) systems that detect and label people according to gender or sexuality, saying the technology was ripe for abuse and could fuel discrimination. Draft rules set to be announced by the European Commission next (...)

    #vidéo-surveillance #sexisme #biométrie #algorithme #CCTV #reconnaissance #facial #discrimination #LGBT #surveillance #AccessNow (...)

    ##technologisme
    https://d8zcwdvc14g2e.cloudfront.net/contentAsset/image/2f95419c-ab99-4e5a-b287-85acee982775/image/byInode/1/filter/Resize,Jpeg/jpeg_q/70/resize_w/1400

  • Intelligence artificielle : l’Europe face aux apprentis sorciers
    https://www.telerama.fr/debats-reportages/intelligence-artificielle-leurope-face-aux-apprentis-sorciers-6865602.php

    Alors que l’intelligence artificielle ne cesse de se développer, la Commission européenne vient de présenter son projet pour réguler les technologies numériques dans “le respect de l’humain”. Mais cette volonté d’encadrement est-elle tenable face aux appétits des géants chinois et américains ?

    Évoquant l’équilibre, Julien Gracq disait qu’« il suffit d’un souffle pour tout faire bouger ». Dans le rôle du funambule, la Commission européenne vient de publier son projet de règlement sur l’intelligence artificielle (IA). Alors que celle-ci s’insinue partout, charriant son lot de promesses – parfois intenables – et de prophéties autoréalisatrices, l’Europe prend l’initiative, selon la commissaire Margrethe Vestager, d’« élaborer de nouvelles normes qui garantiront une IA sûre, tournée vers le progrès et centrée sur l’humain ». Privilégiant une approche fondée sur le risque, Bruxelles cherche une ligne de crête qui permettrait d’encadrer ce nouvel eldorado sans l’interdire, de respecter les libertés sans hypothéquer l’innovation. Mission impossible ?

    Le sandwich sino-américain

    Trois ans après l’entrée en vigueur du Règlement général sur la protection des données (RGPD), régulièrement salué comme une avancée dans le champ du respect de la vie privée, l’Europe veut remettre le couvert et se positionner comme le champion de la régulation technologique. Le couloir de nage est néanmoins étroit : coincée entre un modèle américain prédateur des données personnelles et un paradigme chinois fondé sur le contrôle social dopé aux algorithmes, l’Union européenne connaît une impuissance relative. Pas facile d’être un gendarme en 2 CV quand les go fast roulent en Maserati.

    Thierry Breton, le commissaire au marché intérieur, a beau répéter que « l’UE doit organiser l’univers numérique pour les vingt prochaines années », en matière d’intelligence artificielle, le futur s’écrit pour l’heure à Shenzhen ou en Californie plutôt qu’à Bruxelles. Il suffit par exemple de jeter un œil curieux sur une présentation déclassifiée de la Commission de sécurité nationale sur l’intelligence artificielle (NSCAI), qui conseille le Congrès et oriente la politique technologique des États-Unis. L’organe, présidé par Eric Schmidt, ancien patron de Google, y déplore l’avance du rival chinois dans des domaines aussi variés que « les véhicules autonomes, les villes intelligentes, les services de transport ou les échanges dématérialisés ». Et affirme sans détours dans une diapositive : « La surveillance est le meilleur client pour l’intelligence artificielle. »

    De quoi mettre à mal les bonnes volontés européennes, pourtant bien réelles. Si la Chine – qui vise une économie de l’IA valorisée à 150 milliards de dollars d’ici à 2030 – n’est pas nommée dans le document de la Commission, son fameux « crédit social », au nom duquel chaque individu se voit attribuer une note modulée en fonction de ses actions quotidiennes, est agité comme un repoussoir absolu : l’Europe suggère ainsi d’interdire ces outils, qui portent « un préjudice systémique à certains individus ou groupes de personnes ».

    Exceptions sécuritaires…

    Autre point saillant : l’identification en temps réel dans l’espace public, qui serait également proscrite. La recommandation a de quoi surprendre quand on sait qu’en janvier 2020 l’Union européenne a renoncé à un moratoire de cinq ans sur la reconnaissance faciale. Mais le diable se niche dans les détails : primo, la biométrie intrusive resterait possible a posteriori ; deuxio, le texte prévoit plusieurs exceptions qui permettraient aux autorités de recourir à ces technologies. Si une première version du texte (ayant fuité la semaine dernière) se contentait d’une grossière dérogation sécuritaire, le projet final réduit les cas d’usage à trois situations : la recherche de victimes et d’enfants disparus, la prévention d’actes terroristes imminents et la localisation de personnes recherchées par la police pour des crimes punis d’au moins trois ans de prison.

    Le projet de règlement mentionne également les intelligences artificielles utilisées aux limites de l’espace communautaire, susceptibles d’« affecter des personnes en situation vulnérable ». Ces outils seraient considérés comme « à risque » et donc assujettis à des contrôles particuliers, sans pour autant être bannis. Ce n’est pas neutre : sous l’égide de Frontex, l’agence européenne de gardes-frontières, l’Europe mobilise drones, caméras thermiques et autres détecteurs de fréquence cardiaque pour refouler – illégalement – les migrants. Or, comme le rappelait le collectif Border Violence Monitoring Network dans un rapport récent, ces technologies répressives contribuent à les déshumaniser, légitimant les violences commises à leur encontre par la police.

    … et péril pseudoscientifique

    Plus surprenant, le projet de règlement reste particulièrement flou au sujet des « systèmes de catégorisation biométriques », autorisant et mettant sur le même plan des IA capables de classer les individus en fonction de leur couleur de cheveux et d’autres qui prétendent les ordonner suivant leur origine ethnique ou leur orientation sexuelle. Inacceptable pour une quarantaine d’eurodéputés. Dans un courrier adressé à la présidente de la Commission, Ursula von der Leyen, ils réclament l’interdiction pure et simple de telles pratiques, « qui réduisent la complexité de l’existence humaine à une série de cases binaires, risquant de perpétuer de nombreuses formes de discrimination ». Le péril n’est pas seulement théorique : il y a quelques mois, un chercheur américain, déjà à l’origine d’un « gaydar » dopé à l’intelligence artificielle, publiait un article scientifique dans la revue Nature, affirmant qu’on peut inférer les opinions politiques d’un individu grâce à la reconnaissance faciale.

    En l’état, cet angle mort du texte européen pourrait contribuer à ressusciter les pseudosciences racistes du XIXe siècle, au premier rang desquelles la physiognomonie, qui prétend examiner le langage animal du corps et déduire la personnalité d’un individu sur la foi des traits de son visage. Largement utilisée par les eugénistes pour soutenir leurs thèses, cette discipline dangereuse revit aujourd’hui sur un marché émergent de la détection des émotions, boosté par la pandémie. La physiognomonie est par exemple à l’origine de la start-up Clearview AI, l’épouvantail de la reconnaissance faciale, aujourd’hui poursuivie aux États-Unis pour avoir illégalement bâti une base de données de 3 milliards de visages. Appelant récemment à une régulation drastique de l’identification des affects, la chercheuse australienne Kate Crawford évoquait la nécessité de résister à « la pulsion phrénologique », un autre charlatanisme selon lequel nos caractères dépendent de la forme de notre crâne : « Nous devons rejeter la mythologie selon laquelle nos états d’âme sont un jeu de données qu’on pourrait extraire de nos visages. » Le pays moteur dans ce secteur infréquentable ? La Chine.

    #Frontex #algorithme #CCTV #drone #biométrie #migration #température #données #facial #législation #reconnaissance #vidéo-surveillance #BigData #surveillance (...)

    ##[fr]Règlement_Général_sur_la_Protection_des_Données__RGPD_[en]General_Data_Protection_Regulation__GDPR_[nl]General_Data_Protection_Regulation__GDPR_

  • Suresnes veut détecter les comportements suspects
    https://www.nextinpact.com/article/45514/suresnes-veut-detecter-comportements-suspects

    La ville de Suresnes, dans les Hauts de Seine, va relier ses caméras de vidéosurveillance (en novlangue juridique « vidéoprotection ») à une intelligence artificielle de XXII Group. Il n’y aura aucune reconnaissance faciale ni biométrique, assure son PDG, qui plaide pour une utilisation éthique de l’IA, et voudrait pouvoir en discuter avec la Quadrature du Net. XXII Group, une société spécialisée dans les solutions et produits d’intelligence artificielle, a sollicité la Ville de Suresnes, où elle est (...)

    #algorithme #CCTV #biométrie #vidéo-surveillance #surveillance #CNIL

  • How a Chinese Surveillance Broker Became Oracle’s “Partner of the Year”
    https://theintercept.com/2021/04/22/oracle-digital-china-resellers-brokers-surveillance

    A network of local resellers helps funnel Oracle technology to the police and military in China. Banners printed for the occasion read, “Build a new type of strategic partnership.” Artfully made cutouts of the two companies’ logos adorned the stage. And the frosting on the massive sheet cake curled into a red “20,” to celebrate two decades of cooperation between Oracle and one of its most important Chinese resellers. This was the backdrop in 2018, when Oracle executives gathered with (...)

    #Oracle #données #surveillance #algorithme

  • How French welfare services are creating ‘robo-debt’
    https://algorithmwatch.org/en/robo-debt-france

    When automated fraud detection algorithms fail, welfare services can wrongly demand the repayment of benefits. Over the last five years, several scandals showed the breadth of the problem. In Australia, 400,000 people were put in ‘robo-debt’, 40,000 in Michigan and 26,000 in the Netherlands. Journalist Lucie Inland explains how the French welfare office automatically put her in debt, and how she fought back. I live alone and, like many of my generation, I am part of the precariat. As such, I (...)

    #algorithme #technologisme #[fr]Règlement_Général_sur_la_Protection_des_Données_(RGPD)[en]General_Data_Protection_Regulation_(GDPR)[nl]General_Data_Protection_Regulation_(GDPR) #pauvreté #données (...)

    ##[fr]Règlement_Général_sur_la_Protection_des_Données__RGPD_[en]General_Data_Protection_Regulation__GDPR_[nl]General_Data_Protection_Regulation__GDPR_ ##pauvreté ##AlgorithmWatch

  • Police in Ogden, Utah and small cities around the US are using these surveillance technologies
    https://www.technologyreview.com/2021/04/19/1022893/police-surveillance-tactics-cameras-rtcc

    Police departments want to know as much as they legally can. But does ever-greater surveillance technology serve the public interest ? At a conference in New Orleans in 2007, Jon Greiner, then the chief of police in Ogden, Utah, heard a presentation by the New York City Police Department about a sophisticated new data hub called a “real time crime center.” Reams of information rendered in red and green splotches, dotted lines, and tiny yellow icons appeared as overlays on an interactive map (...)

    #NYPD #algorithme #CCTV #police #criminalité #prédiction #vidéo-surveillance #surveillance

    ##criminalité

  • En Californie, accident mortel avec une Tesla apparemment sans conducteur
    https://www.rts.ch/info/monde/12133551-en-californie-accident-mortel-avec-une-tesla-apparemment-sans-conducteu

    Deux hommes sont morts au Texas dans l’accident d’une Tesla à bord de laquelle il n’y avait apparemment personne derrière le volant, ont indiqué dimanche le Wall Street Journal et la chaîne de télévision locale KPRC2.
    Le véhicule roulait à vive allure quand il s’est écrasé samedi soir contre un arbre et a pris feu, selon ces médias. Les autorités n’ont retrouvé que deux individus, l’un à la place du passager et l’autre sur le siège arrière.

    https://www.rts.ch/2021/04/19/04/13/12133544.image?w=1280&h=720
    « Les premiers éléments de l’enquête, qui n’est pas encore terminée, montrent qu’il n’y avait personne au volant du véhicule », a indiqué un responsable de la police du comté de Harris, Mark Herman, au Wall Street Journal.

    Ils n’avaient pas encore déterminé dimanche si l’airbag du siège du conducteur s’était déployé et si le système d’assistance à la conduite du véhicule était enclenché au moment de la collision.

    Un véhicule pas encore autonome, selon Tesla
    Sur son site internet, Tesla prévient que les systèmes d’assistance à la conduite qu’ils proposent ne rendent pas le véhicule autonome et que la supervision active d’un conducteur reste nécessaire.

    Mais des vidéos montrent régulièrement des Tesla avec des conducteurs endormis ou sans les mains sur le volant pendant un temps prolongé.
    ats/ther
    #tesla #piege_à_cons #elon_musk #baudruche #Actualités_High-Tech #High_Tech #voiture_électrique #IA #algorithme #intelligence_artificielle #technologisme

    • Les géants du numérique nous prennent-ils pour des idiots ? Anouch Seydtaghia

      Deux Américains sont morts dans l’accident d’une Tesla Model S au Texas. D’après les forces de police, il n’y avait personne au volant au moment des faits. Sommes-nous devenus naïfs face à la technologie ou est-ce la faute des géants de la tech ?

      Un accident mortel lors duquel personne ne conduisait la Tesla Model S, semble-t-il. La voiture est sortie de la route et a heurté un arbre avant de prendre feu. Dans un tweet publié le 18 avril toutefois, le PDG de Tesla, Elon Musk, est formel. Selon lui, l’Autopilot n’était pas en marche au moment de l’accident et il assure que le « Full-Driving System » n’avait pas été acheté pour ce véhicule.

      Est-ce de la faute de Tesla, qui joue sans cesse avec les mots en affirmant que ses voitures sont presque autonomes ? Ou est-ce la faute des occupants du véhicule, qui ont mis leur destin entre les mains d’une technologie non aboutie ?

      Même si ce type d’accident est extrêmement rare, il met en lumière certaines de nos faiblesses, dont celle de trop faire confiance à la technologie.

      Reconnaissance vocale
      Aujourd’hui, les systèmes de reconnaissance vocale sur smartphone font des merveilles. Nous passons de plus en plus de temps, dans les voitures, à dicter nos messages en roulant. Même si nous gardons les yeux sur la route, c’est une source de distraction.
      Plus la technologie évolue, plus la tentation d’aller plus loin est grande, comme de participer à une vidéoconférence depuis son véhicule. Il semblerait que certains installent leur téléphone sur le tableau de bord, ce qui est un comportement illégal et irresponsable.
      Quand les services sont performants et la qualité de connexion puissante, il est difficile, pour certains, de résister à l’envie de pousser de nouvelles limites, quitte à adopter des comportements dangereux.

      Lève la tête avec Google
      Certains géants du numérique pensent alors que les utilisateurs ont besoin d’une application pour que notre téléphone nous enjoigne à regarder autour de nous dans l’espace public. C’est ce qu’estime Google avec l’application « Heads up » qui incitera à regarder devant nous si un mouvement de marche est détecté par le téléphone. Pour l’instant, cette fonctionnalité n‘est disponible que sur les smartphones Pixel de Google.

      En d’autres mots, la société qui nous a rendu accro aux smartphones nous fournit un outil pour éviter de se cogner contre un lampadaire.

      Bien sûr, la technologie permet d’accomplir des choses extraordinaires, mais il faudrait évaluer ce que la technologie nous apporte concrètement, sans « avaler » toutes les innovations comme des moutons. Il est temps d’être un peu plus critique, un peu plus responsable et surtout… un peu moins connecté.

      Source : https://www.rts.ch/info/culture/12152127-les-geants-du-numerique-nous-prennentils-pour-des-idiots.html

  • Loi sécurité globale adoptée : résumons
    https://www.laquadrature.net/2021/04/16/loi-securite-globale-adoptee-resumons

    La loi sécurité globale a été définitivement adoptée hier par l’Assemblée nationale, à 75 voix contre 33, au terme d’un débat soumis aux exigences de la police et dont nous n’attendions plus grand chose (lire notamment notre analyse de l’examen en commission à l’Assemblée ou au Sénat). La prochaine étape sera l’examen de la loi par le Conseil constitutionnel. Nous lui enverrons bientôt nos observations. Avant cela, prenons un instant pour résumer les changements juridiques qui, sauf censure de la part du (...)

    #algorithme #drone #anti-terrorisme #biométrie #géolocalisation #aérien #facial #législation #reconnaissance #vidéo-surveillance #immatriculation #LoiSécuritéGlobale #surveillance (...)

    ##LaQuadratureduNet

  • Automatic gender recognition tech is dangerous, say campaigners : it’s time to ban it
    https://www.theverge.com/2021/4/14/22381370/automatic-gender-recognition-sexual-orientation-facial-ai-analysis-ban-cam

    Simplistic gender binaries infringe on the right to self-expression Dangers posed by facial recognition like mass surveillance and mistaken identity have been widely discussed in recent years. But digital rights groups say an equally insidious use case is currently sneaking under the radar : using the same technology to predict someone’s gender and sexual orientation. Now, a new campaign has launched to ban these applications in the EU. Trying to predict someone’s gender or sexuality from (...)

    #Microsoft #Amazon #algorithme #biométrie #facial #reconnaissance #discrimination #LGBT #surveillance (...)

    ##AccessNow

  • Projet de loi renseignement : un toilettage plutôt qu’une refonte du texte de 2015
    https://www.lemonde.fr/societe/article/2021/04/15/projet-de-loi-renseignement-un-toilettage-plutot-qu-une-refonte-du-texte-de-

    Le nouveau projet qui devrait être débattu, fin mai-début juin, à l’Assemblée, introduit des nouvelles techniques qui pourraient faire débat. Six ans après le vote de sa première loi sur le renseignement, la France risque de conserver son bonnet d’âne des principales démocraties en matière de contrôle d’une activité qui aime tant le secret. Le Monde a eu accès à l’essentiel du nouveau projet de loi sur le renseignement qui sera débattu, fin mai-début juin, à la représentation nationale pour un vote prévu le (...)

    #CNCTR #algorithme #anti-terrorisme #données #législation #LoiRenseignement #écoutes

  • France’s police bill : surveillance for the long haul
    https://aboutintel.eu/france-police-bill

    The French government seems not to be interested in tackling systemic police violence. Instead, one of the most defining features of Macron’s first term as France’s head of state lies in the fast-paced expansion of state surveillance powers. A case in point is Parliament’s impending adoption of the “Bill on Global Security”, which shows the current administration is a leading representative of the rising wave of authoritarian-liberalism currently sweeping Europe. On 4 December 2020, French (...)

    #RATP #algorithme #CCTV #police #racisme #législation #vidéo-surveillance #violence #[fr]Règlement_Général_sur_la_Protection_des_Données_(RGPD)[en]General_Data_Protection_Regulation_(GDPR)[nl]General_Data_Protection_Regulation_(GDPR) #discrimination #LoiSécuritéGlobale (...)

    ##[fr]Règlement_Général_sur_la_Protection_des_Données__RGPD_[en]General_Data_Protection_Regulation__GDPR_[nl]General_Data_Protection_Regulation__GDPR_ ##surveillance ##CJUE ##LaQuadratureduNet ##biométrie ##facial ##reconnaissance

  • EU Set to Ban Surveillance, Start Fines Under New AI Rules
    https://www.bloomberg.com/news/articles/2021-04-13/eu-poised-to-set-ai-rules-that-would-ban-surveillance-scoring

    The European Union is poised to ban artificial intelligence systems used for mass surveillance or for ranking social behavior, while companies developing AI could face fines as high as 4% of global revenue if they fail to comply with new rules governing the software applications. The rules are part of legislation set to be proposed by the European Commission, the bloc’s executive body, according to a draft of the proposal obtained by Bloomberg. The details could change before the commission (...)

    #algorithme #CCTV #biométrie #facial #législation #reconnaissance #vidéo-surveillance (...)

    ##surveillance

  • 2020 : Mood, chiffres et musique
    https://mammouth.shorthandstories.com/2020---mood--chiffres-et-musique/index.html

    Quand les données Spotify jouent avec nos émotions 2020. L’année du confinement. Le summum de la déprime pour certains, un break productif pour d’autres. La procrastination a côtoyé les bonnes résolutions et les envies de changer le monde. Pour moi le confinement a été l’occasion de me réfugier dans ma collection de disques. Enfin, celle qui tient dans le fond de ma poche, merci Spotify. Dans cette période incertaine, certains ont sans doute voulu compenser en écoutant leurs playlists “feel good” en se (...)

    #Spotify #algorithme #biométrie #émotions #reconnaissance #son #COVID-19 #profiling (...)

    ##santé