• Quand les algorithmes de la CAF ouvrent la chasse aux pauvres ~ SILO
    https://silogora.org/quand-les-algorithmes-de-la-caf-ouvrent-la-chasse-aux-pauvres


    #chasse_aux_pauvres

    Première observation générale, le « monde merveilleux de la dématérialisation », qui s’accompagne d’une baisse considérable des moyens en termes d’accueil physique et téléphonique, génère des inégalités d’accès aux droits. Les raisons en sont d’une part les fractures numériques (territoriales, économiques pour la détention d’équipements, ergonomiques pour les personnes souffrant d’un handicap), d’autre part l’illectronisme (17% des Français) et la méconnaissance de l’outil numérique. En 2021 selon l’INSEE, 31% des Français ont renoncé à effectuer une démarche administrative.

    Deuxième observation, le traitement informatique des dossiers nécessite évidemment des algorithmes de calculs des droits, mais il entraine aussi le développement de techniques de ciblage via le datamining, c’est-à-dire la récolte et le croisement de données de différents fichiers administratifs. Officiellement, ces techniques visent à rendre la branche famille de la sécurité sociale plus efficiente, à appliquer le « juste droit », à repérer les personnes en situation de non recours et à punir justement les fraudeurs.

    Dans les faits, le ciblage des allocataires s’apparente à un véritable contrôle social. Plus de 1000 données sont collectées sur chacun d’entre eux, et la CNAF (Caisse nationale d’allocation familiale) l’écrivait elle-même dès 2017 dans son rapport « La politique de contrôle et de prévention des CAF » : « Ce traitement informatique permet de calculer la probabilité qu’une erreur se produise, en donnant un score de risque prédictif. Généralisé à tout le réseau des CAF, ce dispositif permet de repérer ainsi plus précisément les dossiers à risques ». Sur quels critères et selon quelles variables (décidés humainement) sont effectuées ces prédictions ? Mystère. Mais on peut aisément en imaginer quelques-uns… Maman solo, revenus irréguliers, lieu de naissance, par exemple.

    Les dossiers aux scores de risques élevés sont plus étroitement surveillés, y compris par les logiciels informatiques. Sur les quelque 37 millions de contrôles réalisés en 2020, touchant la moitié des allocataires, 32,25 millions étaient automatisés. Et 75% des contrôles effectués par des agents en chair et en os ont été déclenchés par le dispositif de ciblage. Pour schématiser, un logiciel repère des incohérences dans un dossier, tire la sonnette d’alarme, effectue les calculs débouchant sur un indu…

  • Une brasserie inondée de messages de haine après le passage de justin trudeau Gabrielle Drumond - radio-canada.ca
    https://ici.radio-canada.ca/nouvelle/1901950/brasserie-lone-oak-commentaires-justin-trudeau-visite-ipe

    Une microbrasserie de l’Île-du-Prince-Édouard a retiré des photos de Justin Trudeau de ses pages de réseaux sociaux après une avalanche de commentaires haineux.

    Le premier ministre du Canada était de passage à l’Île-du-Prince-Édouard vendredi dernier pour rencontrer des gens de la communauté. Le politicien a déjeuné à la microbrasserie Lone Oak durant la journée.

    Les photos du personnel de cet établissement avec le politicien ont été publiées sur les réseaux sociaux et ont suscité de la grogne chez certains usagers de ces plateformes.

    De nombreux commentaires étaient extrêmement négatifs et parfois vulgaires, ce qui a incité la direction de l’établissement à retirer les photos, selon Jared Murphy, copropriétaire et président-directeur général de cette microbrasserie.

    Des menaces contre la brasserie figurent parmi les commentaires.

    « En quelques heures, nous avons reçu des milliers de commentaires, des centaines de messages privés et des appels téléphoniques à la brasserie. »

    Selon Jared Murphy, la campagne contre son établissement n’a pas encore eu d’effet sur l’achalandage.

    Il déplore néanmoins le fait que la cote d’évaluation de son entreprise sur les réseaux sociaux ait radicalement baissé depuis le passage de Justin Trudeau.

    “Cela pourrait avoir un impact négatif sur notre entreprise, ce qui est vraiment très décevant à voir”, ajoute-t-il.

    Pourtant, le député libéral de Malpeque, Heath MacDonald, explique que le but du passage du premier ministre était d’aider une petite entreprise.

    La microbrasserie n’a ouvert ses portes qu’à la mi-mai.

    Polarisation sur les réseaux sociaux
    Pour le député fédéral de Charlottetown, Sean Casey, les propriétaires de la microbrasserie Lone Oak ont été victimes d’un phénomène bien connu depuis quelques années.

    « C’est un signe de la situation dans notre société et de la polarisation des points de vue. »

    Des commentaires négatifs envers Justin Trudeau ne sont pas une nouveauté, selon ce député libéral.

    “On voit presque quotidiennement sur les réseaux sociaux la haine qui est dirigée envers le premier ministre”, ajoute-t-il.

    Selon Sean Casey, il s’agit néanmoins de la première fois qu’une telle situation se produit dans les provinces de l’Atlantique.

    Le député de Charlottetown, Sean Casey, rappelle que le bureau du premier ministre du Canada doit composer avec des commentaires haineux tous les jours (archives).

    Le député fédéral reconnaît qu’une partie de la population pourrait être insatisfaite de la gestion de Justin Trudeau en ce moment, notamment en raison du haut taux d’inflation à l’Île-du-Prince-Édouard, le plus élevé au pays.

    “Il y a une volonté de le blâmer pour les problèmes internationaux qui frappent aussi au Canada, notamment l’inflation, par exemple”, explique Sean Casey.

    Néanmoins, cette situation ne justifie pas ces propos haineux, dit-il.

    “Ce n’est pas logique, mais c’est très facile de blâmer une seule personne qu’on n’aime pas pour tous les problèmes qu’on a”, précise le député libéral en soulignant que le bureau du premier ministre du Canada doit composer avec ce type de situation, notamment la circulation de fausses nouvelles à propos du politicien.

    #justin_trudeau #fils_à_papa dévoué aux riches #politique #réalité #facebook #algorithme #twitter #bigdata #internet #données #réseaux_sociaux #gafam #instagram #canada #imposture

  • À #Calais, une #surveillance du ciel au tunnel

    #Drones, #reconnaissance_faciale, #capteurs_de_CO2 et de battements cardiaques : face à l’afflux de réfugiés, la frontière franco-britannique est surveillée à grands coups d’#intelligence_artificielle. Premier volet de notre série sur la #cybersurveillance des frontières.

    Pablo lève les yeux au ciel et réfléchit. Brusquement, il fixe son ordinateur. Le chargé de communication et plaidoyer chez Human Rights Observers (HRO) fouille dans ses dossiers, ouvre un document d’une quinzaine de pages. « Tu vois, ce jour-là, ils ont utilisé un drone », indique-t-il en pointant l’écran du doigt. Le 9 juin, l’association pour laquelle il travaille assiste à une expulsion de réfugié·es à #Grande-Synthe. Dans son compte-rendu, elle mentionne la présence d’un drone. Des vols d’aéronefs, hélicoptères ou avions, devenus routiniers.

    En cette matinée de fin juin, Pablo a donné rendez-vous sur son lieu de travail, « l’entrepôt », comme il l’appelle. Ce vaste bâtiment désaffecté d’une zone industrielle à l’est de Calais héberge plusieurs associations locales. Les bureaux de HRO sont spartiates : un simple préfabriqué blanc planté dans la cour.

    C’est ici que ses membres se réunissent pour documenter les #violences d’État perpétrées contre les personnes en situation d’exil à la frontière franco-britannique, plus spécifiquement à Calais et à Grande-Synthe. Depuis plus de 20 ans, la ville est érigée en symbole de la crise migratoire. L’évacuation et la destruction de la jungle en octobre 2016 n’ont rien changé. Désormais réparties dans de multiples camps précaires, des centaines de migrants et migrantes tentent le passage vers l’Angleterre au péril de leur vie. Selon le ministère de l’intérieur, ils et elles étaient 52 000 en 2021, un record, contre « seulement » 10 000 en 2020.

    Sous l’impulsion des pouvoirs publics, Calais se barricade. Plus que les maisons de briques rouges, ce sont les #clôtures géantes, les rangées de #barbelés et les #marécages_artificiels qui attirent la vue. Tout semble construit pour décourager les exilé·es de rejoindre la Grande-Bretagne. « Avant, il n’y avait pas tout ça. C’est devenu assez oppressant », regrette Alexandra. Arrivée il y a sept ans dans le Pas-de-Calais, elle travaille pour l’Auberge des migrants, association qui coordonne le projet HRO.

    Quatre #caméras empilées sur un pylône à l’entrée du port rappellent que cette frontière n’est pas que physique. #Vidéosurveillance, #drones, #avions, #détecteurs_de_CO2… Le littoral nord incarne le parfait exemple de la « #smart_border ». Une frontière invisible, connectée. Un eldorado pour certaines entreprises du secteur de l’intelligence artificielle, mais un cauchemar pour les exilé·es désormais à la merci des #algorithmes.

    Si des dizaines de #caméras lorgnent déjà sur le port et le centre-ville, la tendance n’est pas près de s’inverser. La maire LR, #Natacha_Bouchart, qui n’a pas donné suite à notre demande d’interview, prévoit d’investir 558 000 euros supplémentaires en #vidéosurveillance en 2022.

    « C’est la nouvelle étape d’une politique en place depuis plusieurs décennies », analyse Pierre Bonnevalle, politologue, auteur d’un long rapport sur le sujet. À Calais, la #bunkérisation remonte, selon le chercheur, au milieu des années 1990. « À cette époque commencent les premières occupations des espaces portuaires par des personnes venues des pays de l’Est qui souhaitaient rejoindre la Grande-Bretagne. Cela entraîne les premières expulsions, puis un arrêté pris par la préfecture pour interdire l’accès au port. »

    Les années suivantes, c’est à #Sangatte que se dessinent les pratiques policières d’aujourd’hui. Dans cette commune limitrophe de Calais, un hangar préfigure ce que sera la « #jungle » et héberge jusqu’à 2 000 exilé·es. « La police cible alors tous ceux qui errent dans la ville, tentent d’ouvrir des squats, de dormir dans un espace boisé. » Une manière de « contenir le problème », de « gagner du temps ».

    En parallèle, la ville s’équipe en vidéosurveillance et en barbelés. En 2016, l’expulsion de la jungle fait émerger la politique gouvernementale actuelle : l’#expulsion par les forces de l’ordre, toutes les 24 ou 48 heures, des camps où vivent les personnes exilées.

    #Surveillance_aérienne

    Calme et grisâtre en ce jour de visite, le ciel calaisien n’est pas épargné. Depuis septembre 2020, l’armée britannique fait voler un drone #Watchkeeper, produit par l’industriel français #Thales, pour surveiller la mer. « Nous restons pleinement déterminés à soutenir le ministère de l’intérieur britannique alors qu’il s’attaque au nombre croissant de petits bateaux traversant la Manche », se félicite l’armée britannique dans un communiqué.

    Selon des données de vol consultées par Mediapart, un drone de l’#Agence_européenne_pour_la_sécurité_maritime (#AESM) survole également régulièrement les eaux, officiellement pour analyser les niveaux de pollution des navires qui transitent dans le détroit du Pas-de-Calais. Est-il parfois chargé de missions de surveillance ? L’AESM n’a pas répondu à nos questions.

    Au sein du milieu associatif calaisien, la présence de ces volatiles numériques n’étonne personne. « On en voit souvent, comme des hélicoptères équipés de caméras thermiques », confie Marguerite, salariée de l’Auberge des migrants. Chargée de mission au Secours catholique, Juliette Delaplace constate que cette présence complexifie leur travail. « On ne sait pas si ce sont des drones militaires, ou des forces de l’ordre, mais lorsque l’on intervient et que les exilés voient qu’un drone nous survole, c’est très compliqué de gagner leur confiance. »

    En décembre 2021, à la suite d’une demande expresse du ministre de l’intérieur, Gérald Darmanin, l’agence européenne #Frontex a dépêché un #avion pour surveiller la côte pendant plusieurs semaines. « Une mission toujours en cours pour patrouiller aux frontières française et belge », précise Frontex.

    « On sent une évolution des #contrôles depuis l’intervention de cet avion, qui a œuvré principalement la nuit, confie le maire d’une ville du Nord. Beaucoup de gens tentaient de monter dans des camions, mais cela a diminué depuis que les contrôles se sont durcis. »

    Il faut dire que la société #Eurotunnel, qui gère le tunnel sous la Manche, ne lésine pas sur les moyens. En 2019, elle a dépensé 15 millions d’euros pour installer des sas « #Parafe » utilisant la reconnaissance faciale du même nom, mise au point par Thales. Lors du passage de la frontière, certains camions sont examinés par des capteurs de CO2 ou de fréquence cardiaque, ainsi que par de l’#imagerie par #ondes_millimétriques, afin de détecter les personnes qui pourraient s’être cachées dans le chargement.

    « C’est un dispositif qui existe depuis 2004, lorsque Nicolas Sarkozy a fait évacuer le camp de Sangatte, informe un porte-parole d’Eurotunnel. Depuis 2015, il y a tellement de demandes de la part des routiers pour passer par ce terminal, car ils peuvent recevoir des amendes si un migrant est trouvé dans leur camion, que nous avons agrandi sa capacité d’accueil et qu’il fait partie intégrante du trajet. »

    Des outils de plus en plus perfectionnés qui coïncident avec l’évolution des modes de passage des personnes exilées, analyse le politologue Pierre Bonnevalle. « Pendant longtemps, il s’agissait de surveiller les poids lourds. Le #port et le #tunnel sont aujourd’hui tellement bunkérisés que les exilés traversent en bateau. »

    Les technologies employées suivent : en novembre 2021, le ministère de l’intérieur annonçait la mise à disposition de 4 x 4, de lunettes de vision nocturne ou de #caméras_thermiques pour équiper les gendarmes et policiers chargés de lutter contre l’immigration clandestine sur les côtes de la Manche.

    « Ces technologies ne servent à rien, à part militariser l’espace public. J’ai encore rencontré des associatifs la semaine dernière qui me disaient que cela n’a aucun impact sur le nombre de passages et les risques pris par ces gens », tempête l’eurodéputé et ancien maire de Grande-Synthe Damien Carême.

    Elles ont malgré tout un #coût : 1,28 milliard d’euros depuis 1998, selon Pierre Bonnevalle, dont 425 millions pour la seule période 2017-2021. « C’est une estimation a minima, pointe-t-il. Cela ne prend pas en compte, par exemple, le coût des forces de l’ordre. »

    Publié en novembre 2021, un rapport de la commission d’enquête parlementaire sur les migrations détaille les dépenses pour la seule année 2020 : l’État a investi 24,5 millions dans des dispositifs humanitaires d’hébergement, contre 86,4 pour la mobilisation des forces de l’ordre. Des sommes qui désespèrent Pablo, le militant de Human Rights Observers. « Cela aurait permit de bâtir de nombreux centres d’accueil pour que les exilés vivent dans des conditions dignes. » L’État semble avoir d’autres priorités.

    #technologie #frontières #contrôles_frontaliers #asile #migrations #réfugiés #surveillance_des_frontières #militarisation_des_frontières #IA #AI #complexe_militaro-industriel #Manche #La_Manche #France #UK #Angleterre
    –-

    via @olaf #merci :
    https://seenthis.net/messages/968794

  • affordance.info : Facebook et l’algorithme du temps perdu
    https://www.affordance.info/mon_weblog/2022/07/facebook-algorithme-temps-perdu.html
    https://www.affordance.info/.a/6a00d8341c622e53ef02a308d8b516200c-600wi

    Un algorithme dans un réseau social c’est un peu comme un produit ou un rayon dans un supermarché. De temps en temps il faut le changer de place pour que les gens perdent leurs habitudes, traînent davantage et perdent du temps à la recherche de leurs produits et rayons habituels, et tombent si possible sur des produits et rayons ... plus chers. Mais également pour que dans cette errance artificielle ils soient tentés d’acheter davantage. Tout le temps de l’errance est capitalisable pour de nouvelles fenêtres de sollicitations marchandes.

    Or la question de l’urgence du changement est particulièrement d’actualité pour la firme qui risque pour la première fois de son histoire de perdre des parts de marché publicitaire, et qui, au cours des trois derniers mois de l’année dernière, avait annoncé qu’elle avait perdu des utilisateurs quotidiens pour la première fois en 18 ans d’histoire.

    #Facebook #GAFAM #Algorithme #EMI #Réseauxsociaux

  • Prédire les flux migratoires grâce à l’intelligence artificielle, le pari risqué de l’Union européenne
    https://disclose.ngo/fr/article/union-europeenne-veut-predire-les-flux-migratoires-grace-a-lintelligence-a

    Depuis plusieurs mois, l’Union européenne développe une intelligence artificielle censée prédire les flux migratoires afin d’améliorer l’accueil des migrants sur son sol. Or, selon plusieurs documents obtenus par Disclose, l’outil baptisé Itflows pourrait vite se transformer en une arme redoutable pour contrôler, discriminer et harceler les personnes cherchant refuge en Europe. Lire l’article

    • C’est un logiciel qui pourrait sa place dans une dystopie. Une intelligence artificielle capable de compiler des milliers de données afin de prédire des flux migratoires et identifier les risques de tensions liées à l’arrivée de réfugiés aux frontières de l’Europe. Son nom : Itflows, pour « outils et méthodes informatiques de gestion des flux migratoires ». Financé à hauteur de 5 millions d’euros par l’Union européenne et développé par un consortium composé d’instituts de recherche, d’une société privée (Terracom) et d’organisations caritatives, Itflows qui est en phase de test devrait rentrer en service à partir d’août 2023. Et ce, malgré des alertes répétées quant aux risques de détournement de ses capacités prédictives à des fins de contrôle et de restrictions des droits des réfugiés sur le sol européen.

      Encore méconnu, ce programme doit venir compléter un dispositif technologique destiné à la surveillance des frontières, notamment espagnoles, italiennes et grecques. Financé sur le budget d’« Horizon 2020 », le programme de recherche et d’innovation de l’Union européenne, Itflows s’ajoutera alors aux drones de surveillance autonome, aux détecteurs de mensonges dans les zones de passages ou à l’utilisation de logiciels d’extraction de données cellulaires.

      D’après notre enquête, les deux ONG contribuent à nourrir l’intelligence artificielle de Itflows en lui fournissant des informations précieuses. Des données directement issues d’entretiens réalisés dans des camps de réfugiés, auprès de Nigérians, de Maliens, d’Érythréens ou encore de Soudanais. Il pourra s’agir d’éléments liés à l’origine ethnique, l’orientation sexuelle ou encore la religion des personnes interrogées. Pour leur contribution, les branches italiennes de la Croix-Rouge et d’Oxfam ont respectivement reçu 167 000 euros et 116 000 euros de fonds publics européens.

      « Nous avons contribué à réaliser trente entretiens de migrants arrivés en Italie au cours des six dernières années », confirme la Croix rouge Italie, sollicitée par Disclose. Une fois analysées, puis rendues accessibles via une application baptisée EUMigraTool, ces informations serviront aux autorités italiennes dans leur analyse « des routes migratoires et des raisons qui poussent les gens à faire le voyage », ajoute l’association. Même son de cloche du côté de Oxfam Italie, qui salue l’intérêt pour « les responsables politiques des pays les plus exposés aux flux migratoires. » Les dirigeants pourront également s’appuyer sur l’analyse des risques politiques liés à l’arrivée de migrants sur leur sol. Le projet inclut en effet la possibilité d’étudier l’opinion publique dans certains pays européens vis-à-vis des migrants à travers une veille sur le réseau social Twitter.
      Des rapports internes alarmants

      En réalité, les risques de détournement du programme existent bel et bien. C’est ce que révèlent des rapports internes (https://www.documentcloud.org/projects/logiciel-itflows-208987) au consortium que Disclose a obtenu à la suite d’une demande d’accès à des documents administratifs. Lesdits rapports, datés de janvier et juin 2021, ont été rédigés par les membres du comité éthique du projet Itflows. Leurs conclusions sont alarmantes. Le premier document, une somme de 225 pages, révèle que « le consortium Itflows est pleinement conscient des risques et des impacts potentiels en matière de droits de l’homme, que les activités de recherche empirique sur les migrations (…) et les développements technologiques prévus dans le projet peuvent poser ». Plus loin, les auteurs enfoncent le clou. Selon eux, les informations fournies par l’algorithme pourraient servir, si elles devaient être utilisées « à mauvais escient », à « stigmatiser, discriminer, harceler ou intimider des personnes, en particulier celles qui sont vulnérables comme les migrants, les réfugiés et les demandeurs d’asile ».

      Cinq mois plus tard, le comité éthique rend un second rapport. Il détaille un peu plus le danger : « Les États membres pourraient utiliser les données fournies pour créer des ghettos de migrants » ; « risque d’identification physique des migrants » ; « discrimination sur la base de la race, du genre, de la religion, de l’orientation sexuelle, d’un handicap ou de l’âge » ; « risque que les migrants puissent être identifiés et sanctionnés pour irrégularités ». Et le régulateur d’alerter sur un autre péril : la poussée des « discours de haine » que pourrait induire une éventuelle diffusion des prédictions du logiciel dans « les zones où les habitants sont informés de déplacements » de populations.
      L’Europe fait la sourde oreille

      Des alertes qui ne semblent pas avoir été entendues. Comme en atteste un bilan dressé lors d’une réunion (https://www.documentcloud.org/documents/22120596-emt-symposium-agenda-16-sep-2021?responsive=1&title=1) en ligne le 16 septembre 2021 par la coordinatrice du comité éthique de Itflows, #Alexandra_Xanthaki, devant des responsables européens, dont #Zsuzsanna_Felkai_Janssen, rattachée à la direction générale des affaires intérieures de la Commission. « Nous avons passé six mois à travailler jour et nuit pour rédiger un rapport instaurant un cadre qui intègre les droits de l’homme », débute la responsable du comité éthique, selon un enregistrement que Disclose s’est procuré. Elle poursuit : « Il me semble pourtant que ce que disent les techniciens de l’équipe aujourd’hui c’est : nous n’en tenons pas compte ». Un manque de précaution qui inquiète jusqu’au sein du conseil d’administration d’Itflows. Joint par Disclose, Alexander Kjærum, analyste pour le conseil danois pour les réfugiés et membre du conseil de surveillance estime en effet qu’il existe « un risque important que des informations se retrouvent entre les mains d’États ou de gouvernements qui les utiliseront pour implanter davantage de barbelés le long des frontières. »

      Sollicitée, la coordinatrice du programme, #Cristina_Blasi_Casagran, assure que le logiciel « ne sera pas utilisé à mauvais escient ». Selon elle, Itflows « devrait même faciliter l’entrée des migrants [dans l’Union européenne] en permettant une meilleure affectation des ressources engagées dans l’#accueil ».

      #Frontex inquiète

      Un dernier point vient renforcer le risque d’un détournement du logiciel : l’intérêt de Frontex pour Iflows. D’après des documents internes, l’agence en charge de la surveillance des frontières de l’UE suit étroitement les avancées du programme. Jusqu’à y contribuer activement via la fourniture de données récoltées dans le cadre de ses missions. Or, depuis plusieurs années, l’agence européenne est régulièrement accusée d’expulsions illégales et de violations des droits de l’homme. Interrogée sur ce point, l’ONG Oxfam considère qu’il n’y a pas de risque de détournement du logiciel au profit de l’agence. La branche italienne de la Croix rouge déclare quant à elle que « la convention de subvention régissant la mise en œuvre du projet Itflows ne désigne pas Frontex comme utilisateur de l’outil, mais simplement comme source de données ouvertes ». En 2021, Frontex a élu l’interface Itflows parmi les projets d’Horizon 2020 au « potentiel opérationnel et innovant » le plus élevé.

      #AI #IA #intelligence_artificielle #complexe_militaro-industriel #asile #migrations #frontières #EU #UE #Union_européenne #prédiction #Itflows #contrôle #logiciel #risques #Terracom #surveillance #Espagne #Italie #Grèce #horizon_2020 #camps_de_réfugiés #Croix-Rouge #Oxfam #religion #origine_ethnique #ethnie #orientation_sexuelle #données #EUMigraTool #risques #risques_politiques #twitter #réseaux_sociaux #opinion_publique #technologie #algorithme #discrimination #identification #Croix_Rouge

      ping @reka @isskein @karine4 @_kg_

  • Les montres intelligentes donnent des maux de tête aux médecins Violette Cantin - Le Devoir
    https://www.ledevoir.com/societe/733443/vigie-numerique-les-montres-intelligentes-donnent-des-maux-de-tete-aux-med

    Sébastien Marin, médecin de famille à l’urgence de l’hôpital Barrie Memorial, a témoigné mardi sur Twitter d’un diagnostic qu’il émet de plus en plus souvent : une Apple Watch défectueuse.

    Votre montre intelligente vous a récemment averti que vous ne dormiez pas suffisamment ou que votre fréquence cardiaque était anormalement élevée ? Prenez garde : elle n’est pas la meilleure conseillère quant à votre santé, préviennent deux spécialistes contactés par Le Devoir.

    Sébastien Marin, médecin de famille à l’urgence de l’hôpital Barrie Memorial, a fait part mardi sur Twitter d’un diagnostic qu’il pose de plus en plus souvent : une Apple Watch défectueuse.
    On a un nouveau diagnostique a l’urgence depuis quelques temps : “Apple watch défecteuse” .

 Pleins de gens viennent bien stressés car leurs Apple Watch indiquent des fréquences cardiaques a 140 bpm mais lorsque on la mesure, c’est 60 ????????‍♂️
    -- Sébastien Marin (@SebMarinMD) July 12, 2022

    « Des gens qui viennent attendre six heures aux urgences après avoir reçu une indication de leur montre, j’en ai vu souvent dans les deux ou trois derniers mois », raconte le Dr Marin. Il cite en exemple une montre qui indiquerait une saturation en oxygène du sang trop faible ou des battements de coeur trop rapides. « Les gens commencent à avoir peur s’ils ont l’impression que leur fréquence cardiaque n’est pas bonne », relève le médecin, qui dit les rassurer autant que possible.

    En cas de doute, la meilleure option demeure de guetter d’éventuels symptômes ou de mesurer sa fréquence cardiaque à la pharmacie avant de recourir au système de santé, note-t-il.

    Le sommeil n’est pas en reste
    Les montres intelligentes donnent aussi des informations sur le cycle de sommeil de leurs utilisateurs. Et ici aussi, ces indications peuvent poser problème.
     
    « Il faut mettre un grain de sel sur la fiabilité de ces montres, qui est modeste », indique le Dr Milan Nigam, neurologue et somnologue à l’hôpital du Sacré-Coeur de Montréal. Il dit lui aussi voir de plus en plus de patients inquiétés par les avertissements de leur montre intelligente. « En tant que médecin du sommeil, je ne peux qu’être content que les gens s’y intéressent davantage. Ils veulent s’outiller pour savoir comment l’améliorer, mais il peut y avoir des effets pervers à ça. »

    Il mentionne par exemple une montre qui indiquerait à une personne qu’elle n’a pas dormi suffisamment, ce qui peut la pousser à rester au lit plus longtemps, même si elle ne dort pas. « Mais quand on étire la durée du sommeil sur une plus longue période, le sommeil va être de moindre qualité », explique-t-il. À long terme, ces indications peuvent donc engendrer des comportements « délétères » chez certaines personnes.

    Cette quête obsessionnelle d’un sommeil parfait a même un nom : l’orthosomnie. « Ça arrive quand on devient trop préoccupé et anxieux par rapport à notre sommeil », précise-t-il, ajoutant que les indications des montres intelligentes peuvent devenir une source d’anxiété.

    Son conseil pour les gens qui croient souffrir d’un problème de sommeil ? Consulter leur médecin. « Les technologies [des montres intelligentes] ne sont pas si mal pour donner une approximation de la durée de notre sommeil, mais ça demeure modeste par rapport à ce qu’on peut faire dans un laboratoire.

     #santé #sante #surveillance #santé_publique #algorithme #apple #surveillance #algorithme #bigdata #gafam #technologisme #profiling #croyance #croyances #montres #objets_connectés

  • Les données numériques des femmes, armes de la justice américaine contre l’avortement ?
    https://www.rts.ch/info/sciences-tech/technologies/13190398-les-donnees-numeriques-des-femmes-armes-de-la-justice-americaine-contre

    La Cour suprême américaine pourrait remettre en cause le droit à l’avortement en laissant les Etats légiférer. Ceux qui interdiraient cet acte pourraient poursuivre des femmes en se basant sur leurs données numériques.
    La criminalisation de l’avortement pourrait prendre une tout autre dimension en utilisant les données numériques comme preuves au tribunal. L’achat d’un test de grossesse sur internet, une géolocalisation à proximité d’un centre de Planning familial ou des données de santé provenant d’une application de fitness sont des preuves qui pourraient être utilisées lors d’une action en justice.

    En 2017, une jeune Afro-Américaine du Mississippi a été inculpée de meurtre au 2ème degré de son enfant mort-né. L’accusation s’est basée sur une recherche qu’elle avait réalisée en ligne sur une pilule abortive. Même si elle a été relaxée en 2020, ces épisodes risquent de se généraliser.

    Des données précieuses pour une publicité ciblée
    Les données numériques des recherches effectuées sur Internet sont collectées et exploitées pour proposer de la publicité ciblée ou encore à d’autres fins.

    Selon une étude https://www.privacyinternational.org/long-read/3196/no-bodys-business-mine-how-menstruations-apps-are-sharing-your , les applications de suivi du cycle menstruel envoient des informations très personnelles sur la santé et les pratiques sexuelles des femmes directement à Facebook comme l’utilisation de contraceptifs, les dates de leurs règles, les symptômes et les humeurs.

    Les annonceurs s’intéressent à l’humeur des personnes car cela les aide à cibler stratégiquement les publicités à des moments où elles sont plus susceptibles d’acheter. Par exemple, les femmes enceintes, ou cherchant à le devenir, sont susceptibles de changer leurs habitudes d’achat.

    Pas de protection
    Dans un contexte de criminalisation de l’avortement, ces informations pourraient être intéressantes pour les services de police. Notamment aux Etats-Unis où, contrairement à l’Europe, aucune loi ne protège les citoyennes et les citoyens de l’utilisation de ces données numériques par la justice.

    En Europe, les données de santé sont considérées comme sensibles. Elles sont donc assujetties à des protections particulières par le Règlement Général de Protection des Données (ou le RGPD).

    En Suisse, le droit à l’avortement subit actuellement quelques pressions, sans pour autant être remis en question. Deux initiatives fédérales pour réduire le nombre d’IVG ont été lancées en 2021 : « La nuit porte conseil » et « Sauver les bébés viables ». La récolte des signatures court jusqu’en juin 2023.

    #femmes #usa #avortement #données #surveillance #facebook #santé #bigdata #algorithme #data #google #données_personnelles #profiling #vie_privée #flicage #smartphone #publicité

  • Marcq-en-Barœul, Wasquehal, Hem parmi les villes les plus cambriolées : la vidéosurveillance ne sert à rien
    https://actu.fr/hauts-de-france/marcq-en-baroeul_59378/marcq-en-baroeul-parmi-les-villes-les-plus-cambriolees-les-moyens-deployes-pour

    Marcq-en-Barœul (Nord) est apparue dans le top 20 des villes les plus cambriolées de France, tout comme Wasquehal. En réponse, la Ville détaille tous les moyens déployés pour sécuriser le territoire.

    Amer constat, pour les communes de la métropole lilloise Wasquehal et Marcq-en-Barœul, qui apparaissent dans le top 20 des villes https://www.lefigaro.fr/actualite-france/cambriolages-quels-sont-les-vrais-risques-dans-votre-ville-20220531 de plus de 20 000 habitants les plus cambriolées de France, selon un classement du Figaro. Interrogée sur ces données, découlant des chiffres du ministère de l’Intérieur, la Ville de Marcq-en-Barœul, par la voix de son adjoint à la tranquillité publique Alain Chastan, semble pourtant faire de la sécurité une priorité.

    Entre un dispositif de vidéosurveillance qui n’a cessé de s’étendre depuis une dizaine d’années, une police municipale active de jour comme de nuit, et une mairie à l’écoute de ses administrés, la réalité du terrain paraît en inadéquation avec la 20e place de la ville au classement. Précisions.

    L’objectif 300 caméras d’ici la fin du mandat
    La vidéosurveillance a été installée sur le territoire aussitôt qu’en 2010, explique Alain Chastan, Marcq-en-Barœul faisant office de précurseur à l’échelle de la métropole de Lille. À l’époque, une soixantaine de caméras fleurissent dans les rues ; elles sont aujourd’hui 210, avec l’objectif d’en avoir 300 d’opérationnelles d’ici la fin du mandat. « Et nous avons pris l’initiative de mettre des hommes, derrière les caméras, 7 jours/7, 365 jours de l’année », détaille l’élu. Ces « vidéo-opérateurs » sont aussi bien des policiers municipaux que des « gardes urbains », nom donné aux agents de surveillance de la voie publique (ASVP).

    Les 21 policiers municipaux, armés en tout temps, sont répartis dans deux équipes de jour, et une équipe de nuit. Cette dernière « travaille de 21h30 à 7h30 ». Une présence téléphonique est assurée 24h/24. 

    Il ne faut pas que les gens hésitent à nous appeler. Plutôt que de relayer des informations sur Facebook, il faut nous appeler pour une suspicion quelconque, afin qu’une patrouille se déplace. Et s’il ne se passe finalement rien, ce n’est pas grave !
    Alain Chastan,Adjoint à la tranquillité publique à Marcq-en-Barœul.

    Plus de 600 habitations surveillées pendant les vacances
    Pour les cambriolages, il faut savoir que la police municipale ne peut intervenir qu’en cas de flagrant délit. Autrement, c’est du ressort de la police nationale.

    Toutefois, les services de la Ville se montrent particulièrement attentifs aux demandes des habitants, notamment lors de la période estivale. « Nous participons à l’opération tranquillité vacances, principalement en juillet-août, et deux à trois patrouilles dans la semaine peuvent être opérées [dans certains quartiers] ». Pour les résidents, il suffit de notifier leur absence à la mairie. Jusqu’à 609 habitations ont été surveillées, dans ce cadre. 

    En 2021, la police municipale de Marcq-en-Barœul a réalisé plus de 3 000 interventions, quand 13 500 appels lui ont été passés. Elle a procédé à 88 interpellations. 

    #surveillance #algorithme #vidéo-surveillance #biométrie #facial #géolocalisation #police #reconnaissance #web #france #cambriolages

  • How to pick the least wrong colors || Matthew Ström, designer-leader

    An #algorithm for creating #color_palettes for #data_visualization

    The problem boiled down to this: how do I pick nice-looking colors that cover a broad set of use cases for categorical data while meeting accessibility goals?

    The criteria for success are threefold:

    – The colors should look nice. In my case, they need to be similar to Stripe’s brand colors.
    – The colors should cover a broad set of use cases. In short, I need lots of colors in case I have lots of categories.
    – The colors should meet accessibility goals. WCAG 2.2 dictates that non-text elements like chart bars or lines should have a color contrast ratio of at least 3:1 with adjacent colors.

    I’ve made the source code for the algorithm available here — please take a look and let me know if you have ideas for how to improve the method. A month’s worth of nights and weekends exploring the problem might seem like overkill to end up here. But maybe these 4,000 words can help spark more journeys.

    https://github.com/ilikescience/category-colors

    Avec des morceaux de maths dedans, ça pourrait plaire à @fil :)

  • Des prix d’abonnement pourront être augmentés sans consentement sur l’App Store Radio Canada
    https://ici.radio-canada.ca/nouvelle/1884214/app-store-prix-abonnement-hausse-sans-consentement

    De nouvelles règles pour la boutique d’applications d’Apple, l’App Store, ont été annoncées cette semaine et elles pourraient avoir un effet sur votre portefeuille : les développeurs pourront dorénavant augmenter le prix d’abonnement à une application sans obtenir le consentement manifeste des utilisateurs et utilisatrices.

    Dans un billet de blogue destiné aux développeurs, Apple argue que cette mesure permettra aux personnes de ne pas voir leur accès à ces applications coupé si elles ont oublié d’appuyer sur un bouton donnant expressément leur aval à une hausse du prix.


    Apple a annoncé ces nouvelles règles en même temps que le déploiement d’une mise à jour iOS. - Photo : afp via getty images / CHRIS DELMAS

    Les entreprises devront seulement s’assurer d’aviser les utilisateurs et utilisatrices du changement de prix, mais elles pourront aller de l’avant avec des frais plus élevés pour les abonnements renouvelables automatiquement, sans avoir l’obligation d’obtenir un “oui ” ou un “non”, comme c’était le cas jusqu’à maintenant.

    Apple met une limite aux hausses de prix qui peuvent être appliquées de cette manière : elles ne doivent pas dépasser les 50 % du prix de l’abonnement précédent. L’augmentation ne doit pas être de plus de 7 $ pour les forfaits mensuels, et de 70 $ pour les formules annuelles.

    Cette nouvelle mesure entre en vigueur sur la majorité des territoires où l’App Store fait des affaires, dont le Canada.

    #apple #abonnement #app_store #smartphone #algorithme #bigdata #iphone #domination #gafam #bénéfices #publicité #technologisme #profiling

  • #Belgique : Pas de retour à la normale avant plusieurs jours dans les hôpitaux Vivalia suite à une cyberattaque durant la nuit de vendredi à samedi Benjamin Carlier- RTBF
    https://www.rtbf.be/article/pas-de-retour-a-la-normale-avant-plusieurs-jours-dans-les-hopitaux-vivalia-1099

    La cellule de crise des hôpitaux du groupe Vivalia s’est réunie une nouvelle fois ce matin. Un planning de reprise des laboratoires, de la radiologie et de la remise en service de l’application permettant d’accéder aux dossiers des patients y a été présenté par les services informatiques. Selon le directeur du groupe Vivalia, Yves Bernard, cela prendra encore quelques jours avant un retour à la normale : « Il a été décidé ce matin de reporter les consultations et les opérations de demain. » Seules les urgences seront traitées ce mardi. Les centres de prélèvements sanguins au sein des hôpitaux du groupe seront également toujours fermés.


    Tous les patients concernés ont été prévenus par le groupe hospitalier. Une nouvelle réunion de la cellule de crise est prévue demain matin pour évaluer la situation et envisager encore plus concrètement le redémarrage des activités.
     
    Pour rappel, voici le dispositif communiqué par Vivalia pour l’annulation des différents soins :
    – Les opérations non urgentes sont supprimées sauf exception après avis concerté.

    – Les consultations sont annulées, un SMS a été envoyé individuellement aux personnes ayant un rendez-vous ce jour. Certaines consultations pourraient être maintenues suivant l’appréciation du médecin concerné qui prendra alors contact avec son patient ;

    – La médecine d’urgences est bien entendu maintenue. Nous insistons sur la nécessité de ne contacter ou se présenter à nos urgences qu’en cas de nécessité. Merci de consulter au préalable votre médecin généraliste ou le 1733 en soirée. En cas d’admission dans nos urgences, merci aussi de vous munir de votre vignette de mutuelle pour faciliter votre identification par nos équipes de soins ;

    – Radiologie/scintigraphie : tous les examens programmés sont annulés ;

    – Centres de prélèvements et Centres Covid : toute l’activité est arrêtée.

    #Santé #Hôpital #hacking #cyberattaque #cyberguerre #malware #ransomware #algorithme #sécurité #sécurité_informatique #piratage #cybersécurité #cyberattaques #internet

    • Imaginons que les #intérimaires en fin de contrat, les #vacataires lors de leur dernier jour de travail cliquent systématiquement sur les spam et malware afin de contaminer le système informatique de leurs négriers.

      Idem dans les unités de production.
      Morceau de cuivre dans les produits, ou morceau de verre, contamination du lait en poudre contaminé au à la listéria, . . . .

      N’est ce pas là une explications des « alertes » alimentaires ou informatique ?

      Les esclaves peuvent saboter le système.
      Il y a des conséquences pour les autres, mais ces autres se foutent éperdument du sort des petites mains de notre société, qu’est pas belle du tout à regarder.

      On appelait cela du #sabotage à une autre époque, ressemblant beaucoup à celle que nous subissons.

  • Algospeak : les influenceurs, bilingues en censure automatisée - Par Thibault Prévost | Arrêt sur images
    https://www.arretsurimages.net/chroniques/clic-gauche/algospeak-les-influenceurs-bilingues-en-censure-automatisee
    https://api.arretsurimages.net/api/public/media/screenshot-2022-05-07-at-04-38-40-creez-des-collages-de-photos-en-ligne/action/show?format=thumbnail&t=2022-05-07T04:39:41+02:00

    Pour échapper aux robots-censeurs, les utilisateurs de TikTok et d’Instagram ont développé leur propre dialecte : l’algospeak. Une nouvelle preuve que, sur internet, même le langage a été privatisé.

    Sur TikTok, personne ne vous entendra parler de sexe, de santé mentale, d’automutilation, de suicide, d’addictions, de viol, d’avortement, de guerre, de violence et, globalement, de tout ce qui est considéré par vos invisibles maîtres algorithmiques comme des sujets « sensibles ». Sur Instagram, même combat. Sur YouTube, pareil. Si vous essayez, ne serait-ce qu’un peu, de mettre ces sujets en avant, dans le titre, le résumé ou le référencement – via les hashtags – de votre vidéo, la sanction tombe : suppression sans préavis, avec le risque que votre chaîne toute entière subisse le même sort pour outrage aux toutes-puissantes Conditions générales d’utilisation (CGU) de la plateforme en question. Ici-bas, code is law, le code fait loi, c’est comme ça et pis c’est tout – et d’ailleurs, de plus en plus souvent, sur les questions de modération, law is code. On ne négocie pas avec un logiciel de modération automatique. Mais de l’autre côté, au bout du clavier, des êtres humains ont des choses à dire sur ces sujets interdits. Alors, comment on fait ? On camoufle la langue, se marrent les créateurs et créatrices de contenu, qui ont apparemment tous pris la LV2 option algorithmes.

    #TikTok #RéseauxSociaux #Langage #Algorithme #Modération #Instagram

  • Australie : Facebook accusé d’avoir délibérément bloqué des pages gouvernementales pour empêcher le vote d’une loi
    https://www.lemonde.fr/pixels/article/2022/05/06/australie-facebook-accuse-d-avoir-deliberement-bloque-des-pages-gouvernement

    En 2021, le réseau social a bloqué en Australie certaines pages d’information sur le Covid-19 ou les catastrophes naturelles. Censée être « involontaire », la manœuvre visait en réalité à peser sur l’élaboration d’une loi à laquelle Facebook était défavorable, selon le « Wall Street Journal ».

    Par Nicolas Six

    En 2021, en pleine pandémie, Facebook a intentionnellement bloqué certaines pages du gouvernement, d’hôpitaux et de services d’urgence australiens afin de peser sur une loi qui s’apprêtait à être votée par Canberra, selon les informations publiées jeudi 5 mai par le Wall Street Journal.

    En février de cette année-là, le gouvernement australien cherche à imposer aux géants du numérique la rémunération des contenus journalistiques apparaissant sur leurs pages. Google cède mais Facebook – aujourd’hui rebaptisé Meta – se braque une semaine avant le vote de la loi, restreignant en réponse l’accès aux articles et vidéos de nombreux journaux australiens et internationaux. Au passage, le réseau social bloque également les pages d’organismes gouvernementaux informant sur l’épidémie du Covid-19 et plusieurs pages d’information sur les catastrophes naturelles, et ce quelques jours avant le début de la campagne nationale de vaccination et en pleine saison des incendies et inondations.
    Lire aussi Article réservé à nos abonnés L’Australie remontée par le « black-out » de Facebook

    Ces blocages, qualifiés à l’époque d’« involontaires » par Facebook, étaient en réalité délibérés, si l’on en croit les observations de plusieurs lanceurs d’alerte révélées par le Wall Street Journal. Selon leurs témoignages et des documents internes à l’entreprise, qui ont été transmis au département de la justice des Etats-Unis ainsi qu’à la Commission australienne de la concurrence et de la consommation, ces dépublications résultaient d’une stratégie pensée et sciemment mise en œuvre par la plate-forme.

    Les documents fournis par les lanceurs d’alerte montrent que plusieurs employés de Facebook ont tenté de faire remonter le problème

    Tout en affichant sa volonté de bloquer exclusivement des organes de presse, Facebook aurait ainsi employé un algorithme de tri dont l’entreprise savait pertinemment qu’il toucherait beaucoup d’autres publications. Les documents fournis par les lanceurs d’alerte montrent que plusieurs employés de Facebook ont tenté de faire remonter le problème et d’offrir des solutions, mais l’équipe en charge des dépublications leur aurait répondu de façon minimaliste ou dans des délais trop longs.

    A la suite de ces remontées internes, Facebook n’a pas arrêté sa campagne de dépublications : au contraire, ces dernières ont rapidement été généralisées à tous les utilisateurs australiens de la plate-forme, alors que seulement 50 % d’entre eux y étaient confrontés aux premières heures. Un signe d’empressement inhabituel, selon le Wall Street Journal, qui souligne que l’entreprise est habituellement beaucoup plus lente et prudente lorsqu’elle déploie de nouvelles fonctionnalités. « Il était clair que nous n’étions pas en train de nous conformer à la loi mais que nous étions en train de frapper des institutions publiques et des services d’urgence », a témoigné une membre de l’équipe chargée des suppressions.
    Les responsables de Facebook au courant

    Selon le quotidien américain, l’objectif était bien d’exercer une pression maximale sur le Parlement australien avant le vote de la loi exigeant une rémunération pour les articles de presse sur les plates-formes numériques.

    Cinq jours après les premières dépublications, la loi passait au vote, comme prévu, mais son texte était amendé d’une façon favorable à Facebook, conformément aux changements négociés la veille entre le réseau social et le gouvernement. Si la version initiale du texte avait été entérinée, l’entreprise aurait été contrainte d’entrer en négociation avec l’ensemble des éditeurs, sous la supervision de l’Etat. Or ces amendements lui ont permis de composer au cas par cas avec les médias de son choix : depuis lors, Facebook a négocié treize accords de rémunération avec des éditeurs de presse, selon un porte-parole de l’entreprise cité par le Wall Street Journal.
    Lire aussi Article réservé à nos abonnés En Australie, « Facebook sauve l’essentiel, sa liberté de négocier »

    Immédiatement après la conclusion de son accord avec le gouvernement australien, Facebook a débloqué l’accès aux pages gouvernementales, selon des documents internes à l’entreprise. Un changement qui n’aurait demandé qu’une petite modification de trois lignes de code informatique, d’après le Wall Street Journal. Signe supplémentaire d’une stratégie délibérée : dans les minutes suivant le vote du Parlement, la directrice des partenariats de Facebook, Campbell Brown, envoyait un e-mail aux équipes de Facebook vantant leur succès : « Nous sommes parvenus exactement à l’endroit que nous souhaitions. » Le directeur général de l’entreprise, Mark Zuckerberg, ainsi que sa numéro deux, Sheryl Sandberg, se sont également félicités par écrit de l’opération, Mme Sandberg saluant la « précision d’exécution » de cette stratégie.

    En réponse à l’enquête du journal américain, un porte-parole de Facebook nie les accusations portées à l’encontre de l’entreprise. « Ces documents montrent clairement que nous avions l’intention d’exempter les pages gouvernementales de restrictions afin de minimiser l’impact de cette législation nocive et malavisée. (…) Nous n’avons pu y parvenir en raison d’une erreur technique, nous nous en sommes excusés, et nous avons travaillé pour résoudre ce problème. Toute allégation contraire serait catégoriquement et clairement fausse. »

    Nicolas Six

    #Facebook #Australie #Algorithme #Editorialisation

  • Bulles de filtres et chambres d’écho - YouTube
    https://www.youtube.com/watch?v=i7d55LgDncM

    En plus de notre tendance à préférer les contenus qui confirment ce que l’on pense déjà - le « biais de confirmation » - les algorithmes contribuent à nous enfermer dans une bulle où rien ne pénètre, à part les informations auxquelles on adhère à priori. Faites-en l’expérience en cliquant seulement sur des vidéos de chats. Rapidement, votre fil de nouvelles sera envahi de chats !

    #Algorithmes #Information #Réseauxsociaux #SNT #GAFAM #Recherche #EMI

  • Management : « Les algorithmes sont plus opaques que les méthodes de contrôle traditionnelles », Régis Martineau, Professeur à l’ICN Business School

    Le chercheur Régis Martineau explique, dans une tribune au « Monde », que nous sommes entrés dans une phase d’« oligarchie numérique », où les entreprises dominantes, comme les Gafam, dictent les règles dans presque tous les aspects de la vie et du travail.

    Les algorithmes s’appuient sur le big data et l’intelligence artificielle pour prédire et analyser les comportements des individus. Ils sont devenus essentiels, au cours de la dernière décennie, dans le fonctionnement des organisations : ils peuvent être utilisés pour mieux connaître les clients, faciliter une meilleure prise de décision, assurer une coordination plus fluide ou encore améliorer l’apprentissage organisationnel. Ils sont par ailleurs essentiels à l’économie de plate-forme et à l’industrie 4.0.

    Mais les algorithmes ne bouleversent pas seulement les modèles économiques ou la relation client, ils modifient aussi les modes de management. Ainsi, dans les organisations, est pratiqué de plus en plus le « management algorithmique », une nouvelle forme de management, qui s’appuie sur les algorithmes pour organiser les modes de production et de contrôle. Qu’y a-t-il de nouveau avec le management algorithmique ?

    Selon la synthèse réalisée récemment par des chercheurs de l’Institut de technologie du Massachusetts (MIT) et de l’université Stanford (Cafifornie), les algorithmes ont, comparés aux systèmes de contrôle traditionnels, trois caractéristiques qui les distinguent.
    Instantanés et interactifs
    Tout d’abord, ils permettent de capter davantage d’aspects du comportement humain : les dispositifs connectés peuvent désormais enregistrer avec plus d’acuité les mouvements corporels (jusqu’aux mouvements du visage et les données biométriques) et les pensées des salariés (à travers les vidéos et les enregistrements audio, mais aussi l’analyse des données textuelles).

    Cela permet de prescrire et d’encadrer le travail d’une manière nouvelle, souvent de manière beaucoup plus stricte et en temps réel. Par exemple, Uber analyse les données d’accélération et de freinage pour produire des « nudges » incitant les chauffeurs à prendre des pauses. Certaines entreprises analysent le vocabulaire utilisé et les sentiments exprimés sur les réseaux par les salariés ; quand d’autres localisent les employés qui interagissent fréquemment ensemble ou, au contraire, ceux qui s’isolent. D’autres utilisent même la reconnaissance faciale pour évaluer le moral de leurs employés.

    Ensuite, les algorithmes sont instantanés et interactifs : on peut maintenant davantage calculer, sauvegarder et communiquer des informations en temps réel. Cela a des conséquences importantes sur les modes d’évaluation des salariés, qui se fait de plus en plus instantanément à travers notamment les notes attribuées par les consommateurs.

    Amazon, Craigslist, Upwork, eBay, Uber, Lyft, Airbnb, TripAdvisor, pour ne citer que les plus connues, utilisent ces évaluations pour attribuer les commandes aux individus les mieux notés et rendre les « mal notés », ou ceux dont le comportement s’écarte de la prescription, moins visibles. Par ailleurs, les algorithmes utilisent cette instantanéité pour « gamifier » le travail, au travers d’applications qui utilisent les techniques de récompense ou d’incitation inventées dans le monde du jeu vidéo.

    Mêmes questions et mêmes réactions

    Enfin, les algorithmes sont plus opaques que les méthodes de contrôle traditionnelles. La plupart des travailleurs ne saisissent pas complètement quels types de données sont collectés à leur sujet, comment elles sont utilisées ou comment les contester. De plus, avec le « machine learning », les algorithmes sont particulièrement difficiles à déchiffrer, y compris pour les spécialistes de l’intelligence artificielle eux-mêmes.
    Cette opacité rend le contrôle particulièrement strict et rend difficile le « gaming » (le jeu avec les règles), qui, traditionnellement, permet aux individus d’aménager des espaces de liberté dans l’entreprise.
    Lire aussi Article réservé à nos abonnés Entreprises : « Il faut avoir le courage de briser le silence à l’endroit où il doit l’être et oser nommer les abus managériaux qui ont pu en résulter »
    Voilà pour le « nouveau monde ». Cependant, l’« ancien monde » n’est jamais trop près de disparaître. En réalité, comparé aux formes traditionnelles du contrôle, le management algorithmique repose les mêmes questions et provoque les mêmes réactions, déjà bien connues.

    Rien de nouveau dans ces gestes répétitifs de travailleurs non qualifiés ; ce paiement à la (micro) tâche ; ces « journaliers » incertains d’être assignés à une tâche éphémère ; cette facilité de remplacement du facteur travail (par d’autres plus précaires ou par des machines) ; cette précarité qu’entraîne un contrat de travail non protecteur ; cette surveillance stricte… Autant d’éléments déjà bien décrits dans les romans de Steinbeck ou dans les films de Chaplin.

    Les joies du stakhanovisme

    De manière plus surprenante, on y renoue même avec les joies du stakhanovisme : les livreurs à vélo connaissent bien ce système qui indique le nombre de kilomètres parcourus, et qui les compare à ce livreur mythique, qui parcourt des distances chaque mois dignes d’un coureur du Tour de France… Au final, entre « gamification » et discours enthousiastes sur l’intelligence artificielle d’un côté ; et précarité et surveillance accrue de l’autre, les travailleurs transportent dans leurs poches un bien étrange Big Brother…
    Lire aussi : Article réservé à nos abonnés Mari-Noëlle Jégo-Laveissière : « Choisir l’“IA douce” contre l’“IA Big Brother” »
    L’histoire du management a montré que nous avons déjà connu des périodes où de nouvelles technologies venaient bouleverser les modes de management. A chaque fois, au début, ces nouvelles formes de management sont célébrées comme des innovations bénéfiques, tout en rendant le contrôle plus intrusif et plus strict ; et sont très peu débattues, malgré leurs implications humaine, éthique et juridique importantes. Ensuite, elles sont contrebalancées par des mouvements qui les font évoluer vers un management plus humain (par exemple, le mouvement des relations humaines avait répondu au taylorisme).

    Les sciences des organisations peuvent donc aider à prendre du recul sur les algorithmes et à penser des politiques adaptées. Selon des recherches historiques récentes, nous serions actuellement dans une phase d’« oligarchie numérique », c’est-à-dire un laisser-faire qui laisse le numérique – et les entreprises qui en sont les leaders, particulièrement les Gafam (Google, Apple, Facebook, Amazon et Microsoft) – se développer de manière incontrôlée, dans tous les aspects de la vie et du travail.

    Pour contrer ou mieux encadrer ce mouvement, les pouvoirs publics et les organisations collectives du travail doivent se saisir du sujet pour que les intérêts et les limites du numérique au travail soient collectivement et politiquement débattus, pour en venir à une « démocratie numérique ».

    https://www.lemonde.fr/idees/article/2022/04/26/management-les-algorithmes-sont-plus-opaques-que-les-methodes-de-controle-tr

    #travail #management #algorithmes

    • Dans les entreprises, l’essor du management par les algorithmes

      C’est le manageur dont le travail se voit aujourd’hui le plus transformé par l’intelligence artificielle (IA), affirme une étude de l’Organisation de coopération et de développement économiques (OCDE), publiée en décembre 2021. Juste derrière le professionnel de la finance. L’essor du big data dans les années 2000, couplée à l’utilisation de systèmes informatiques capables de traiter une quantité de données sans précédent, a permis le développement de logiciels ultra-perfectionnés, capables de participer aux décisions les plus stratégiques dans l’entreprise. Ainsi, 32 % environ des emplois risquent d’être modifié radicalement par le progrès technologique, estime une autre étude de l’OCDE parue en 2019. Selon l’organisme international, les fonctions supérieures d’encadrement et de décision sont les prochaines sur la liste.

      https://justpaste.it/4t53e

  • affordance.info : 4 questions aux algorithmes (et à ceux qui les font, et à ce que nous en faisons)
    https://www.affordance.info/mon_weblog/2022/04/4-questions-algorithmes.html
    https://www.affordance.info/.a/6a00d8341c622e53ef0282e14f7a64200b-600wi

    La problème de la transparence comme de la redevabilité, même en se limitant aux algorithmes publics, c’est qu’un « algorithme » est un fait calculatoire et décisionnel qui ne peut être isolé de faits sociaux qui en déterminent les causes et les effets. Un algorithme est développé par des gens, qui obéissent à d’autres gens, et qui sont tous pris dans des déterminismes et des contraintes économiques, professionnelles, politiques, sociales, etc. Penser que l’ouverture et et la redevabilité des algorithmes suffira à régler l’ensemble des problèmes qu’ils posent n’a pas davantage de sens que penser que l’étiquetage des denrées alimentaires résoudra les problèmes de malbouffe, d’obésité et de surproduction agricole.

    #SNT #NSI #EMI #algorithmes #Réseauxsociaux #Facebook #Moteurderecherche

  • Les États-Unis en quatre couleurs
    https://visionscarto.net/les-etats-unis-en-quatre-couleurs

    Titre : Les États-Unis en quatre couleurs Mots-clés : #Algorithmes #Coloriage #Contraintes Auteur : Philippe Rivière Date : Avril 2021 Un théorème de mathématiques démontre que quatre couleurs suffisent à colorier n’importe quelle carte (sans que deux régions contiguës ne partagent la même couleur, bien entendu). Dans la pratique, le coloriage peut se faire à la main en s’armant de patience, ou bien par des techniques algorithmiques dites de « programmation logique » ou de « programmation par (...) #Collection_cartographique

  • The United States in four colors
    https://visionscarto.net/the-united-states-in-four-colors

    Title: The United States in four colors Keywords: #Algorithms #Coloring #Constraints Author: Philippe Rivière Date: April 2021 A mathematical theorem demonstrates that four colors are enough to color any map (without two contiguous regions sharing the same color, of course). In practice, coloring can be done by hand with patience, or by algorithmic techniques of “logic programming/answer set programming” or “constraint programming”. To compute this map, we used the Clingo solver (...) #Map_collection

  • Larmes de crocodiles et oubli, suite au décès de madeleine albright, qui avait provoqué la mort de 500 000 enfants irakiens, c’est à dire plus qu’à Hiroshima en Nagasaki !

    Nos médias officiels font le silence sur le passé de cette ancienne secrétaire d’Etat américaine.

    Rappel : madeleine albright, secrétaire d’Etat de Clinton, avait ainsi répondu à une question sur le blocus US qui avait provoqué la mort de 500 000 enfants irakiens : « Je pense que c’était un choix difficile, mais oui, ça en valait la peine » . (Emission « Sixty Minutes » (CBS) du 12 mai 1996). L’interview a remporté un Emmy Award.

    En bonus, guerre en Serbie et au Kosovo.
    Fin octobre 2012, lors de la signature d’un livre dans la librairie de Prague Palác Knih Luxor, #madeleine_albright, recevant la visite d’un groupe de militants de l’organisation tchèque « Přátelé Srbů na Kosovu », qui avaient apporté des photos de guerre, dont certaines montraient des victimes serbes de la guerre du Kosovo de 1999, est filmée leur disant : « Sortez, Serbes dégoûtants ! 

    • Les étudiants de l’essec confrontés aux conséquences de ce qui est enseigné dans leur école. À Cergy, les étudiants de l’essec face à l’insécurité Nicolas Daguin - Le figaro

      Tout commence par un mail anonyme adressé au Figaro en novembre 2021. Un certain « Tyler », qui se présente comme un étudiant de l’Essec - l’une des premières écoles de commerce en France -, souhaite nous faire part du climat d’insécurité qui se serait installé autour du campus, situé à Cergy (Val-d’Oise). La situation aurait « énormément empiré » ces derniers temps et serait « devenue invivable », selon ses mots. Il est question d’agressions, de vols avec violence et même de tentatives d’enlèvements. Le jeune homme affirme aussi que « nombre d’étudiants [seraient] traumatisés et ne [voudraient] plus prendre de cours terminant après le coucher du soleil par peur de rentrer seuls la nuit ».

      S’il n’a personnellement jamais été victime d’aucune agression, Tyler assure que plusieurs de ses camarades n’ont pas eu sa chance. Ce dernier en veut pour preuve le groupe Facebook « ESSAFE », créé en 2017. « Nous l’avons ouvert après avoir constaté une recrudescence des agressions autour du campus, dans l’idée… ..

      La suite payante, mais on en a pas besoin : https://www.lefigaro.fr/actualite-france/ce-n-est-pas-normal-de-mettre-sa-vie-en-danger-pour-etudier-a-cergy-les-etu

      #essec #winner #écoles_de_commerce #management #valeurs #libéralisme #marketing #capitalisme

    • #belgique : Quatre nouveaux centres fermés pour personnes en séjour irrégulier forcées au retour
      https://www.vrt.be/vrtnws/fr/2022/03/23/quatre-nouveaux-centres-fermes-pour-personnes-en-sejour-irreguli

      Le gouvernement fédéral a approuvé la construction de trois nouveaux centres fermés et un centre de départ, créant ainsi plus de 500 places supplémentaires affectées au retour forcé de personnes en séjour irrégulier. Les autorités libèrent 100 millions d’euros pour un plan stratégique. Les nouveaux centres - prévus à Jabbeke, Zandvliet, Jumet et Steenokkerzeel - devraient permettre de presque doubler le nombre de places pour les personnes en séjour illégal d’ici 2030.


      Cette décision historique marque un véritable tournant. Nous créons plus de capacité de retour que jamais et pouvons faire un pas de géant dans la politique de retour de notre pays", soulignait le Secrétaire d’Etat à la Migration sammy mahdi. Les trois nouveaux centres pour migrants illégaux se situent à Jumet (près de Charleroi), à Zandvliet (près d’Anvers) et à Jabbeke (près de Bruges).Ce dernier remplacera d’ailleurs l’actuel centre fermé de Bruges.

      Un centre de départ sera par ailleurs établi à Steenokkerzeel (Zaventem) : les personnes n’y resteront idéalement qu’un jour ou deux pour permettre un retour rapide vers le pays d’origine. Le gouvernement fédéral a approuvé rapidement le marché public pour le développement de ce projet.

      La Belgique compte six centres fermés d’une capacité maximale de 635 places. Avec la construction de trois nouveaux centres et de ce centre de départ, la capacité totale passera à 1.145 places, soit plus de 500 supplémentaires par rapport à aujourd’hui. Les appels d’offre pour le bâtiment de Steenokkerzeel seront publiés cette semaine, la construction pouvant commencer en 2024. Pour les centres de Jabbeke, Jumet et Zandvliet, la construction est prévue entre 2027 et 2029.
      . . . . . .

      #centres_fermés pseudo #prisons #réfugiés #asile #migrations #racisme #police #frontières #migrants #migration

    • Le Royaume-Uni finance 4 caméras de vidéoprotection à Brighton, un hameau de Cayeux-sur-Mer
      https://actu.fr/hauts-de-france/cayeux-sur-mer_80182/le-royaume-uni-finance-4-cameras-de-videoprotection-a-brighton-un-hameau-de-cay

      Quatre caméras de vidéoprotection vont apparaître à Brighton-les-Pins, hameau de Cayeux-sur-Mer (2445 habitants), dans la Somme. Le projet est principalement financé par un fonds britannique.

      « Une opération blanche pour la commune. » C’est avec ces mots que Jean-Paul Lecomte qualifie le projet d’installation de 4 caméras de vidéoprotection dans le hameau de Brighton-les-Pins. En effet, le maire de Cayeux-sur-Mer (Somme) ne mettra pas la main au portefeuille.

      « C’est de l’argent qui tombe du ciel »
      « La situation est idéale pour la commune », commente-t-il. Pour cause, le Royaume-Uni finance une grosse partie de l’installation via un fonds de lutte contre l’immigration clandestine. Sur les 67 000 € du coût total du projet, 11 185 € seront financés par la Fédération Départementale d’Énergie (FDE).

      Les Britanniques apporteront leur pierre à l’édifice à hauteur de 55 923 €. « C’est de l’argent qui tombe du ciel », ironise l’élu.

      Les études de protection réalisées par la gendarmerie nationale ont reconnu deux zones à Cayeux-sur-Mer. La première s’étend du Hourdel à l’entrée de la ville. La seconde se situe plus au sud. À terme, une trentaine de caméras devraient être installées dans ces deux secteurs. Mais pour l’instant, la première tranche ne concerne que quatre caméras à Brighton-les-Pins.

      « Quatre départs de migrants ont été constatés dans la commune », se souvient l’édile. « Deux au sud et deux autres au niveau de la carrière de galets Silmer, à Brighton. »

      Une caméra sera donc placée à cet endroit. Les trois autres seront installées au niveau du foyer de vie, au phare et à l’entrée de la ville. Cette dernière permettra la lecture de plaques d’immatriculation notamment.


      Qui s’occupera de l’entretien des caméras ?
      Une petite interrogation avait tout de même été émise par Philippe Prouvost, conseiller municipal : « Qui s’occupera de l’entretien de ces caméras ? » Jean-Paul Lecomte a assuré que « l’installation et l’entretien seront gérés par la FDE qui passera par l’entreprise Citéos ».

      Le centre de visionnage des images captées par les caméras sera installé dans les locaux des agents de surveillance de la voie publique (ASVP). « Lorsqu’il y aura un problème dans ce coin, une seule personne sera habilitée à visionner ces images », explique le maire.

      Si la zone nord doit faire l’objet des attentions du conseil municipal en 2023, les dossiers pour ces quatre premières caméras viennent d’être envoyés à la préfecture. La date d’installation est encore floue.

      #foutage_de_gueule #surveillance #vidéo-surveillance #réfugiés #algorithme #migrations #police #france

  • Usbek & Rica - Tech Paf - L’obscénité de la mécanique du scrolling
    https://usbeketrica.com/fr/article/tech-paf-l-obscenite-de-la-mecanique-du-scrolling
    https://usbeketrica.com/uploads/media/1200x628/02/92782-scrolling+shutterstock.jpg?v=1-0

    La guerre en Ukraine révèle à quel point les algorithmes d’Instagram et notre tendance à scroller compulsivement nous font passer à côté des vraies informations. L’édito d’Elena Scappaticci, rédactrice en chef web de la plateforme d’Usbek & Rica.

    #EMI #Réseauxsociaux #Images #Algorithmes #Instagram

  • The world in four colors
    https://visionscarto.net/the-world-in-four-colors

    Title: The world in four colors Keywords: #Algorithms #Coloring #Constraints Author: Philippe Rivière Projection: Bertin, 1953 Date: April 2021 A mathematical theorem demonstrates that four colors are enough to color any map (without two contiguous regions sharing the same color, of course). In practice, coloring can be done by hand with patience, or by algorithmic techniques of “logic programming/answer set programming” or “constraint satisfaction”. To compute this map, we used the (...) #Map_collection

  • Hilarant ! : l’intelligence artificielle devrait contribuer pour environ 14.000 milliards d’euros à l’économie mondiale, d’ici à 2030 Par Jean-François Noulet - RTBF

    Proximus lance « ADA » pour miser sur l’intelligence artificielle et la cybersécurité
    https://www.rtbf.be/article/proximus-lance-ada-pour-miser-sur-lintelligence-artificielle-et-la-cybersecurit
    L’intelligence artificielle et la cybersécurité sont au cœur du développement actuel de nos économies. L’intelligence artificielle, ce sont des en quelque sorte des ordinateurs robots, alimentés par des données numériques qui permettent de développer de nouvelles solutions dans de nombreux domaines, tels que la santé, l’énergie, la mobilité, notamment. Cette exploitation de quantités gigantesques données numériques va de pair avec un risque pour la sécurité informatique. La cybersécurité est un enjeu. C’est logique, les risques de cyberattaques augmentent avec l’accroissement de l’utilisation des données numériques. C’est pour se renforcer sur ces deux tableaux et devenir un acteur de premier ordre que Proximus lance « ADA », une filiale dédiée à l’intelligence artificielle et à la cybersécurité.


    Aider la société belge à relever les défis informatiques
    ADA, c’est d’abord un hommage et un clin d’œil à Ada Lovelace, une mathématicienne et écrivaine anglaise de la première moitié du 19e siècle. Elle est considérée comme une pionnière de la programmation informatique.

    Pour créer sa filiale, qui démarrera ses activités le 1er avril, Proximus est parti d’un constat : l’intelligence artificielle et la cybersécurité gagneront en importance dans les années à venir. Que ce soit pour aider à réduire la consommation d’énergie, prédire des erreurs dans les systèmes techniques, améliorer la détection de fraudes, l’intelligence devrait, selon les chiffres cités par Proximus, contribuer pour environ 14.000 milliards d’euros à l’économie mondiale, d’ici à 2030. En Belgique, cela représenterait une contribution de 330 millions d’euros à l’horizon 2024, selon Proximus.

    Parallèlement au développement de cette nouvelle économie numérique, la cybersécurité est essentielle pour lutter contre les cyberattaques et protéger les activités et les données des particuliers et des entreprises.

    Dans ces domaines où les données sont importantes, Proximus estime être « bien placé pour y jouer un rôle de plus en plus important ». Le groupe belge a développé ces dernières années de l’expertise en la matière, tant en Belgique qu’à l’étranger, via certaines de ses filiales. Ainsi, TeleSign, spécialisé dans les services d’identité digitale et des solutions logicielles « est un partenaire de confiance pour 8 des 10 plus grandes entreprises du monde », affirme Proximus. BICS, autre filiale, est un leader mondial dans le domaine des communications digitales.

    La création de Proximus ADA devrait, selon Guillaume Boutin, le CEO de Proximus, « permettre d’accélérer cette position de leader » et « contribuer à faire de la société belge une société prête au futur ».

    Pour permettre à ce projet de se développer, le CEO de Proximus insiste sur la nécessité d’avoir « des réseaux de dernière génération » pour « permettre cette sécurisation des données ». Avoir des réseaux de « très haut débit » est, explique le CEO, essentiel. Il rappelle l’importance du déploiement de la fibre optique. 

    Miser sur les talents belges
    A son lancement, ADA emploiera une cinquantaine de collaborateurs. L’objectif est d’arriver à 150 personnes d’ici trois ans. Ce que recherche Proximus, ce sont des « experts locaux ». L’idée est de nouer « des collaborations avec le tissu éducatif belge », selon Guillaume Boutin pour qui il s’agit de « former et retenir les talents belges » pour renforcer les équipes d’experts de Proximus. Ingénieurs, spécialistes en cybersécurité et autres en formation sont donc dans le viseur des recruteurs du groupe de télécommunication.

    Ce que Proximus espère, c’est placer la Belgique au centre de l’échiquier mondial dans les deux domaines clés de la cybersécurité et de l’intelligence artificielle.

     #intelligence_artificielle #humour #algorithme #surveillance #ia #biométrie #vidéo-surveillance #bigdata #santé #technologie #facial #en_vedette #ai #transhumanisme

  • #Canada : Les sonnettes intelligentes Google Nest sont frileuses
    https://ici.radio-canada.ca/nouvelle/1863406/google-nest-froid-batterie

    L’hiver canadien est rude pour les nouvelles sonnettes intelligentes Google Nest. L’appareil, qui permet aux utilisateurs et utilisatrices de voir qui est à leur porte d’entrée à l’aide d’un téléphone intelligent, tolère mal le froid.

    Dans une note publiée cette semaine, Google mentionne que la pile lithium-ion de sa sonnette ne peut être rechargée sous 0 degrés Celsius. Elle peut toutefois continuer de fonctionner jusqu’à -20 degrés Celsius.

    Cette mise à jour survient après que bon nombre d’internautes eurent signalé sur les forums de Google que la pile de leur Google Nest s’était déchargée plus rapidement que d’habitude cet hiver, même lorsque le gadget était relié au câblage de leur maison.


    Les sonnettes Google Nest peuvent être installées avec ou sans câble. Dans les deux cas, la sonnette fonctionne avec l’énergie de sa pile. Photo : Capture d’écran de YouTube

    Le géant technologique explique que les fils électriques reliant les sonnettes aux domiciles ne chargent pas directement l’appareil.

    Au lieu de cela, la pile est rechargée au compte-gouttes par le courant qui passe par les câbles, et la sonnette fonctionne à partir de la charge de la pile.

    Par temps froid, Google recommande donc aux propriétaires de rentrer leur sonnette intelligente à l’intérieur afin de la recharger.

    #croyance en #Google #religion des #gafam #surveillance #algorithme #apple #domination #smartphone #internet #profiling #gafam #biométrie #facial #géolocalisation #géolocalisation

  • Censure des œuvres d’art sur les réseaux sociaux | Academie Des Beaux Arts
    https://www.academiedesbeauxarts.fr/censure-des-oeuvres-dart-sur-les-reseaux-sociaux

    Censure des œuvres d’art sur les réseaux sociaux : l’Académie des beaux-arts appelle à la vigilance

    De L’Origine du monde de Gustave Courbet à La Liberté guidant le peuple d’Eugène Delacroix, ou encore de la Descente de Croix de Pierre-Paul Rubens, aux photographies de Lucien Clergue en passant, 4000 ans plus tôt, par la Vénus de Willendorf, les exemples de censure sur les réseaux sociaux sont innombrables et entravent considérablement, chaque jour un peu plus, la promotion de l’Art sur ces médias incontournables.

    Les plateformes principales des réseaux sociaux ont en effet introduit dans leurs conditions d’utilisation que « leur politique en matière de diffusion ne permettait pas la nudité ou la nudité suggérée », ne faisant ainsi, par le biais de leurs algorithmes, aucune différence entre des œuvres d’art et des selfies et autres clichés personnels de nus portés à la vue de tous.

    Les membres de l’Académie des beaux-arts, réunis en séance plénière hebdomadaire ce mercredi 16 février 2022, considèrent que les plateformes de diffusion ne sauraient s’arroger le droit de censurer la diffusion d’une œuvre d’art au seul motif que la représentation de celle-ci n’entre pas complètement dans les critères qu’elles ont établis.

    Cette situation ubuesque impose une réaction légitime de l’Académie des beaux-arts qui appelle à se poser la question de la liberté de la diffusion de l’information et des moyens à mettre en œuvre pour la protéger.

    #Censure #Médias_sociaux #Algorithmes

  • Au fait, pourquoi tu likes ?
    https://flint.media/posts/188-au-fait-pourquoi-tu-likes

    S’ils permettent de montrer notre assentiment ou de sauvegarder des éléments, les likes participent de ce qu’on appelle le “bruit” en ligne, l’une des causes du mal-être informationnel que l’on évoque depuis plusieurs semaines. Réfléchir à leurs impacts peut permettre d’adapter l’usage qu’on en fait.

    #RéseauxSociaux #EMI #Algorithme #Information