• Covid-19 : « Des biais amplifient artificiellement le nombre de cas positifs et faussent la perception de la gravité de l’épidémie »
    TRIBUNE, Didier Sicard, Médecin, Patrick Guérin, Vétérinaire
    https://www.lemonde.fr/idees/article/2020/11/07/covid-19-des-biais-amplifient-artificiellement-le-nombre-de-cas-positifs-et-

    Le dépistage des cas de Covid-19 sans évaluation de la charge infectieuse est un non-sens épidémiologique.

    Tribune. Les meilleures décisions lors d’une crise sanitaire sont fondées sur des données scientifiques solides pour être ensuite arbitrées politiquement. Or, si les décisions concernant la gestion de la crise du Covid-19 depuis mi-mars reposaient sur le nombre de personnes admises en réanimation et le nombre de décès liés à ce virus, les autorités sanitaires ont changé d’indicateur pour s’appuyer essentiellement sur le taux d’incidence.

    Cet indicateur, diffusé et commenté chaque soir par les médias, recense le nombre de personnes testées « positives » au Covid-19 rapporté à une population donnée (100 000 personnes testées).

    Simplisme excessif

    Pour déterminer ce taux, les autorités sanitaires s’appuient sur le test dit RT-PCR. https://www.lemonde.fr/les-decodeurs/article/2020/09/22/fonctionnement-fiabilite-alternatives-30-questions-sur-les-tests-pcr_6053146 De nombreux scientifiques, dont l’Ecole de santé publique de l’université Harvard, repris dans un article du New York Times du 29 août 2020 https://www.nytimes.com/2020/08/29/health/coronavirus-testing.html, ont mis en évidence ses limites, en raison du simplisme excessif de sa réponse – la personne est dite « positive » indépendamment de la charge virale (quantité de virus présent) et, par conséquent, de sa contagiosité.

    Or le coefficient d’amplification dit « CT », c’est-à-dire le chiffre à partir duquel apparaît la fluorescence, est essentiel. Plus le chiffre est bas, plus la charge virale est élevée, donc la contagiosité, et inversement.
    En effet, si la zoonose Covid-19 est due au virus SARS-CoV-2, l’inverse n’est pas vrai : la présence de fragments de SARS-CoV-2 dans les fosses nasales n’entraîne pas automatiquement la maladie, ni la contamination. Or, ce CT n’est pas harmonisé, variant de 20 à plus de 40, selon les laboratoires de biologie médicale et selon les pays, alors qu’il s’agit d’une politique de santé publique.

    Comme l’a signalé la Société française de microbiologie (SFM) le 25 septembre [à télécharger ici https://www.sfm-microbiologie.org/wp-content/uploads/2020/10/Avis-SFM-valeur-Ct-excrétion-virale-_-Version-Finale-07102020-V3., saisie pour avis par la direction générale de la santé et qui n’en a pas tenu compte ni ne l’a diffusé, cette hétérogénéité comporte un certain nombre de biais importants : elle identifie un fragment d’ARN et non un virus, a fortiori encore moins un « cas de Covid-19 » ; elle ne tient pas compte de la charge virale de la personne, donc de sa contagiosité ; la rémanence des fragments d’ARN, donc la positivité, peut être longue ; au-delà d’un nombre de cycles d’amplification supérieur à 33, il s’agit d’un « cas positif faible » ; l’interprétation du résultat doit prendre en compte les signes cliniques par un médecin, ce qui n’est quasiment jamais le cas.

    Communication anxiogène

    Ces biais ont conduit la SFM à indiquer dans son avis rendu à la direction générale de la santé qu’un « portage prolongé de l’ARN viral est possible après la phase de guérison et a été rapporté jusqu’à plus de soixante jours après le début des signes cliniques. La détection d’ARN viral par RT-PCR ne signifie pas forcément qu’il y a des particules virales infectieuses dans les échantillons biologiques » . Dit autrement, des personnes ont été confinées par milliers inutilement, alors qu’elles n’étaient plus contagieuses, et ce pour un coût exorbitant pour les finances publiques et l’activité économique.
    Dès le 25 septembre, une analyse menée sur les résultats positifs d’un laboratoire du Morbihan avait confirmé ces biais en montrant que, sur 786 échantillons de « cas testés positifs », un sur trois était « positif faible ». L’estimation de la réussite de la mise en culture des prélèvements, c’est-à-dire du risque infectieux de la personne testée « positive », était en outre inférieure à 45 %.

    Ces biais, connus depuis le mois d’août, ne sont pas pris en compte par les autorités sanitaires pour pouvoir interpréter tous les indicateurs dérivés du test RT-PCR, tels que le taux d’incidence communiqué chaque jour, ou le « R zéro » (nombre moyen de personnes qu’une personne contagieuse peut infecter) pourtant crucial afin de mesurer l’intensité d’une épidémie, ou encore le « contact tracing » [ processus d’identification des personnes ] et son efficacité pour lequel sont mobilisées plus de 4 000 personnes.

    Ces biais amplifient artificiellement le nombre de cas « étiquetés positifs Covid-19 », et faussent la perception de la gravité de l’épidémie et sa persistance, à travers une communication anxiogène. L’Espagne n’a d’ailleurs pas hésité à sauter le pas en réduisant le nombre de cycles d’amplification (CT) des tests RT-PCR, conduisant à une division des « cas positifs » de 50 % en une journée. L’Allemagne s’interroge aussi, en multipliant de nouveaux moyens de prélèvement pour standardiser en aval les mesures de charge virale.

    4 milliards d’euros

    La connaissance et la correction de ces biais sont essentielles si l’on veut piloter et décider de mesures de restrictions des libertés publiques proportionnées à l’ampleur de la crise et les faire accepter par la population. Les personnes testées « positives » doivent en outre être informées du « vrai » risque qu’elles encourent. C’est une exigence législative (loi du 4 mars 2002).

    De nombreux scientifiques avaient appelé le gouvernement à revoir la politique de tests pour la rendre plus efficace – la Sécurité sociale y consacre plus de 4 milliards d’euros en année pleine – en ciblant les personnes prioritaires, et accélérer l’obtention des résultats.

    Cette efficacité ne sera pas au rendez-vous tant que les tests RT-PCR ne seront pas standardisés au niveau national. Il est impératif que l’avis de la SFM soit appliqué dès à présent par les laboratoires de biologie médicale afin que la politique de santé publique de tests RT-PCR soit harmonisée. Il en va des intérêts sanitaires, économiques et financiers de la France

    Cette standardisation, le partage des résultats, la quantification virale des eaux usées permettraient l’analyse commune et les comparaisons entre territoires, puis éventuellement entre pays, tout comme une appréciation des risques réels de l’épidémie par les pouvoirs publics et la population.

    Patrick Guérin est le président d’OpenHealth Company ; Didier Sicard est l’ancien président du Comité consultatif national d’éthique (CCNE) pour les sciences de la vie et de la santé.

    #covid-19 #tests_RT-PCR #charge_infectieuse #eaux_usées

    • Oui, bien sûr.


      Et il faudrait y ajouter, les décès, les covid longs et les effets indirects invalidants ou mortels de la saturation du sytème de santé ("pertes de chance").
      Mais quand même, la batterie de moyens utilisables oblige à prendre en compte les difficultés posées par chacun d’entre-eux, tests PCR inclus. Ce qui est gênant dans l’article c’est le plaidoyer pour une vérification de la positivité au covid par examen clinique. On sait que ça suffit pas dans tous les cas. Mais chercher à comprendre ce qu’il en est de la charge infectieuse (ou de l’effet dose, par exemple), ou rappeler que le suivi des eaux usées (dont je ne vois d’écho qu’à propos de Marseille, ce qui parait incroyable) permettrait une autre approche du #taux_de_prévalence du virus

    • À lire en triant quelques commentaires sur la page d’origine, il était sans doute pas nécessaire de relayer cette tribune. Le journal offre un lot de consolation au réseau Mucchielli dont il n’avait pas publié la tribune avec un papier qui se pare de scientificité. Décidément, je ne suis pas vétérinaire. @kassem @vazi @die_brucke

      • Je suis franchement étonné du manque de connaissances scientifiques affiché par ces 2 auteurs, qui auraient du prendre la peine de faire relire leur texte par quelqu’un d’éduqué. 1/ le Ct n’est pas le coefficient d’amplification mais le nombre de cycles à partir duquel le signal devient supérieur au bruit de fond ("threshold cycle" = cycle seuil) ; 2/ Personne ne connait la relation exacte entre valeur du Ct et charge virale négligeable (ce que les auteurs disent eux mêmes), donc ou plasser le curseur pour les autorités de santé publique ? 3/ La solution proposée par les auteurs conduit à ce que des personnes venant juste d’être infectées et ayant donc encore une charge virale faible soient déclarées négatives alors qu’elles seront positives quelques jours plus tard, d’ou retard à la détection. Je n’ose même pas imaginer que ces auteurs ont ou aient eu des responsabilites décisionnelles touchant à la politique de santé publique en France.

      • Raisonnement pas faux sur le plan technique, mais totalement inadapté à la situation actuelle de gestion de l’épidémie. C’est la problématique bien classique en médecine du seuil diagnostique : plus on baisse le curseur moins on a de #faux_positifs, mais plus on a de #faux_négatifs. Débat classique en médecine depuis de nombreuses années par exemple dans la gestion de l’HTA, du diabète ou de l’hypercholestérolémie.
      A l’échelon individuel, un faux positif est ennuyeux pour le patient car on va isoler pour 7 à 10 j quelqu’un qui probablement pas contagieux. Par contre au niveau collectivité, un faux négatif est nettement dangereux car on va rassurer faussement et laisser se balader dans la nature quelqu’un qui est contagieux.

      • ...peu importe la méthode de détection tant qu’elle est constante : l’Espagne a vu ses cas divisés par deux dans les chiffres, mais l’épidémie n’a pas régressé pour autant, donnant à tort le sentiment d’une amélioration. Enfin, les auteurs recommandent de se baser sur le nombre de personnes hospitalisées ou admises en réanimation, sans préciser que ces indicateurs ont tout simplement 3 semaines de retard sur le taux de contamination. On ne peut pas se permettre 3 semaines de latence pour réagir. Bref, c’est un peu d’eau au moulin des complotistes et autres réfractaires, sans intérêt pratique pour les autres.

      • Un vétérinaire qui via sa socéité Open Health collecte analyse et vend des données de santé associé à un médecin de 82 ans qui a l’air à peu près dans le même état de clairvoyance scientifique que Luc Montanier (voir l’entrevue de #Didier_Sicart du 20 Juin sur public-sénat, bcp de délire !) tout ça pour nous raconter des choses évidentes que n’importe quel étudiant en thèse faisant de la PCR en routine peut expliquer à tout le monde. Tout ceci a déja été exposé sur un post précédent. La #charge_virale c’est le dénombrement des virus vivants ; détermination longue, très coûteuse car nécessitant du personnel et des locaux appropriés pour la culture cellulaire. Dans tous les cas cela dépendra toujours de la qualité du prélèvement et du moment où il est fait.

      #Patrick_Guérin est un des signataires de la tribune initiée en septembre par le sociologue #Laurent_Mucchielli, publiée par le Parisien, et qui prétendait qu’il n’y avait pas de deuxième vague.

      • Si on s’était retrouvé avec une augmentation exponentielle des cas sans saturation des hôpitaux, cette tribune aurait pu être une contribution utile. Hélas l’explosion des cas que l’on a mesurée (exacte ou pas) a bel et bien conduit à la saturation des hôpitaux au moment qu’avait indiqué l’institut Pasteur dès la fin Août. Le thermomètre est donc suffisamment précis. Mais nos gouvernements n’ont pas voulu le voir.

  • « L’élection américaine de 2020 montre une radicalisation des antinomies dans les têtes et dans les lieux »
    https://www.lemonde.fr/idees/article/2020/11/07/l-election-americaine-de-2020-montre-une-radicalisation-des-antinomies-dans-

    Le géographe Jacques Lévy et une équipe de chercheurs de l’université polytechnique Hauts-de-France ont analysé les résultats de l’élection présidentielle à partir des données des 3 143 comtés américains. Leur travail démontre une opposition de plus en plus frontale entre deux Amériques.

    Les cartes présentées ici sont doublement spécifiques. D’abord, elles ont été réalisées sur les données des 3 143 comtés (ou équivalents) des Etats-Unis. Cela permet de saisir la diversité des situations locales. Ensuite, à côté de la carte euclidienne classique (qui apparaît en petit format), le cartogramme, sur lequel chaque comté a une surface proportionnelle à sa population, permet d’attribuer leur poids réel à tous les électeurs et de donner ainsi sa place au monde urbain, peu visible sur les cartes classiques.

    Le paysage qui apparaît alors est spectaculaire. Cette géographie expose deux mondes que tout sépare et qui se trouvent, plus encore qu’en 2016, face à face. Le phénomène est comparable à ce qu’on observe en Europe, mais avec encore plus de netteté. Aux Etats-Unis, depuis 2000, les différences de localisation entre grandes et petites villes et entre centre, banlieue (suburbs), périurbain (exurbs) et campagne − ce qui est appelé « gradients d’urbanité » − jouent un rôle croissant dans la distribution des votes entre républicains et démocrates.

    les cartes annoncées sont au-delà du #paywall :-(

    • Il ne faut donc pas attribuer cette évolution à la seule personnalité de Donald Trump. La force de son « système », c’est d’avoir pu, encore mieux que d’autres, par sa posture et sa rhétorique, redéfinir l’électorat républicain dans un sens identitaire, en fédérant la droite conservatrice et ceux qui ne voient dans le monde d’aujourd’hui qu’une menace radicale à leur existence.

      Radicalisation des antinomies

      Or cette évolution, c’est la géographie des habitants qui l’exprime le plus simplement et le plus fortement. Tout laisse penser, des deux côtés de l’Atlantique, qu’habiter en ville constitue un choix de vie majeur qui en dit long sur ce que l’on est et ce que l’on veut. Dans l’élection de 2020, la couleur politique d’un Etat dans son ensemble dépend, pour l’essentiel, de la présence et du poids en son sein d’une ou de plusieurs métropoles.

      Même dans les Etats « rouges » (traditionnellement acquis aux républicains), les grandes villes donnent des majorités nettes aux démocrates. Ainsi, au Texas, Houston, Dallas, Austin et San Antonio ont rejeté Trump. Dans les cinq Etats du cœur du « Sud profond », qui semblait, vu de loin, une grande tache rouge uniforme sur la carte, les plus grandes villes, Atlanta (Géorgie), La Nouvelle-Orléans (Louisiane), Birmingham (Alabama), Charleston (Caroline du Sud) et Jackson (Mississippi) ont voté Biden. C’est clairement l’agglomération d’Atlanta, avec des scores impressionnants en faveur de Biden, qui compte dans la dynamique politique de la Géorgie.

      Les voix démocrates sont particulièrement nombreuses dans les centres et les banlieues des mégalopoles de la Côte est (New York, Boston, Philadelphie, Baltimore et Washington) et de la Côte ouest (Los Angeles, San Francisco, Seattle, Portland et San Diego) ainsi qu’à Chicago, avec souvent des scores de 80 % pour Biden, le record revenant à Washington et ses 93 %.
      C’est l’inverse dans les Rocheuses, vides de villes et à l’écart des grands flux (Idaho, Wyoming, Dakota du Nord et du Sud), ou dans la partie des Appalaches marquée par le charbon. Comme on le voit dans la tentation de la violence civile, qui n’a jamais été aussi évidente entre ces deux morceaux de la société américaine, l’élection de 2020 montre une radicalisation des antinomies, dans les têtes et dans les lieux.

      Une Amérique « bleue » qui bouge

      Cette nouvelle géographie, qui se conforte d’élection en élection, affaiblit les anciennes divisions régionales : les fiefs républicains de la moitié sud du pays s’effritent, tandis que l’emprise des démocrates sur les espaces industriels des Grands Lacs poursuit son affaissement.

      Comme on le constate depuis 2000, la carte électorale des Etats-Unis se résume de plus en plus à un couple très contrasté. D’un côté, une nappe territoriale républicaine, peu dense mais continue, qui englobe les franges des aires urbaines ( suburbs périphériques et exurbs ), les petites villes et les campagnes : aucun des 55 comtés de Virginie-Occidentale ou des 77 comtés de l’Oklahoma n’a majoritairement voté pour Biden. De l’autre, le réseau démocrate constitué d’une centaine de métropoles, reliées par les fils multiples des intenses circulations d’humains, d’objets et d’idées.

      L’Amérique « bleue » est celle qui bouge, dans les deux sens du terme : on y définit son identité dans le mouvement environnant, mais aussi dans le changement de soi, par l’acquisition permanente de nouvelles capacités personnelles. Au contraire, l’électorat de Trump cherche à résister au tourbillon du monde en défendant pied à pied des acquis menacés.

      Angoisse et ressentiment

      Cette opposition entre « capital de flux », toujours remis en question, et « capital de stock », stable dans le temps, met à mal les appartenances communautaires qui organisent traditionnellement la sociologie politique aux Etats-Unis : si les Afro-Américains continuent de voter massivement démocrate, pour les autres catégories ethniques, le sexe, l’âge et le niveau d’études complexifient le tableau. Trump obtient de très bons résultats parmi les ouvriers des bassins industriels en crise mais, les sondages le confirment, ce sont les personnes aisées qui le soutiennent le plus nettement.

      Surtout, les différences géographiques par gradient d’urbanité deviennent absolument centrales, car elles sont en phase avec des oppositions, en partie choisies, entre les modes de vie et entre les imaginaires. En comparaison de l’adhésion traditionnelle au Parti républicain, Trump représente ce basculement vers une psychopolitique faite d’angoisse et de ressentiment.

      Même si des changements peuvent être observés, la carte de 2020 ressemble beaucoup à celle de 2016 − et ce, malgré le fait qu’il y a eu vingt millions de votants en plus. Que cette impressionnante mobilisation des deux camps ne fasse que renforcer la coupure brutale du pays en deux parties mutuellement hostiles laisse prévoir que les mésententes américaines sur la manière de faire société vont durer. Les citoyens des Etats-Unis et d’ailleurs devront d’abord prendre la mesure de ces clivages profonds, s’ils veulent espérer les dépasser.

      Jacques Lévy, Sébastien Piantoni, Ana Povoas et Justine Richelle sont chercheurs au sein de la chaire Intelligence spatiale de l’université polytechnique Hauts-de-France.

      #USA #ville

  • Vie en ligne : « Il n’est pas normal que tout site Web avec une nouvelle idée se trouve à la merci de Google Search »
    https://www.lemonde.fr/idees/article/2020/11/07/vie-en-ligne-il-n-est-pas-normal-que-tout-site-web-avec-une-nouvelle-idee-se

    Le professeur de communication Charles Cuvelliez et le cryptographe Jean-Jacques Quisquater expliquent, dans une tribune au « Monde », comment Google est parvenu à protéger de toute concurrence son moteur de recherche.

    Tribune. Dans son combat contre les GAFA (Google, Apple, Facebook, Amazon), le ministère américain de la justice a décidé de cibler Google Search, le moteur de recherche de la firme de Mountain View. Le rapport de la commission antitrust du Congrès américain lui en donne les clés, à savoir pourquoi aucun concurrent à Google ne verra jamais le jour sans un coup de pouce réglementaire ?

    La commission distingue deux types de moteurs de recherche : horizontaux et verticaux.

    Les premiers ont une vocation généraliste.

    Les seconds sont spécialisés : ils ne cherchent que dans une catégorie donnée de contenu, comme des images (Dreamstime), le transport aérien et les voyages (Expedia). Les moteurs de recherche monétisent leur service par le placement de publicité. Ils ne facturent pas l’utilisateur. Google est leader sur les moteurs horizontaux, avec 81 % de parts de marché sur les ordinateurs et 91 % sur les mobiles. Bing, le moteur de Microsoft, n’a que 6 % de parts de marché, Yahoo 3 % et Duckduckgo 1 % aux Etats-Unis.

    Le fonctionnement d’un moteur de recherche comprend trois activités distinctes.

    Il y a d’abord le crawl : parcourir Internet avec un robot pour collecter une copie de toutes les pages Web qu’il peut trouver. Puis ce matériel est indexé et organisé en une carte géante consultable en temps réel. Enfin vient l’indexation qui consiste à organiser l’information dans un format adéquat et dans des bases de données pour la dernière étape : la réponse aux requêtes des utilisateurs, de manière pertinente. Ces dernières ne sont que la pointe visible de l’iceberg.
    Article réservé à nos abonnés Lire aussi Concurrence : « Ni Apple ni Google n’avaient besoin de ces comportements prédateurs »

    L’indexation a un coût plus élevé et exige une infrastructure importante. C’est tout Internet ou quasiment qui s’y retrouve. Google a été le premier à l’indexer en entier. Son algorithme, PageRank, le lui impose : plus il cherche, plus les résultats sont adaptés. PageRank part du principe que les liens dans une page Web vers un autre site Web sont le meilleur critère pour détecter le contenu le plus pertinent.

    Retour de la pertinence

    Qui mieux que celui qui a conçu le site A et y a placé des liens vers le site B peut identifier que le site B a le contenu en adéquation par rapport à ce qu’il annonce sur son propre site ? C’est bien plus efficace que de répertorier indépendamment le site A et le site B et de les indexer. Google Search a donc intérêt à naviguer toujours plus dans tout Internet en suivant les renvois de site en site.

    Jusqu’ici, rien de grave : c’est l’avantage du premier arrivé sur le marché avec une innovation. Mais les grands sites Web ne se laissent plus indexer par n’importe qui. Se faire palper par trop de robots, c’est du trafic inutile, sauf si c’est celui de Google que tout le monde consulte. Bonne chance alors à un nouveau venu avec son moteur de recherche et ses robots, qui seront bloqués !

    C’est à un point tel que Yahoo et Duckduckgo sont obligés d’acheter un accès à l’index de Google. Seuls Bing, le moteur de recherche de Microsoft, a aussi l’index de tout Internet (mais sa taille est trois à cinq fois moins grande).

    Un second avantage concurrentiel irrattrapable par la concurrence, c’est la manière dont les usagers réagissent à la présentation des résultats de Google Search, sur quels liens ils ont cliqué. C’est un précieux retour de la pertinence des résultats présentés par Google. Il l’utilise ensuite dans son algorithme. C’est encore plus vrai pour les requêtes les plus rares. Savoir que ce lien-là est pertinent pour cette recherche si particulière et y laisser s’engouffrer PageRank pour collecter de là encore plus de contenu spécialisé, voilà un autre secret de la performance de Google.
    Google paie Apple

    Un troisième avantage concurrentiel est le placement par défaut du moteur de recherche de Google, tant dans Android que chez Apple !

    Pour le premier, c’est une condition pour placer les autres outils de Google si prisés (Gmail, Youtube).

    Quant à Apple, Google lui paie 12 milliards de dollars (environ 10,15 milliards d’euros) pour qu’il soit le moteur de recherche par défaut, une preuve s’il en est de l’avantage stratégique d’être pré-installé. Apple a accéléré le développement de son propre moteur de recherche pour n’être pas emporté dans la tourmente des poursuites du ministère américain de la justice.

    Google Chrome, le navigateur, propose bien évidemment Google Search par défaut. Ce dernier incite en plus l’utilisateur à installer Google Chrome. Il a 51 % de parts de marché. Safari, le navigateur d’Apple, aussi avec Google Search par défaut, occupe 31 % de parts de marché. Il ne reste plus grand-chose.

    Le quatrième défi qui se poserait aux audacieux concurrents de Google Search concerne les petits plus que ce dernier offre désormais à la présentation des résultats. Ce sont les cartes qui sont proposées quand on tape une adresse, la présentation de la fréquentation du magasin qu’on cherchait, les images, un cadre explicatif sur la droite de l’écran à propos d’une ville, de l’organisme qu’on recherche, les réponses rapides à des questions pratiques sans devoir cliquer sur rien (une perte de trafic pour le site dont le contenu a été emprunté à cet effet) : un nouvel entrant aurait du pain sur la planche pour répéter tout cela.

    Pénalité

    Comme l’a montré la commission antitrust du Congrès américain, le salut ne viendra pas des moteurs de recherche verticaux. Ils ont besoin d’un accès à des données et à des ressources spécialisées, comme les données de vols pour les sites de réservation de voyages ou de billets d’avion. Les moteurs de recherche basés sur des recommandations ont, eux, besoin des interactions des usagers. En revanche, ils ne doivent pas indexer le Web. Mais ces moteurs doivent attirer des utilisateurs qui les trouvent par… Google Search.

    Ces moteurs de recherche verticaux ont avoué à la commission dépendre de Google pour 80 % à 95 % de leur trafic. Yelp, spécialisé dans la recherche locale, avait vu son contenu aspiré par Google pour son nouveau service vertical « Google Local ». Yelp a demandé à Google de retirer son contenu, mais Google lui a répondu que le seul moyen était de délister Yelp.

    Des documents ont prouvé que Google ajustait son algorithme de recherche de façon à privilégier ses propres services verticaux qu’il a commencé à développer dès 2005. Il avait identifié que la relation à long terme que ces sites pouvaient créer avec les utilisateurs allait le priver de trafic sur le long terme, même si sur le court terme, c’était l’inverse.

    L’algorithme de Google impose même une pénalité aux sites dits « de mauvaise qualité », comme, par hasard, le site de Kelkoo. Comme le disait un témoin, il n’est pas normal que tout nouveau site Web avec une nouvelle idée qui aurait réussi aux premiers temps d’Internet se trouve à la merci de Google Search qui peut le délister sous un quelconque prétexte et le copier sans même chercher à atteindre la même qualité. La moitié des clicks dans Google Search atterrirait sur des sites de… Google.

    Charles Cuvelliez (Professeur à l’Ecole polytechnique de l’université libre de Bruxelles) et Jean-Jacques Quisquater (Professeur à l’Ecole polytechnique de Louvain, université de Louvain et au Massachusetts Institute of Technology)

    #Apple #Google #Microsoft #Altaba/Yahoo ! #DoJ #DuckDuckGo #Bing #Expedia #Gmail #GoogleSearch #Kelkoo #Yelp #YouTube #Android #Chrome #PageRank #Safari #domination #algorithme (...)

    ##Altaba/Yahoo_ ! ##bot

  • Forte mobilisation contre le projet de loi réprimant la diffusion d’images de violences policières
    https://www.bastamag.net/Mobilisation-massive-proposition-loi-Fauvergue-Securite-globale-repression

    L’article 24 de la proposition de loi « relative à la sécurité globale » sanctionne d’un an de prison et de 45 000 euros d’amende la diffusion d’images relative aux pratiques policières. Face à cette mesure considérée comme « une atteinte inédite au droit d’informer », plus de 560 000 personnes ont d’ores et déjà signé une pétition. Le 17 novembre, l’Assemblée nationale doit étudier la proposition de loi dite de « Sécurité globale » (#PPLSecuriteGlobale). Ce texte, montagne de mesures liberticides, précise (...)

    #journalisme #police #législation #violence #surveillance #vidéo-surveillance #activisme

    • La France, pays de la déclaration des droits de l’homme, transformée en État policier par la macronie.

      C’est inacceptable.

      Compte-rendu de l’adoption de la loi #sécuritéglobale hier par la commission des lois de l’Assemblée nationale.

      Immersion dans les méthodes législatives propres aux États policiers.
      https://www.laquadrature.net/2020/11/06/securite-globale-la-police-fait-la-loi

      La loi « sécurité globale » a été adoptée hier en commission des lois de l’Assemblée nationale (relire notre première analyse de la loi). Un premier constat s’impose aux personnes qui ont suivi l’examen du texte : une ambiance singulière, lugubre et fuyante. Un silence de plomb rompu seulement par divers éclats de rires du groupe LREM, incongrus et parfaitement indécents compte tenu de la gravité du texte examiné. Certains diront qu’il faut écrire la loi d’une main tremblante. Alors tremblons...

    • Le RAID dans l’Assemblée

      Cette loi illustre la méthode législative propre aux États policiers : la police écrit elle-même les règles qui définissent ses pouvoirs.

      D’abord, littéralement, l’auteur principal du texte, Jean‑Michel Fauvergue (LREM), est l’ancien chef du RAID, de 2013 à 2017. Il est l’un des deux rapporteurs du texte. À travers lui et, depuis son pupitre en commission des lois, la police a pu imposer son autorité.

      Quand la députée Danièle Obono (LFI) s’inquiète pour nos libertés fondamentales, Fauvergue lui reproche de « déverser [son] fiel sur la société française » – car, comprenez-vous, critiquer la police, c’est critiquer « la France ». Voyant Obono insister, il lui intime même : « Allez prendre vos gouttes ! ». Sans doute voit-il le « débat parlementaire »a comme un champ de bataille où il est exclu de négocier avec l’ennemi, tout en se permettant de reprocher à Obono de « voir la société de façon binaire entre les « gentils » et les « méchants » ».

      Pensées interdites

      Cette négociation impossible s’est aussi traduite dans l’attitude de l’autre rapporteure du texte, Alice Thourot. Chaque fois qu’un amendement proposait de limiter ne serait-ce qu’un tant soit peu les nouveaux pouvoirs de la police, elle restait cloîtrée dans une unique et lancinante réponse, se résumant à : « Cette disposition a été demandée par la police, il faut l’adopter telle quelle ».

      Elle n’est sortie de ce mutisme intellectuel que pour demander aux députés d’arrêter d’envisager des hypothèses où la police abuserait de ses nouveaux pouvoirs, car de telles pensées seraient insultantes pour la police. Entre ces « crimepensées » et le slogan choisi par Thourot pour cette loi, « protéger ceux qui nous protègent », 1984 est à l’honneur.

    • https://linsoumission.fr/2020/11/06/exclusif-interdiction-de-filmer-les-policiers-entretien-avec-le-depute

      « Il s’agit bien de la banalisation d’une surveillance de masse aérienne dont la précision est chirurgicale. »

      La proposition de loi renforce le statut des agents de sécurité privée, le rapprochant petit à petit de celui d’un agent de l’Etat. Sous couvert de vouloir renforcer la protection de ces agents privés, les députés marcheurs pensent qu’on oublie que le secteurs de la sécurité est très attractif, au détriment de la police nationale et municipale notamment. La crise de vocation et de fidélisation des policiers et gendarmes passe aussi par une capacité du privé à capter les effectifs. En cherchant à aligner le statut et les protections le texte anticipe même la possibilité d’empiéter sur des périmètres directement publics. C’est ce qui est explicitement dit dans l’exposé des motifs, quand ils évoquent la participation aux évènements de la Coupe du monde de rugby 2023 et les Jeux olympiques 2024. Il faut bien avoir conscience que la participation à de tels événements de la sécurité privée, conduit à un partage d’information notamment sur l’anti-terrorisme, sur des contrôles d’identité aux abords des stades, des participations plus actives à des actions de police judiciaire, … De la coordination à la recherche d’efficacité, on oublie les missions remplies par l’État en terme de sécurité.

    • je me doute bien @colporteur que tu ne soutiens pas Le Monde ou la presse de régime des milliardaires. Mais comme tu es celui qui affiche, ici, le plus de liens vers le quotidien français « de référence » voire en caviardant des articles entier, saches que je n’ouvre jamais ce journal même en papier. Encore moins quand des fractions de la classe dominante s’opposent à des lois iniques. Surtout Le Monde qui a encensé macron lors de son sacre.