• Hypermarchés, la chute de l’empire

      Menacés par les géants du numérique et de nouveaux usages, les acteurs historiques de la grande distribution luttent sans merci pour assurer la pérennité de leur modèle. Une enquête fouillée, menée par le journaliste d’investigation Rémi Delescluse.

      Le modèle de l’hypermarché a-t-il fait son temps ? Ce concept révolutionnaire du « tout sous le même toit », popularisé en 1963 par Carrefour, a conquis le monde entier. Aujourd’hui pourtant, le pionnier français, comme ses concurrents, a un genou à terre. En cause notamment, la crise du gigantisme, associé à une déshumanisation du commerce et à la surconsommation, pointée du doigt à l’heure des grands défis écologiques. Selon les experts, la toute-puissance de certains groupes serait menacée d’ici dix ans. Désormais, tout le secteur cherche à sauver ce qui peut l’être, quitte à verser dans des pratiques à la limite de la légalité. Pour obtenir des prix toujours plus bas, sans lesquels elles seraient désertées, les grandes enseignes mettent les fournisseurs sous pression au cours de renégociations annuelles réputées difficiles : entretiens dans des box minuscules à la température trafiquée, chaises bancales sabotées pour l’inconfort, discriminations sexistes, violence verbale... Comme le formule le directeur d’un grand groupe, dont les propos sont rapportés dans le documentaire, « ce qui est important, c’est de briser les jambes des fournisseurs. Une fois au sol, on commence à négocier ». Sans compter les contrats qui gardent captifs les franchisés ou les nouvelles alliances européennes de centrales d’achats, particulièrement opaques, qui facturent aux fournisseurs des services qualifiés par certains de « fictifs ».

      La loi du plus fort
      La peur de disparaître pousse les grandes enseignes à toujours plus d’agressivité. Dans leur ligne de mire, les plates-formes d’e-commerce, qui pourraient bientôt précipiter leur ruine. Trois ans à peine après avoir racheté pour 13 milliards de dollars Whole Foods, Amazon a déjà lancé sa propre enseigne, Amazon Fresh : des magasins dans lesquels les Caddies connectés améliorent l’expérience de clients fidélisés par abonnement et dont les moindres données sont collectées. Plongeant au cœur des sombres pratiques de la grande distribution, le documentaire de Rémi Delescluse propose un état des lieux mondial du secteur, soumis à la loi du plus fort, et s’interroge sur son futur. Certains prédisent la domination prochaine des nouveaux venus, de l’approvisionnement à la distribution, comme c’est le cas en Chine. En France, Amazon détient déjà 10 % du marché des produits de grande consommation…

      https://www.arte.tv/fr/videos/095178-000-A/hypermarches-la-chute-de-l-empire
      signalé ici aussi:
      https://seenthis.net/messages/933247

    • À Verrières-en-Anjou, juste à la sortie d’Angers, les plateformes logistiques poussent comme des champignons en automne. Et ce n’est pas fini. Après la plateforme géante d’Action et celle d’InVivo (Jardiland, Gamm Vert, Delbard…), à qui le tour ?

      Afin de répondre aux demandes des entreprises, et pas seulement celles de logistique, Angers Loire Métropole a besoin de très grands terrains. Pour créer un nouveau parc d’activités, l’Agglomération a jeté son dévolu sur ceux qui se trouvent au sud de Saint-Sylvain-d’Anjou, dans un triangle dessiné par l’autoroute A 11 et les départementales 323 et 115. Son nom : « Nouvelle Océane ».

      Le périmètre d’étude porte sur 125 ha, mais le chiffre définitif, qui sera connu l’an prochain, devrait passer sous la barre des 100 ha.

      Ça fait encore beaucoup. Plusieurs agriculteurs et habitants qui travaillent et vivent dans ce périmètre sont très directement concernés par la concertation préalable qui a débuté, et au terme de laquelle sera défini le périmètre précis de la zone d’aménagement concerté. Des terres agricoles et des maisons sont en effet condamnées à disparaître.
      Plusieurs projets « sous compromis »

      Une première permanence est prévue le mardi 23 novembre de 15 heures à 18 heures à la mairie de Verrières. Des techniciens d’Alter Public, l’entreprise publique locale chargée de mener à bien le projet, seront présents...
      Près d’Angers. Près de 100 hectares pris à l’agriculture pour accueillir des entreprises

      https://www.ouest-france.fr/pays-de-la-loire/angers-49000/pres-d-angers-pres-de-100-ha-pris-a-l-agriculture-pour-accueillir-des-e #paywall

  • Climate pledges built on flawed emissions data, Post investigation finds - Washington Post
    https://www.washingtonpost.com/climate-environment/interactive/2021/greenhouse-gas-emissions-pledges-data
    https://www.washingtonpost.com/wp-apps/imrs.php?src=https://arc-anglerfish-washpost-prod-washpost.s3.amazonaws.com/public/5TMU3JB4AQI6ZPLP3I3W6RZQJY.jpg&w=1200

    Across the world, many countries underreport their greenhouse gas emissions in their reports to the United Nations, a Washington Post investigation has found. An examination of 196 country reports reveals a giant gap between what nations declare their emissions to be vs. the greenhouse gases they are sending into the atmosphere. The gap ranges from at least 8.5 billion to as high as 13.3 billion tons a year of underreported emissions — big enough to move the needle on how much the Earth will warm.

    The plan to save the world from the worst of climate change is built on data. But the data the world is relying on is inaccurate.

    #data #falsification #données #GES

  • Milos Popovic/Милош Поповић sur Twitter :

    “My new map shows the % of female researchers in #Europe, according to #UNESCO data. Link to the data source is in the map just below the legend. 👩‍🔬 #women #science #womenintech #stats #maps #dataviz #DataScience” / Twitter

    https://mobile.twitter.com/milos_agathon/status/1456969757299822595

    #données #femmes

  • Les #GSM des victimes permettront de débusquer les trafiquants d’êtres humains

    Une nouvelle équipe de police va se pencher systématiquement sur le contenu des téléphones portables des victimes de #trafic_d'êtres_humains, rapportent jeudi Het Laatste Nieuws et De Morgen.

    « Lorsque des victimes de la traite d’êtres humains sont prises en charge, leur GSM n’est souvent pas exploité, alors que c’est pourtant une source importante d’information », selon le ministre de la Justice Vincent Van Quickenborne (Open VLD). Ces données peuvent en effet permettre de mettre au jour les réseaux criminels. « Dorénavant, la police va procéder à une #lecture_systématique des GSM concernés, de sorte à avoir une meilleure idée de ces organisations criminelles », poursuit-il.

    Une nouvelle équipe de police en Flandre-Occidentale, baptisée #Transit_Team, pour #Transmigration_Intelligence_Team, y est dédiée. Huit personnes sont spécialisées, dont des enquêteurs, des analystes stratégiques et des analystes criminologues. Ils sont aussi appuyés par un collaborateur des services de l’immigration et d’un expert d’#Europol, chargé de l’#échange_international_des_données.

    Si la victime refuse, une saisie peut être ordonnée

    Quand des transmigrants sont interceptés à la côte belge, et suspectés d’être des victimes de trafiquants, la nouvelle équipe policière est habilitée à consulter le GSM de chacun d’entre eux. Ces personnes récupèrent leur téléphone portable car c’est le seul moyen de communication avec leurs proches. Les victimes peuvent refuser de collaborer avec la police, mais un officier de la police judiciaire ou le parquet peuvent alors ordonner la saisie de leur portable.

    Cette nouvelle équipe a déjà été à l’œuvre avec les appareils des 24 migrants qui ont été secourus mercredi à Zeebruges.

    https://www.7sur7.be/belgique/les-gsm-des-victimes-permettront-de-debusquer-les-trafiquants-d-etres-humains~
    #surveillance #téléphone_portable #smartphone
    #données #Belgique

    ping @etraces @karine4 @isskein

  • Quelles sont ces nouvelles technologies qui se cachent derrière la 5G ? (Et demain, la 6G) La Tribune, Serge Abiteboul et Gérard Berry
    https://www.latribune.fr/opinions/tribunes/quelles-sont-ces-nouvelles-technologies-qui-se-cachent-derriere-la-5g-8949

    La 5G est en cours de déploiement, revenons sur ce qui la différencie des générations de télécommunications précédentes.

    On peut transmettre des messages en utilisant des ondes électromagnétiques. Par exemple, un téléphone cellulaire échange des messages avec une station radio le plus souvent située en haut d’un pylône ou sur un toit. On utilise pour cela des ondes de différentes fréquences ; les plus basses se propagent plus loin, les plus hautes exigent de plus petites antennes ; les encore plus hautes sont très peu utilisées pour l’instant.

    Les premiers réseaux cellulaires étaient analogiques. Ils sont devenus numériques avec la 2G, qui a aussi introduit les SMS. Avec le nouveau millénaire, la 3G a fait entrer la téléphonie mobile dans le monde d’Internet. Avec des débits bien plus grands joints à l’explosion des smartphones, la 4G a apporté la vidéo en bonne définition.

    Tous les 10 ans environ, un nouveau standard et une nouvelle génération de téléphones cellulaires arrivent qui transforment les usages ; récemment, c’était la 5G.

    On assiste depuis l’arrivée de la 2G a une progression exponentielle des données transportées par le réseau, et une augmentation massive du nombre d’objets connectés (téléphone, télévision, télésurveillance, voitures connectées, etc). C’est permis par les avancées scientifiques et technologiques qui ont amélioré les « tuyaux » où circulent les données. De fait, les usages absorbent tout ce que la technologie propose. Il faut noter que la partie essentielle de cette connectivité vient de la fibre optique, dont nous ne parlerons pas.

    Les technologies de la téléphonie cellulaire ont apporté des solutions efficaces et abordables pour une couverture de service de communications globale, reliant des lieux éloignés, les zones rurales, les voies de transports routiers ou ferroviaires. En cela, elles participent à la réduction de la fracture numérique territoriale.

    La 5G amène une vraie disruption. On aimerait pointer une avancée scientifique à sa base, mais en fait elle repose sur toute une gamme d’innovations. Le monde du téléphone cellulaire est un monde de normes : il fonctionne parce que les opérateurs se mettent d’accord, dans un cadre qui s’appelle le 3GPP, sur des normes qui vont permettre, par exemple, à un paquet de bits de passer de votre téléphone au cœur de la Lozère, à l’ordinateur d’une amie dans son bureau à Rio. Ceci demande de regrouper tout un paquet d’avancées scientifiques et techniques avant de lancer une nouvelle norme. La 5G est donc plutôt comme un couteau multi-lames, où chaque lame est soit une techno venant de la 4G, mais améliorée, soit une nouvelle techno sortie des labos dans les dix dernières années.

    Les fonctionnalités de la 5G
    La 5G va permettre des améliorations techniques principalement dans quatre directions : le débit, la latence, la densité et la virtualisation.

    Un aspect très visible dans les communications cellulaires est la quantité d’information échangée dans une unité de temps : le débit. Si le débit est trop faible, je ne peux pas visionner un film, ou je ne le fais qu’avec une qualité très médiocre. Avec la 5G, on peut s’attendre à ce que « le débit de pic » soit jusqu’à 10 fois supérieur à celui de la 4G, quasiment celui d’une fibre optique ordinaire. En fait, les débits vont surtout augmenter grâce à de nouvelles fréquences que la téléphonie mobile va coloniser avec la 5G, qui sont des fréquences hautes entre 1GHz et 6 GHz et des fréquences encore plus hautes dites « millimétriques » au-dessus de 6 GHz.

    Mais ne rêvons pas : dans le cellulaire, on partage les fréquences entre les différents opérateurs, et pour chaque opérateur avec les gens autour de nous : le voisin qui regarde un match de rugby, la voisine qui passe sa soirée sur un jeu vidéo en réseau, etc. Donc que vont observer les utilisateurs que nous sommes ? Nous allons voir la situation s’améliorer dans les zones très denses où les réseaux cellulaires sont déjà saturés ou le seraient à court terme sans la 5G. Nous ne verrons pas vraiment de changement dans les zones peu denses déjà couvertes par la 4G, peut-être des téléchargements plus rapides de vidéos. Et si nous voyons une belle amélioration dans une zone blanche où il n’y avait quasiment rien, ce sera plus sûrement du fait de l’arrivée de réseaux 4G.

    La deuxième direction d’amélioration est la latence, c’est-à-dire le temps pour un aller-retour entre le téléphone et le serveur d’applications, qui se compte aujourd’hui en dizaines de millisecondes. Avec la 5G, on va mesurer la latence en millisecondes. Pour visionner un film, peu importe. Mais pour un jeu vidéo, pour de la réalité augmentée, pour réaliser à distance une opération chirurgicale, ça peut faire la différence entre possible ou impossible. Le but est que l’ensemble du système offre une réactivité beaucoup plus importante jointe à une garantie forte de transmission du message.

    La troisième dimension est la densité. On parle de communications de machines à machines et de services nécessitant un nombre massif d’objets à faible consommation énergétique et faibles débits (l’Internet des objets). Un des objectifs est de pouvoir gérer un million d’objets au kilomètre carré. Dans cette dimension, la 5G est en compétition avec des techniques dites 0G comme Sigfox et Lora. Traditionnellement, pour la communication des objets, on distinguait des objets bon marché, bas de gamme, qui utilisaient le 0G, et des objets plus exigeants en 4G. La 5G a la prétention de pouvoir couvrir toute la gamme avec un même standard.

    Attention, tout cela ne se fera pas en un jour. La 5G arrive par étapes, parce qu’il faut installer partout de nouveaux composants radio, mais aussi parce que, pour qu’elle fonctionne au mieux, il va falloir transformer les logiciels des "cœurs de réseaux".

    L’efficacité énergétique a été prise comme objectif depuis les débuts de la conception de la 5G. Une rupture avec les générations précédentes est annoncée. On vise une division par au moins dix du coût énergétique du gigaoctet transporté. Comme nous le verrons, cela n’empêche pas d’avoir des craintes légitimes sur l’effet de cette technologie sur l’environnement.

    Pour la sécurité informatique, le sujet est contrasté : elle est plus prise en compte que pour la 4G ce qui améliore les choses. Par contre, la surface des attaques possibles explose comme nous le verrons, en particulier à cause de l’extension des aspects logiciels des réseaux, ouvrant la porte à d’autres possibilités d’attaque. De fait, le contrôle de la sécurité se déplace du matériel au logiciel. De plus, cela conduit à réaliser une surveillance en temps réel pour détecter les attaques et être prêt à y remédier. L’utilisation de plus en plus massive de l’intelligence artificielle complique la tâche : d’une part, parce que les logiciels des réseaux s’appuyant sur cette technologie auront des comportements plus difficiles à prévoir, et d’autre part, parce que les attaquants eux-mêmes pourront s’appuyer sur l’IA. A contrario, les systèmes de détection d’attaque pourront eux aussi inclure de l’IA.

    Pour ce qui est des innovations scientifiques et techniques sur lesquelles se fonde la 5G, elles peuvent se regrouper en deux classes : radios et logicielles.

    Les innovations techniques logicielles
    La virtualisation
    Traditionnellement, les réseaux des télécoms s’appuient sur des machines dédiées : différents niveaux de routeurs, firewalls, etc. L’idée est de transporter cela sur des architectures logicielles comme celles des plates-formes du web. On parle donc de convergence entre systèmes informatiques et systèmes de communication. Mis à part les éléments purement électroniques de radio, dès qu’on passe en numérique, on se place sur un réseau de machines génériques (de calcul, de stockage, de connexion) capables de réaliser toutes les différentes fonctions de façon logicielle. Par exemple, plutôt que d’installer un routeur physique qui gère l’acheminement des messages pour un réseau virtuel, on déploiera un routeur virtuel sur un ordinateur générique du réseau, que l’on pourra configurer suivant les besoins. Pour ce qui est de la virtualisation des fonctionnalités véritablement radio, cette convergence est à relativiser, car, pour des questions de performances, on doit souvent utiliser des accélérations matérielles.

    Edge Computing
    Les services sont implantés aujourd’hui dans des data centers parfois très loin de leurs utilisateurs. Ce cloud computing induit des coûts de transport pour les messages et introduit une latence incompressible même si les communications sont hyper-rapides. L’idée est d’installer de petits data centers dans le réseau plus près des utilisations. Pour des applications, par exemple, de contrôle de machines ou de réalité augmentée, cela permet de gagner un temps précieux pour la détection d’événement et le contrôle.

    Network slicing
    Une limite actuelle de la technologie cellulaire est l’impossibilité de garantir la qualité du service. Le network slicing permet de réserver virtuellement une tranche de fréquences pour un service particulier, ou plus précisément d’offrir une certaine garantie de service. Dans certaines configurations ou pour certains usages ayant des exigences spécifiques, le service est en position de monopole et n’a donc pas à partager avec d’autres services. Quand on contrôle à distance une machine-outil de précision, on veut, par exemple, garantir un délai maximum de quelques millisecondes entre la commande exercée par le pilote et sa réception par la machine. Pour ce faire, on ne peut pas être en compétition avec d’autres services. En ondes millimétriques, le réseau concerné peut être de faible surface, par exemple, limité à un site industriel.

    Les innovations techniques radios
    Avec le « massive MIMO » (multiple input, multiple output), chaque antenne consiste en un grand nombre de petites antennes. Chaque petite antenne de la station focalise les ondes vers un utilisateur qu’elle suit. Plus précisément, des ondes émises par différents éléments de l’antenne se combinent intelligemment pour réaliser le rayon qui cible un utilisateur particulier. Cela évite l’arrosage très large de l’environnement que font les antennes classiques. C’est une techno plus complexe, mais qui permettra des économies d’énergie une fois bien maitrisée. Et on peut utiliser plusieurs antennes distantes pour une même communication, améliorant encore la focalisation.

    L’utilisation de fréquences plus élevées, les bandes millimétriques comme la 26 GHz envisagée en France. Cela permet d’augmenter les fréquences utilisables pour les communications et surtout d’arriver dans des bandes où les disponibilités de fréquences sont importantes. L’utilisation simultanée de différentes technologies et fréquences. Vous pouvez par exemple déjà téléphoner depuis chez vous en cellulaire ou en wifi (voix sur wifi). Votre téléphone doit choisir et le passage de l’un à l’autre est compliqué, et de nos jours très lent. Les futures générations de téléphones faciliteront de telles utilisations simultanées de plusieurs technos et fréquences afin d’améliorer les services, par exemple en évitant de tomber dans un "trou" lors du passage de l’une à l’autre.

    Le mode TDD (Time Division Duplexing)
    On partage de mêmes fréquences avec une répartition dans le temps des phases montantes (du téléphone vers la station) et descendantes (de la station au téléphone). Cela permet de ne pas choisir a priori un partage des fréquences entre le trafic montant et descendant. La meilleure utilisation des fréquences est un élément clé de l’utilisation des réseaux cellulaires, car c’est une ressource rare à partager entre tous les utilisateurs.

    Les « petites cellules » (small cells)
    La techno permet d’utiliser les bandes très hautes (par exemple, 26 GHz) qui sont disponibles en très grandes quantités. Mais les messages s’y propagent beaucoup moins loin, quelques centaines de mètres au plus. On va donc utiliser de toutes petites antennes (les cellules) sur des lampadaires, des abribus, etc. C’est une technologie pour centre-ville et lieux très fréquentés comme des stades ou des festivals.

    Les communications de terminal à terminal
    Cela permet à des terminaux de communiquer directement entre eux sans passer par le système de l’opérateur. On peut continuer à communiquer même quand le réseau est saturé ou quand il dysfonctionne, par exemple en cas de catastrophe naturelle ou d’attaque informatique.

    La radio cognitive
    L’idée est de pouvoir mieux utiliser les fréquences, en se glissant temporairement quand c’est possible dans des fréquences non-utilisées.
    Pour ce qui est de la radio cognitive et des communications de terminal à terminal, si ces deux aspects participent bien de la vision de la 5G, ils ne semblent pas encore vraiment mures à ce stade.

    Et demain, la 6G
    S’il n’est déjà pas simple de dire ce que sera la 5G en cours de déploiement, il devient carrément surréaliste de décrire une technologie encore dans les laboratoires de recherche, la 6G : nous ne sommes pas futurologues ! Nous nous contenterons donc d’en présenter les grands traits. Techniquement, tout en visant encore plus de débit, la 6G vise le "plus fin" : de plus petites antennes (small cells), et de plus petits data centers (edge). Nous serons en permanence connectés au réseau cellulaire et dans de mêmes standards, même quand ce sera par satellite. Le réseau doit se mettre à notre service, nous "humains", probablement de plus en plus immergés dans un monde de robots (ce qu’individuellement nous ne souhaitons pas forcément, mais c’est un autre sujet) ; on parle de réalité virtuelle et augmentée (qui démarrent), d’holographie pour des réunions à distance. Et la 6G doit permettre aussi de bien suivre les objets se déplaçant à haute vitesse ou en environnement compliqué.

    En fait, la 6G permettra l’aboutissement des promesses de la 5G en rendant possible les communications entre un nombre massif de machines de tout genre peut-être des millions au km2). Si la 5G a déjà été conçue avec la sobriété énergétique comme objectif, la 6G ira encore plus loin dans cette direction.

    Bien sûr, l’intelligence artificielle sera hyperprésente, ce serait-ce que parce que les systèmes de communication et leur sécurité seront devenus trop complexes pour les simples humains que nous sommes.

    La 6G règlera tous les problèmes des réseaux cellulaires, elle sera capable de tout, pourquoi pas de faire le café... Vous ne voyez pas bien où ça nous mène. Eh bien, nous non plus. C’est bien pour cela qu’il est indispensable de suivre tout cela de près, parce que nous aurons des choix sociétaux peut-être essentiels à faire sur des sujets comme le niveau de robotisation de nos vies, la sécurité ou l’environnement.

    Par Serge Abiteboul https://theconversation.com/profiles/serge-abiteboul-212213 , Directeur de recherche à Inria, membre de l’Académie des Sciences, Inria et Gérard Berry https://theconversation.com/profiles/gerard-berry-1281347 , Professeur émérite en informatique, Collège de France

    Pour aller plus loin : « La 5G et les réseaux de communications mobiles » https://www.academie-sciences.fr/fr/Rapports-ouvrages-avis-et-recommandations-de-l-Academie/5g-reseaux-communications-mobiles.html , rapport du groupe de travail de l’Académie des sciences sur les réseaux du futur, 12 juillet 2021

    #5g #technologisme #internet_des_objets #objets_connectés #domotique #écologie #santé #surveillance #technologie #smartphone #domination #critique_techno #algorithme #nécrotechnologies #données #sciences #actualités_scientifiques

  • #Frontex and #Europol: How refugees are tracked digitally


    Image: Border guards in Croatia „punish“ refugees by destroying their mobile phones. Europol and Frontex, on the other hand, want their forensic evaluation (Jack Sapoch).

    EU agencies advise increased confiscation and extraction of asylum seekers‘ mobile phones and now provide a manual on how to do so. Apps to encrypt or disguise locations are disliked in the report as „countermeasures“ to surveillance.

    Often the mobile phones they carry are the only connection between refugees and their relatives and friends in their country of origin or elsewhere. They contain contacts, personal communication as well as photos and videos as a memory of the home countries. Only within the European Union is it possible to apply for asylum in its member states. Therefore, the phones are also an indispensable aid for navigating to receiving countries and finding out about conditions and support there.

    Asylum seekers‘ mobile phones are also of increasing interest to authorities. As punishment for irregular entry, border guards in Greece and Croatia, and most recently at the EU’s external border with Belarus, destroy them before abandoning their owners at sea or forcibly push them back. Police forces, on the other hand, confiscate the phones in order to gain information about routes used and people helping to flee.

    Phones used to „lock, conceal and disguise“

    Frontex is actually responsible for preventing irregular migration. „migrant smuggling“ is considered cross-border, organised crime, so its prosecution also falls under Europol’s jurisdiction. Five years ago, Europol opened an #Anti-Migrant_Smuggling_Centre (#EMSC) in The Hague. Europol has also set up two analysis projects, „#Phoenix“ and „#Migrant_Smuggling“, where all interested and involved member states can store and access information.

    Both agencies monitor the #internet and social media, looking for any indications of „migrant smuggling“ there. Intelligence also comes from a „#Joint_Operational_Office“ in Vienna, in which Europol and the German Federal Police are also involved. An „#Internet_Referral_Unit“ (#EU_IRU) at Europol reports online presence of unwanted support for the transportation of refugees to the Internet service providers for removal.

    Frontex and Europol have now published a report on the „#Digitalisation of people smuggling“. However, it is less about the tools of „smugglers“ and more about the phones of refugees. In the guide, the two EU agencies give handouts on the most commonly used messengers and how the authorities can access the content stored there.

    No apps for „smuggling of migrants“ discovered

    Over several pages, the report presents various apps and services, including Facebook, Instagram, Signal, Skvpe, Telegram, Viber, WhatsApp. Also included are popular VPN services or apps for encryption. They are described as „countermeasures“ to police surveillance. Frontex and Europol also list tools that can be used to disguise #GPS positions or phone numbers, calling them apps to „lock, conceal and disguise“.

    Also listed are various mapping applications and open geographic data sources, including Maps.me and Google Maps, which can be used to share coordinates, routes and other information. This concerns, for example, immigration possibilities via the Eastern Mediterranean and the so-called Balkan routes. According to the report, these applications are used to a much lesser extent for routes from Russia and Ukraine or via Poland. Its contents were primarily aimed at asylum seekers from the Middle East, North Africa and Southeast Asian countries.

    Frontex repeatedly claimed in recent years that there were apps specifically developed for „migrant smuggling“. The German government also claims to have heard „that so-called apps by smugglers exist, with which offers of boats and information about conditions in various destination countries can be retrieved“. According now to Frontex and Europol, however, such digital tools have not been discovered so far.

    „Special tactics“ to obtain password or pin code

    At the end of the report, the agencies give tips on how to seize and read mobile communication devices. According to the report, they come from „specialists“ and „experts“ from the #Centre_for_Cybercrime and the #Centre_for_Combating_Migrant_Smuggling at Europol. Recommendations from „other sources“ were also taken into account.

    According to the „#checklist_for_facilitating_forensic_extraction“, the devices should be connected to a power bank and kept in a Faraday bag so that they do not connect to the internet. In this way, the authorities want to avoid their owners deleting content remotely. If the police have the PIN, the phone should be put into flight mode.

    The authorities should „ideally“ also confiscate charging cables, memory cards and other SIM cards in the possession of the refugees. All items should be sealed and marked with the personal data of their owners. To facilitate their analysis, a device password or PIN code for forensic analysis should be provided „whenever possible“. According to the agencies, this can be done either by „addressing this matter to the user“ or by using „special tactics“.

    The report leaves open whether this also includes exerting pressure or coercion on the asylum seekers or rather technical measures.

    https://digit.site36.net/2021/10/25/frontex-and-europol-how-refugees-are-tracked-digitally

    #réfugiés #migrations #asile #surveillance #surveillance_numérique #suveillance_digitale #smartphones #téléphones_portables #destruction #frontières #apps #confiscation #données

    ping @isskein @karine4 @etraces

    • EU: Joint Europol-Frontex report on “digitalisation of migrant smuggling”

      Europol and Frontex have produced a joint report on the “digitalisation of migrant smuggling”, intended to provide state officials with in the EU and Western Balkans “with a comprehensive intelligence picture on the use of digital tools and services’ [sic] in migrant smuggling and related document fraud, in order to raise awareness, consolidate existing knowledge and enforce opportunities to take appropriate measures to tackle emerging threats.”

      Contents of the report

      Key points

      Introduction, background and scope

      Migrant smuggling in the digital era

      Advertisement and recruitment

      Communication and instructions

      Guidance via mapping apps

      Money transfer

      Countermeasures

      Supporting criminal services: Document fraud

      Digital leads into migrant smuggling

      Impact of migrant smuggling digitalisation

      Challenges and intelligence gaps

      Annex I: Overview of applications and platforms identified in connection to migrant smuggling

      Annex II: Recommendations for handling seized mobile communication devices

      https://www.statewatch.org/news/2021/october/eu-joint-europol-frontex-report-on-digitalisation-of-migrant-smuggling
      #rapport

  • « Les données de santé servent l’intérêt public, il y a urgence à en faciliter l’accès »
    https://www.lemonde.fr/sciences/article/2021/10/20/les-donnees-de-sante-servent-l-interet-public-il-y-a-urgence-a-en-faciliter-

    Le retard pris dans le déploiement du Health Data Hub, infrastructure unique facilitant l’accès aux données de santé de façon sécurisée, est inquiétant, affirment les membres de son conseil scientifique consultatif dans une tribune au « Monde ».

    Tribune. La crise sanitaire a mis en lumière le rôle que jouent les données pour assurer le pilotage des mesures collectives, permettre l’amélioration des soins, et faire avancer les connaissances scientifiques. La France a tous les éléments pour utiliser aux mieux celles qui sont disponibles, grâce à l’excellence de ses bases de données administratives et la richesse de ses registres et cohortes pour la recherche. Elle a aussi une stratégie pour exploiter son Système national des données de santé, dont un des éléments est le Health Data Hub, groupement d’intérêt public créé en 2019.

    La mission de cette plate-forme est de faciliter l’accès aux données de santé sous hautes conditions de sécurité et dans le respect des droits des malades. En deux ans, les progrès ont été remarquables. Grâce à la mise en place de cette infrastructure, technique comme réglementaire, une vingtaine de grandes collections de données ont été identifiées comme étant d’intérêt général, en plus des bases administratives telles que celle de l’Assurance maladie, des établissements de santé et des causes médicales de décès.

    Un guichet unique d’analyse a été constitué, ainsi qu’un support pour une utilisation efficace de ces ressources. Quarante-huit projets innovants ont été sélectionnés par appels à projet, et d’autres ont été réalisés pour venir en appui de la gestion de la crise sanitaire. Le Health Data Hub est déjà résolument tourné vers l’Europe et participe activement aux travaux pour la mise en place, par la Commission européenne, d’un espace commun des données de santé.

    Techniquement, ces avancées sont rendues possibles par l’utilisation simultanée de données dispersées dans des bases distantes. Cela réduit les délais d’accès aux données et permet de répondre à des questions de recherche, sur les pratiques réelles et leurs conséquences. Cela favorise aussi la réalisation de projets au service des soins, pratiquement impossibles à mettre en œuvre autrement. C’est la bonne approche pour accélérer la compréhension des inégalités d’accès aux traitements, des réponses différentes des patients aux prises en charge, ou pour surveiller à long terme, par exemple, le rapport bénéfice/risque des produits de santé.

    • Multiplicité des parties prenantes

      Actuellement, le Health Data Hub accompagne un projet qui vise à prévenir les poussées d’insuffisance cardiaque en analysant les données produites par les pacemakers connectés, un autre sur un cancer rare, le sarcome, pour lequel les essais cliniques traditionnels sont impossibles, ou encore un travail de développement d’outils de prédiction de l’évolution du cancer de la prostate.

      Pourtant, nous, membres du conseil scientifique consultatif du Health Data Hub, sommes inquiets du retard pris au déploiement des services développés par cette plate-forme, en raison de délais liés à la multiplicité des parties prenantes, aux processus de délivrance des autorisations et à la résistance au partage des données de la part des différents acteurs. Ce retard met en péril le projet initial de grande infrastructure publique de recherche en santé.

      Nous avons entendu, le 29 juin, le président de la République, Emmanuel Macron, présenter une série de mesures dans le cadre du plan Innovation Santé 2030. Il a annoncé un soutien fort aux infrastructures de recherche biomédicale, des investissements dans la médecine numérique, et la volonté de simplifier et d’accélérer les systèmes d’autorisation. Le gouvernement entend décloisonner, faire travailler les acteurs ensemble, et accélérer les processus de décision. C’est très bien mais les bénéfices escomptés ne seront pas au rendez-vous si l’écosystème ne devient pas plus agile.

      La France et l’Europe tardent à construire un cloud européen. Ne faisons pas la même erreur pour les #données_de_santé. Nous pensons que notre pays est à même de réussir dans ce domaine, grâce notamment au Health Data Hub dont les outils et procédures d’accès aux données disponibles sont un bien commun.

      Le portage de ce type de grand projet stratégique devrait être garanti et renforcé. Il nous semble que la mise en œuvre, qui a été confiée à un organisme agile et innovant, le Health Data Hub, doit lui permettre d’agir en pleine responsabilité, avec le contrôle nécessaire pour garantir la conformité de ses actions avec les objectifs.

      Les technologies du numérique recèlent leur lot de dangers contre lesquels il faut se prémunir. Affronter cette complexité implique de l’intelligence collective et de la coopération, dans un climat de confiance entre opérateurs. Tous les acteurs, publics et privés, doivent pouvoir utiliser efficacement les données disponibles à des fins de recherche, pour guider les décisions individuelles et collectives, tout en protégeant les données sensibles.

      Il n’est pas éthique d’empêcher les connaissances de progresser au service de l’efficacité des soins, de leur sécurité et de leur organisation, et de retarder l’accès aux données d’intérêt général déjà disponibles.

      Les membres du conseil scientifique consultatif du #Health_Data_Hub.
      Alain Livartowski (président, Institut Curie), Ségolène Aymé (vice-présidente, Institut du Cerveau-ICM), Nicholas Ayache (Inria), Julien Bezin (CHU de Bordeaux), Thomas Bourgeron (Institut Pasteur), Pierre Brousset (CHU de Toulouse), Rémy Choquet (Roche), Laurence Devillers (Sorbonne Université), Stanley Durrleman (Inria), Martine Gilard (CHU de Brest), Bernard Hamelin (Euresis Partners), Michelle Kelly-Irving (Inserm), Nathalie Lassau (Gustave-Roussy), Bertrand Lukacs (AP-HP), Alexandre Mebazaa (hôpitaux Lariboisière et Saint-Louis), Thibault Naline (France Digitale et Lifen), Dominique Polton (EHESP), Marina Teller (université Côte-d’Azur), Nicolas Villain (Philips), Pierre Zweigenbaum (CNRS).

      #santé

  • #monaco : La souveraineté numérique au service de la compétitivité

    En lançant son Monaco Cloud, la principauté met au service des entreprises et des citoyens un cloud souverain qui, au-delà de la protection des données, va permettre d’accroître la compétitivité de l’économie monégasque. Par Frédéric Genta, ministre du Numérique à Monaco.
    . . . . .
    demain, Monaco sera, avec Monaco Cloud, le premier pays européen à se doter d’un cloud souverain opérationnel. Ce temps d’avance n’est pas le fruit du hasard, il est le fruit d’une stratégie et surtout d’une conviction.

    Évidemment, le bouclier numérique est la fonction première d’un cloud, et Monaco Cloud ne fait pas exception. La sécurité a toujours été un levier clé de l’attractivité de la Principauté et Monaco Cloud apporte aujourd’hui des garanties qui constituent de nouveaux standards d’excellence en la matière.
    . . . . .
    avec son cloud souverain que la ville-nation Monaco va pouvoir s’affranchir définitivement de ses contraintes géographiques et déployer son influence économique bien au-delà de ses frontières. Il était là le sens du programme Extended Monaco initié il y a deux ans par le prince Albert II. C’est chose faite aujourd’hui : au travers d’un partenariat privé-publique innovant, Monaco Cloud va s’appuyer sur des technologies leaders pour garantir l’opérationnalité de la partie publique du cloud et sur des équipes monégasques pour sécuriser les accès privés.

    Le respect de la confidentialité, là aussi un marqueur fort de la promesse monégasque à l’intention de ses citoyens et résidents, s’illustre au travers d’une clé de chiffrement inédite qui permettra à tout utilisateur de garder la main exclusive sur ses données. Le tout au service d’un modèle économique rentable.
    . . . . .

    #cloud #algorithme #internet #cloud_computing #cloudcomputing #vie_privée #données #bigdata #en_vedette #data #france #paradis_fiscaux #international

  • The International Energy Agency publishes the detailed, global energy data we all need, but its funders force it behind #paywalls. Let’s ask them to change it. - Our World in Data
    https://ourworldindata.org/iea-open-data

    The #IEA provides crucial energy data that is not available elsewhere

    The statistical work of the IEA is of immense value. It is the only source of energy data that captures the full range of metrics needed to understand the global energy transition: from primary energy through to final energy use by sub-sector. It is the go-to source for most researchers and forms the basis of the energy systems modelling in the Intergovernmental Panel on Climate Change (IPCC) Assessment Reports.4 It is also heavily utilised in energy policy, collaborating with the United Nations Framework Convention on Climate Change (UNFCCC) on developments in energy data and analytics.

    Some alternative data sources on energy exist, but none come close to the coverage and depth of the IEA data. The BP Statistical Review of World Energy, published by the multinational oil and gas company BP is the most commonly used alternative. As a freely available dataset it is widely used in research and is where the IEA would want to be – ‘at the heart of the global dialogue on energy’. But as it is published by a private fossil fuel company it has some obvious drawbacks.

    #climat #données #paywall

  • Les employés de Facebook ne peuvent pas entrer dans les bureaux – les badges ne fonctionnent pas non plus Sénégal direct - Moussa Gaye
    https://senegaldirect.com/les-employes-de-facebook-ne-peuvent-pas-entrer-dans-les-bureaux-les-b

    Certains des employés qui se sont précipités dans les bureaux pour évaluer personnellement l’étendue des dégâts n’ont pas pu accéder aux bâtiments car leurs badges numériques ont cessé de fonctionner, ce qui les a empêchés d’accéder aux zones de serveurs et d’agir personnellement sur les machines des bâtiments.


    Il n’y a pas que les réseaux sociaux qui ne fonctionnent pas : toute l’entreprise de Mark Zuckerberg est hors ligne. Le pépin qui empêche des millions d’utilisateurs dans le monde d’accéder à Facebook, Instagram et WhatsApp empêche également les travailleurs du géant de Menlo Park de résoudre la situation et même d’entrer dans leurs bureaux. Le New York Times rapporte cela, citant des sources internes de Facebook selon lesquelles l’ampleur de l’accroc technique serait si grande qu’elle impliquait également des systèmes internes. Y compris les lecteurs de badges qui, ne reconnaissant pas les employés, n’ouvrent pas les portes. Ainsi, les premiers ingénieurs qui se sont précipités sur le site n’ont pas pu entrer car les systèmes physiques ne fonctionnaient pas.

    La plupart des systèmes internes ont cessé de fonctionner, y compris les services de messagerie et de partage d’informations. Les calendriers, les outils de liste de tâches et d’autres services utilisés par les employés ont cessé de répondre, tout comme certains appareils liés aux systèmes informatiques de l’entreprise, notamment les lecteurs de badges. Les travailleurs ont expliqué qu’ils avaient des difficultés à passer des appels depuis les téléphones de l’entreprise et à recevoir des courriels de personnes extérieures à l’entreprise. La plateforme de collaboration interne, Workplace, a également cessé de fonctionner. Beaucoup se sont donc tournés vers la concurrence, utilisant LinkedIn, Zoom et Discord pour continuer à travailler.

    Certains des employés qui se sont précipités dans les bureaux pour évaluer personnellement l’étendue des dégâts n’ont pas pu accéder aux bâtiments car leurs badges numériques ont cessé de fonctionner, ce qui les a empêchés d’accéder aux zones de serveurs et d’agir personnellement sur les machines des bâtiments. Selon le responsable des opérations de sécurité de Facebook, le problème actuel est un risque élevé pour les personnes, un risque modéré pour les actifs de l’entreprise et un risque élevé pour la réputation de Facebook. Une petite équipe d’employés a été envoyée au centre de données de Santa Clara pour réinitialiser manuellement les serveurs de l’entreprise.

     #facebook #Messenger #Instagram #WhatsApp #data_centers #algorithme #surveillance #bigdata #publicité #données #instagram #marketing #gafam #sécurité #serveurs

    • Vidéo : voici ce qui a provoqué la panne de Facebook (et Instagram, et WhatsApp) zdnet.fr
      https://www.zdnet.fr/actualites/voici-ce-qui-a-provoque-la-panne-de-facebook-et-instagram-et-whatsapp-39930251

      Technologie : Ne vous attendez pas à une solution immédiatement, ça risque de durer un bon moment. On vous explique, tout ceci est lié à un mystérieux protocole nommé BGP.

      Maj 05/10/2021 à 06h38  : Les différents services de Facebook touché par la panne sont désormais rétablis, la panne aura duré 6 heures. L’entreprise a commencé à communiquer sur la panne. Il s’agit d’un changement de configuration des routeurs principaux" qui a provoqué un effet en cascade de paralysie des datacenters de l’entreprise.

      Le vieux dicton du dépannage de réseau dit que si quelque chose ne va pas, "c’est le DNS". Et bien cette fois, le serveur de noms de domaine (DNS) semble être un simple symptôme de la cause fondamentale de la panne globale de Facebook. La véritable cause est qu’il n’y a pas de routes Border Gateway Protocol (BGP) fonctionnelles vers les sites de Facebook.
      https://www.youtube.com/watch?v=rnlGuMtGEtQ


      BGP est le protocole de passerelle extérieure standardisé utilisé pour échanger des informations de routage et d’accessibilité entre les systèmes autonomes (SA) de premier niveau d’Internet. La plupart des gens, et même la plupart des administrateurs réseau, n’ont jamais besoin d’utiliser BGP.

      Beaucoup de gens ont remarqué que Facebook n’était plus répertorié dans le DNS. En effet, il y a même eu des messages humoristiques proposant de vous vendre le domaine Facebook.com.

      Le vice-président de Cloudflare, Dane Knecht, a été le premier à signaler le problème BGP qui est sous-jacent à cette panne géante. Cela signifie, comme l’a tweeté Kevin Beaumont, responsable du centre des opérations de sécurité de Microsoft, qu’en l’absence d’annonces BGP pour vos serveurs de noms DNS, le DNS s’effondre. Et donc personne ne peut vous trouver sur Internet. Même chose pour WhatsApp. Facebook s’est en quelque sorte déplateformisé de sa propre plateforme."

      Oups.

      Aussi ennuyeux que cela puisse l’être pour vous, cela peut être encore plus ennuyeux pour les employés de Facebook. Selon certaines informations, les employés de Facebook ne peuvent pas entrer dans leurs bâtiments parce que leurs badges et portes "intelligentes" ( ahah, peut-être est il temps de remplacer enfin intelligent par connecté ) ont également été désactivés par cette panne de réseau. Si cela est vrai, les employés de Facebook ne peuvent littéralement pas entrer dans le bâtiment pour tenter de réparer la ou les pannes.

      Facebook a depuis précisé que ces difficultés techniques ont également affecté ses outils internes, rendant d’autant plus difficile son travail pour résoudre la situation.

      Plus tard dans la nuit, Facebook a communiqué sur les origines de panne. “Nos équipes d’ingénierie ont appris qu’un changement de configuration des routeurs principaux qui coordonnent le trafic entre nos centres de données a entraîné des difficultés techniques aboutissant à l’arrêt de toute communication. Cette interruption des échanges du réseau a eu des effets en cascade sur la façon dont nos centres de données communiquent, provoquant la panne de nos services” expliquait l’entreprise.

      Quelques heures avant, l’utilisateur de Reddit u/ramenporn, qui prétendait être un employé de Facebook travaillant à ramener le réseau social d’entre les morts, avait signalé, avant de supprimer son compte et ses messages, que "le DNS pour les services de FB a été affecté et c’est probablement un symptôme du problème réel, à savoir que l’échange de trafic BGP avec les #routeurs d’échange de trafic de Facebook a été interrompu, très probablement en raison d’un changement de #configuration entré en vigueur peu de temps avant que les pannes ne surviennent)". 


      Un changement de configuration erroné effectué via une interface web
      Il poursuit : "Des personnes essaient maintenant d’accéder aux routeurs d’échange de trafic pour mettre en œuvre des correctifs, mais les personnes ayant un accès physique sont distinctes de celles qui savent comment s’authentifier auprès des systèmes et de celles qui savent ce qu’il faut faire, de sorte qu’il y a maintenant un défi logistique pour unifier toutes ces connaissances. Une partie de cette situation est également due à la diminution des effectifs dans les centres de données en raison des mesures de lutte contre la pandémie."

      Ramenporn a également déclaré qu’il ne s’agissait pas d’une attaque, mais d’un changement de configuration erroné effectué via une interface web. Ce qui est vraiment dégoûtant — et pourquoi Facebook est toujours hors service quelques heures plus tard — c’est que, puisque BGP et DNS sont hors service, "la connexion au monde extérieur est hors service, l’accès à distance à ces outils n’existe plus, donc la procédure d’urgence est d’obtenir un accès physique aux routeurs d’échange de trafic et de faire toute la configuration localement". Bien sûr, les techniciens sur place ne savent pas comment faire et les administrateurs réseau principaux ne sont pas sur place. En bref, c’est un grand gâchis.

      Conséquence de cette panne, le cours de Facebook a perdu plus de 6 % à la bourse de New York. Selon l’entreprise, il n’y a aucun signe montrant que les données des utilisateurs aient pu être compromises.
      Pour rappel, le réseau social le plus populaire du monde s’est effondré lundi 4 octobre 2021 vers 8h45, heure californienne (soit 17h45, heure française). Mais il n’y a pas que Facebook : Instagram, WhatsApp et Facebook Messenger ont également été touchés par la panne.

      Les services de statut de sites web comme DownForEveryoneOrJustMe et DownDetector signalaient alors que Facebook était hors service. Le problème touchait l’intégralité des services de l’entreprise dans le monde entier. En France également, les différents sites avaient cessé de fonctionner, tout comme les applications du groupe.

      #BGP #DNS

  • La #numérisation du #contrôle_migratoire européen

    Le contrôle migratoire européen repose aujourd’hui sur la collecte, la sauvegarde et le partage d’#informations_biométriques_numérisées par les polices et consulats des États membres. Du premier fichier dit #SIS (#Système_d’informations_Schengen) issu du rapprochement des polices dans les années 1980 contre la criminalité transfrontalière à l’#Entry_Exit_System qui ambitionne d’enregistrer l’ensemble des voyageurs vers l’Europe à partir de 2022, ces #bases_de_données dessinent un #contrôle_à_distance, en amont dès le pays de départ et en aval au sein même de l’espace Schengen, souvent déconnecté de tout franchissement frontalier. Un tel #contrôle_numérisé nourrit une #industrie de la surveillance et de la #sécurité en pleine expansion. Ce phénomène peut être rapproché de la mise en carte d’antan tout en se singularisant par un #contrôle_individualisé dans un fantasme de #surveillance_généralisée de l’ensemble des #mobilités contemporaines.

    https://ehne.fr/fr/encyclopedie/th%C3%A9matiques/les-migrations-en-europe/surveillance-et-contr%C3%B4le-des-migrations/la-num%C3%A9risation-du-contr%C3%B4le-migratoire-europ%C3%A9en

    #surveillance #frontières #migrations #réfugiés #asile #biométrie #données #privatisation #complexe_militaro-industriel

    ping @isskein @karine4 @etraces

  • La Chine continue de resserrer son étau sur les géants de la tech
    https://www.lemonde.fr/economie/article/2021/09/14/pekin-continue-de-resserrer-son-etau-contre-les-geants-de-la-tech_6094582_32

    Les applications sur smartphone des géants du commerce en ligne chinois sont bien pratiques. En quelques clics, vous pouvez commander le bien dont vous rêvez et obtenir un crédit pour l’acquérir. Cela ne devrait pas durer. Selon le Financial Times du lundi 13 septembre, Pékin va obliger les e-commerçants à scinder leurs applications : une pour les achats, une pour les activités de crédit.

    Une décision dans la droite ligne de la stratégie mise en œuvre depuis décembre 2020 visant à les contraindre de cesser d’être à la fois commerçants, banquiers, intermédiaires financiers et évaluateurs de risques de crédit, le tout sans avoir à respecter les ratios prudentiels imposés aux banques traditionnelles. A l’avenir, les demandes de prêts déposées auprès d’Ant, la filiale financière d’Alibaba, devront être traitées par une société spécifique dont l’Etat sera actionnaire. Une nationalisation partielle qui devrait faire jurisprudence. Plus question de laisser à quelques conglomérats high-tech le monopole du crédit à la consommation.

    Outre la régulation financière, le pouvoir politique s’attaque en effet à d’autres caractéristiques du secteur auxquelles l’opinion publique est sensible : la concurrence entre les plates-formes, la collecte des données et les conditions de travail des employés. Le 10 septembre, les pouvoirs publics ont convoqué les dix grandes entreprises de livraison à domicile et les sociétés de taxi, leur enjoignant de signer des contrats écrits avec leur personnel, d’améliorer les revenus offerts et de prévoir des temps de pause. L’enjeu est majeur. Selon un rapport de l’Organisation internationale du travail paru à l’automne 2020, 78 millions de personnes, soit environ 10 % de la population active, sont employées dans le commerce en ligne et les plates-formes de livraison. Mais une infime minorité de ces 78 millions – 8 % seulement – bénéficient d’un réel contrat de travail.

    Dans le même ordre d’idée, le gouvernement a publié, en août, une loi qualifiant les données d’atouts « stratégiques de la nation ». Jugeant que les informations concernant les Chinois doivent rester dans l’empire du Milieu, le gouvernement entend limiter les introductions en Bourse des entreprises nationales à l’étranger, lorsque les autorités du pays veulent également avoir un droit de regard sur ces données, ce qui est le cas des Etats-Unis. Pour s’être introduit au Nasdaq fin juin, en croyant pouvoir se dispenser d’obtenir le feu vert des autorités chinoises, Didi, le « Uber chinois », a, quarante-huit heures plus tard, été interdit de recruter de nouveaux clients en Chine. Message reçu cinq sur cinq : deux autres sociétés, l’application de fret Full Truck Alliance et la société de recrutement en ligne Kanzhun ont renoncé à se faire coter aux Etats-Unis.

    Allant encore plus loin, la ville de Tianjin (environ 10 millions d’habitants) a ordonné à ses entreprises publiques de stocker leurs données dans un cloud public et de ne plus travailler avec les géants privés comme Alibaba ou Tencent. Ceux-ci ne sont pas les seuls dans le collimateur du Parti communiste. Cet été, le secteur de l’éducation privée en ligne a été prié de rejoindre le secteur associatif. Et dans le domaine des jeux vidéo, les mineurs ne peuvent plus se connecter que trois heures par semaine, les sociétés devant auparavant vérifier l’identité et l’âge des utilisateurs. Enfin, une réécriture « positive » de certains algorithmes doit mettre moins en valeur les « contenus pernicieux ».

    Autant de mesures jugées « liberticides » par certains, mais que d’autres, comme le sinologue François Godement de l’Institut Montaigne, pourtant peu suspect de complaisance envers Pékin, estime « correspondre à ce que l’on pourrait attendre de gouvernements sociaux-démocrates ».

    #Chine #Données #Banques

  • Investigation et téléphonie mobile - Marseille Infos Autonomes
    https://mars-infos.org/investigation-et-telephonie-mobile-5863

    Un bouquin pour « informer les avocats, les professionnels du droit sur les techniques d’investigation déployées par les enquêteurs et les services de renseignements ». C’est écrit par un ex-flic mais c’est intéressant.

    Haurus est le pseudo d’un ancien keuf passé par la DGSI. Il a bientôt un procès pour avoir revendu sur le (dark)net des données (fadettes, géolocalisations, etc) obtenues grâce son taf. En début d’année il a sortir ce bouquin « Investigation & téléphonie mobile : Le guide à l’usage des avocats » , expliquant que ni les juges ni les avocat.es ne comprennent ce que font les flics des données numérique qu’ils siphonnent et mettent en forme dans leurs enquête. […]

    Sur le livre

    Évidemment on n’y apprendra rien d’extraordinaires ni de secret. Haurus est un flic un peu repenti, pas un camarade.

    Mais son livre est une excellente base pour comprendre ce que les flics arrivent à faire, quelles données ils recherchent sur les supports numériques et les téléphones, quels outils ils utilisent, comment ils enquêtent à partir des fadettes, etc. On y retrouve dans un format simple et accessible quelques conseils pour conserver de bonnes pratiques, les erreurs classiques à éviter, les pratiques qui mettent de gros obstacles à leurs investigations, et des pistes pour contester les dossiers d’enquêtes.

    Je me suis dit que ça valait le coup de rendre ce bouquin gratos. Bonne lecture et bon partage.

    Le livre en PDF : https://mars-infos.org/IMG/pdf/investigations-telephonie-mobile-up.pdf

    #police #surveillance #renseignement #téléphonie #données_numériques #fadettes #Mercure #géolocalisation #Deveryware #écoutes_téléphoniques #IMSI_catcher #keylogger #messageries_sécurisées #signal #telegram

  • La voiture autonome ? Une catastrophe écologique Celia Izoard pour Reporterre
    https://reporterre.net/La-voiture-autonome-Une-catastrophe-ecologique

    L’industrie automobile prépare activement la généralisation des véhicules autonomes. Problème : leur mise en œuvre à grande échelle aurait des conséquences écologiques très néfastes.

    Dans le principe, la prouesse technologique consistant à remplacer par des machines les innombrables opérations complexes qu’effectue une personne au volant paraît difficilement compatible avec l’idée de sobriété. Un des derniers modèles, présenté en janvier au dernier Consumer’s Electronic Show de Las Vegas, le SUV Range Rover équipé par l’entreprise Valeo, comporte pas moins de quatre ou cinq caméras, huit lidars (qui permettent de mesurer les distances à partir d’un faisceau laser), plusieurs radars longue portée, un ordinateur central de grande puissance, une caméra trifocale sur le pare-brise et d’autres capteurs. La généralisation de ces véhicules impliquerait, pour abaisser les coûts de façon acceptable, le lancement d’une production de masse de tous ces objets, en supplément de l’électronique déjà présente dans les véhicules actuels. Aux États-Unis, la National Mining Association rappelle régulièrement aux décideurs que « la sophistication croissante des produits de l’industrie automobile va faire exploser la demande en métaux et la compétition pour ces ressources » [1]. En clair, impossible d’obtenir la matière première de tous ces superalliages sans provoquer une augmentation de l’activité minière, qui compte parmi les industries les plus polluantes [2].

    Deuxième problème : la croissance exponentielle des #données (le #data). La conduite automatisée repose sur de gigantesques volumes d’informations que les divers capteurs transmettent aux algorithmes de traitement d’images. Selon Brian Krzanich, PDG d’Intel, un véhicule autonome va générer et consommer, pour huit heures de conduite, environ 40 téraoctets de données, soit l’équivalent de 40 disques durs d’ordinateur. « En circulation, chacun de ces véhicules produira autant de données que 3.000 utilisateurs d’ #internet », précise-t-il [3]. Or la facture énergétique du traitement et du stockage du big data est déjà préoccupante. En France, les #datacenters consommaient déjà en 2015 plus d’électricité que la ville de Lyon. En 2017, ils ont consommé à eux seuls 3 % de l’électricité produite dans le monde, soit 40 % de plus qu’un pays comme le Royaume-Uni [4].

    « L’autonomie apparente du propriétaire d’une automobile recouvrait sa radicale dépendance » 
    Enfin, la généralisation des véhicules autonomes nécessite le déploiement de la #5G et le renouvellement des infrastructures routières. « Il est probable que l’environnement deviendra plus standardisé et proactif à mesure que sera développée une infrastructure plus communicante, résume un article de la Harvard Business Review. Il faut s’imaginer des transmetteurs radio à la place des feux rouges, des réseaux sans fil permettant aux véhicules de communiquer entre eux et avec les infrastructures, et des unités de bord de route fournissant des informations en temps réel sur la météo, le trafic, et d’autres paramètres [5]. »

    L’Union européenne finance plusieurs projets de ce type via le programme #Codecs, notamment le projet #Cooperative_ITS_Corridor, une autoroute expérimentale connectée desservant #Amsterdam, #Francfort et #Vienne. Une portion test de 8 km est déjà équipée d’une « unité de bord de route » (comprenant une antenne 5G et des ordinateurs) tous les 500 m et d’une caméra tous les 100 m. On imagine la quantité de matériel nécessaire pour équiper ne serait-ce que toutes les autoroutes d’Europe ! Le projet est loin d’être marqué par la sobriété, et moins encore si l’on imagine « des caméras avec des unités de communication (...) installées sur les feux rouges pour avertir le conducteur du passage “au vert” », comme les auteurs du Livre blanc #Mobility_Nation, le rapport du Boston Consulting Group remis au gouvernement pour accélérer l’essor du #transport_autonome [6].


    Un prototype de véhicule autonome Nissan, en 2014.

    On peut dès lors s’interroger sur la dénomination de ces véhicules : autonomes, vraiment ? André Gorz montrait déjà en 1973 à quel point l’automobile, qui dépend d’un approvisionnement en pétrole et d’une infrastructure gigantesque, reposait sur une autonomie largement fictive : « Ce véhicule allait obliger [l’automobiliste] à consommer et à utiliser une foule de services marchands et de produits industriels que seuls des tiers pouvaient lui fournir. L’autonomie apparente du propriétaire d’une automobile recouvrait sa radicale dépendance [7]. » La démonstration paraît encore plus probante pour ces véhicules qui ne pourraient « rouler tout seuls » qu’à la condition de modifier radicalement leur environnement en déployant autour d’eux un ensemble de macrosystèmes techniques.

    « Un moment de confort, dépourvu de stress, qui offre au consommateur son espace privé, des horaires flexibles, et presque aucune tâche de conduite » 
    Pour les entreprises, les véhicules dits autonomes participent pourtant de la « #mobilité_durable ». Leur argumentaire a largement été repris par le gouvernement : dans les « Neuf solutions de la nouvelle France industrielle » du président macron, les véhicules autonomes figurent en bonne place dans le volet « #mobilité_écologique ». Quels sont les arguments ? D’une part, l’interconnexion des véhicules et des infrastructures va réduire les embouteillages en permettant d’ajuster les itinéraires en temps réel. Ensuite, la conduite autonome, plus fluide, consommerait moins d’ #énergie. Surtout, le transport autonome serait porteur de la fameuse révolution de l’ #autopartage : on pourrait délaisser son véhicule personnel au profit des services de #robots-taxis en #covoiturage. Mais en analysant cette promesse, on constate qu’elle sert surtout à contrebalancer le principal problème que pose le transport autonome : le redoutable #effet_rebond, tel que les économies d’énergie procurées par une technique vont susciter l’augmentation de la consommation.

    Selon un rapport de Morgan Stanley, il paraît vraisemblable que les premiers véhicules autonomes opérationnels à grande échelle seront des #camions de transport routier. Ils seraient pilotés à distance sur des routes complexes et en conduite automatique sur autoroute ; ces camions pourraient circuler en convois, avec un seul chauffeur à la tête de plusieurs véhicules. Étant donné que la paie des chauffeurs représente environ 40 % du coût du transport, les grandes entreprises du secteur s’attendent à une baisse historique des prix, qui donnerait à la route un avantage certain par rapport au #ferroviaire [8]. Que ce soit pour du fret ou de la livraison, on aurait là une incitation à augmenter le nombre de marchandises en circulation, pour le plus grand profit des monopoles de la vente en ligne. Et comment les particuliers, les actifs surmenés par exemple, résisteraient-ils à la tentation de se faire livrer tout et n’importe quoi à domicile ?

    Selon ce même rapport, les véhicules autonomes pourraient concurrencer les transports en commun, d’une part en diminuant de deux tiers le coût d’un #taxi, d’autre part en rendant la voiture personnelle plus attractive : « Si l’automobile devient un moment de confort, dépourvu de stress, qui offre au consommateur son espace privé, des horaires flexibles, et presque aucune tâche de conduite, le consommateur pourrait échapper aux désagréments des transports publics en optant pour la “conduite” d’un véhicule autonome personnel. » La voiture autonome renforcerait ainsi le phénomène de suburbanisation, rendant acceptable de vivre plus loin de son travail en permettant à beaucoup de commencer leur journée dès l’aube dans une sorte de bureau privatif mobile. Elle permettrait à de nouveaux usagers — enfants, personnes très âgées — de se déplacer facilement, ce qui augmenterait encore, comme l’a confirmé une étude de l’université de Leeds, le nombre de véhicules sur les routes [9]. En gros, concluent les chercheurs, à partir du moment où il ne sera plus nécessaire de toucher le volant, les effets négatifs se multiplieront.


    Un prototype de voiture sans chauffeur d’Uber à San Fransisco, en novembre 2016.

    « Au plan environnemental, la voiture autonome est a priori catastrophique, puisqu’elle va faciliter le recours à l’automobile », confirme Bertrand-Olivier Ducreux, du service transport et mobilités de l’Agence pour l’environnement et la maîtrise de l’énergie (Ademe). Ce service est notamment chargé de l’appel à projets « expérimentation du véhicule routier autonome » qui subventionne les entreprises du secteur via le plan d’investissement d’avenir. « La position de l’ #Ademe, c’est de tenter d’orienter les véhicules autonomes vers une mobilité vertueuse, en faisant en sorte qu’ils soient utilisés comme un service d’autopartage. L’idéal, pour nous, c’est une navette de six, huit places sans conducteur. » Par exemple, un véhicule Uber sans chauffeur qui viendrait chercher plusieurs clients effectuant des trajets semblables.

    « Une solution efficace serait de réserver les véhicules autonomes aux systèmes de transport collectif plutôt qu’aux particuliers » 
    En admettant l’idée de confier l’avenir des transports collectifs à Uber et autres géants du net, la promotion de ces robots-taxis pourrait-elle suffire à enrayer ce qui ressemble à une étape de plus vers la #surconsommation ? Pour Thomas Le Gallic, chercheur en prospective au sein du laboratoire Ville Mobilité Transport, le pari est risqué. « Les études concluent que les véhicules autonomes pourraient aussi bien doubler que diviser par deux la consommation d’énergie associée à la mobilité des personnes. Mais l’augmentation semble plus probable, parce que les gens seront incités à faire des trajets plus longs. Pour moi, une solution efficace serait de réserver les véhicules autonomes aux systèmes de transport collectif plutôt qu’aux particuliers. Mais ce n’est pas la tendance qui se dessine. »

    Ainsi, loin de l’étiquette « mobilité écologique » sous laquelle les pouvoirs publics investissent dans les véhicules autonomes, il faudrait inverser le constat : pour que cette innovation ne soit pas catastrophique, il faudrait une politique extrêmement volontariste.

    Cela impliquerait que le gouvernement, de manière assez invraisemblable, décide de rendre la voiture personnelle prohibitive pour la remplacer par une ambitieuse politique de transports publics et de navettes. Est-ce vraiment le projet ? L’État prévoit-il de se donner les moyens de limiter drastiquement les ventes des constructeurs automobiles ? Est-ce vraiment ce qu’Emmanuel Macron avait en tête, lors de son discours de mars 2018 sur l’ #intelligence_artificielle, quand il déclarait vouloir mener la « bataille essentielle » de la voiture autonome parce que « la #France est une grande nation automobile, et nous y avons notre rôle historique » ?

    En mai 2018, l’État avait déjà dépensé près de 200 millions d’euros pour subventionner la #recherche en véhicules autonomes [10]. C’est sans commune mesure avec ce que pourrait ensuite coûter la mise en œuvre de la 5G, la refonte des infrastructures routières, les mesures de #cybersécurité, soit les investissements publics colossaux nécessaires à leur déploiement, auxquels il faut ajouter le coût social de la mise au chômage de plusieurs centaines de milliers de chauffeurs professionnels.

    Si l’objectif est de mener la « révolution de l’autopartage » et d’en finir avec la voiture personnelle, a-t-on besoin des véhicules autonomes ? Ces investissements ne pourraient-ils pas tout aussi bien servir à mener une aussi ambitieuse politique de transports collectifs avec conducteurs en finançant les trains, les bus et les navettes que réclament les habitants des campagnes et de la France périurbaine pour délaisser leur voiture personnelle ?

    Notes
    [1] « Minerals Drive the Auto Industry », American Mining Association, 10/02/14.
    [2] Cf. Revue Z, n° 12, « Trésors et conquêtes », Agone, 2018.
    [3] « Just one autonomous car will use 4000 GB of data per day », Network World, 7/12/16.
    [4] « Quand le stockage de données consommera plus d’énergie que le monde n’en produit », L’Usine nouvelle, 29/06/18.
    [5] « To Make Self-Driving Cars Safe, We Also Need Better Roads and Infrastructure », 14/08/18.
    [6] « Réinventer la mobilité urbaine et périurbaine à l’horizon 2030 », novembre 2017. Le Boston Consulting Group est une émanation du Forum économique mondial financé par 1.000 multinationales réalisant un chiffre d’affaires supérieur à 3 milliards d’euros.
    [7] « L’idéologie sociale de la bagnole », Le Sauvage, automne 1973.
    [8] Blue Paper on Autonomous Cars, 2013.
    [9] « Self-driving Cars : Will They Reduce Energy Use ? », University of Leeds, 2016 ; « Will Self-driving Cars Be Good or Bad for the Planet ? », geekwire.com, 25/02/16.
    [10] Développement des véhicules autonomes : orientations stratégiques pour l’action publique, mai 2018.

    • Merci pour cette touche d’humour.

      Et quand on rigole d’une telle blague on est quoi ?
      Ça me rappel avoir vu Macron en vidéo qui disait qu’il y avait tout un tas de complot autour de lui qui le visait lui... Si même les politiques qui se servent habituellement des complots pour rallier les crédules disent qu’il existent des complots c’est le fin de la science.... 😏

  • Enquête sur une fuite de résultats de tests Covid en Autriche
    https://www.rts.ch/info/monde/12458791-pionnier-du-pass-sanitaire-le-danemark-en-tourne-la-page-le-suivi-du-co

    Les autorités autrichiennes ont annoncé mercredi l’ouverture d’une enquête après la fuite de dizaines de milliers de résultats de tests positifs au Covid-19 dans la province du Tyrol. Au total, 24’000 documents, incluant les noms, adresses et autres données personnelles, dont ceux de plusieurs responsables politiques connus, ont été divulgués à des médias, selon la Commission de protection des données.

    D’après la chaîne publique ORF et le quotidien Der Standard, qui ont accédé à la liste, c’est l’ancien directeur de la compagnie HG Lab Truck (filiale de HG Pharma), chargée d’effectuer les tests dans le Tyrol, qui est responsable de cette fuite. Il a expliqué avoir envoyé les données dans un courriel le 11 août à un technicien extérieur à l’entreprise, sous forme de tableaux Excel cryptés, mais a nié toute faute, assurant avoir été victime d’un piratage informatique.

    Dans un communiqué, le gouvernement du Tyrol a condamné ce nouvel épisode, se disant attaché à « des normes de sécurité élevées pour la protection des données », et annoncé une action en justice « s’il s’avère que les données ont bien été transmises à des tiers contrairement aux engagements pris ».

    #santé #surveillance #coronavirus #covid-19 #secret_médical #données #données_personnelles #bigdata #médecine #test_pcr #pcr #tests #Autriche

  • Covid : une fuite massive de résultats de tests antigéniques 31 août 2021 Par Jérôme Hourdeaux

    Plus de 700 000 résultats de tests, et les données personnelles des patients, ont été durant des mois accessibles en quelques clics en raison de failles béantes sur le site de Francetest, un logiciel transférant les données des pharmaciens vers le fichier SI-DEP et pourtant non homologué.

    Les données personnelles et les résultats des tests Covid de plusieurs centaines de milliers de personnes ont été durant plusieurs mois accessibles à tous en quelques clics en raison de plusieurs failles de sécurité sur la plateforme Francetest, une société transférant les données des pharmaciens au fichier SI-DEP, le fichier centralisant l’ensemble des données des tests. . . . . . .

    La suite, payante : https://www.mediapart.fr/journal/france/310821/covid-une-fuite-massive-de-resultats-de-tests-antigeniques

     #santé #surveillance #coronavirus #covid-19 #secret_médical #données #données_personnelles #bigdata #médecine

  • Menteur un jour, Menteur Toujours !

    Le certificat de vaccination de Macron n’indique pas le 31 mai comme il l’a annoncé en grande pompe mais le 13 juillet.
    Ça commence à faire beaucoup…
    Néron nous a incendié le 12 dans une logorrhée haineuse contre les non-vaccinés et il s’est fait vacciner le lendemain.
    #Manifs28aout

    https://twitter.com/realmarcel1/status/1430883080391307266

    https://www.mediapart.fr/journal/france/260821/imbroglio-autour-de-la-vaccination-de-macron?onglet=full

    Le chef de l’État avait annoncé s’être fait vacciner le 31 mai. Or, d’après les données de l’Assurance-maladie consultées par Mediapart, il aurait été vacciné le 13 juillet, au lendemain de son allocution présidentielle sur le passe sanitaire. L’Élysée évoque une « erreur » dans la transmission des données.

    L’affaire paraissait entendue : après avoir été contaminé par le Covid-19 en décembre 2020, ce qu’il avait lui-même révélé dans une logique de transparence alors saluée par la majorité, Emmanuel Macron avait été vacciné, le 31 mai 2021, jour de l’ouverture de la campagne de vaccination à tous les adultes.
    La lecture des articles est réservée aux abonnés.

    Ou quand un mensonge devient une « erreur » de communication...

    #erreur_de_Transmission :))

    • « Comme l’a prouvé l’imbroglio autour de l’injection d’Emmanuel Macron, la base de données des vaccinés du Covid est un fichier de police comme les autres : un vaste open bar. »
      @metroet_
      Pourquoi les données de vaccination sont si mal protégées
      https://www.mediapart.fr/journal/france/270821/pourquoi-les-donnees-de-vaccination-sont-si-mal-protegees#at_medium=custom

      Chaque professionnel de santé peut, en quelques clics, obtenir le numéro de Sécurité sociale d’une personne et accéder à ses données vaccinales, y compris celles du président. Cette possibilité est en outre ouverte à certains agents administratifs. Pourtant, pour la Cnam et la Cnil, ce dispositif ne pose pas de problème.

      La faille béante dans le secret médical ayant conduit à la divulgation des données vaccinales d’Emmanuel Macron était dénoncée depuis de nombreux mois. Elle est pourtant assumée totalement par les autorités et même validée par le gendarme des données personnelles, la Commission nationale de l’informatique et des libertés (Cnil).

      Par manque d’anticipation, l’assurance-maladie n’a eu qu’un mois et demi pour développer le système informatique de suivi de la campagne de vaccination. Selon nos informations, celui-ci souffre de plusieurs failles : il permet à un médecin d’accéder à tous les dossiers des Français tandis que la procédure de signalement des effets indésirables a été mise en œuvre a minima.

      https://twitter.com/oliviertesquet/status/1431334739345031171

    • « France test ou la preuve que l’absurdistan autoritaire sauce startup nation est un danger de sécurité et de libertés publiques.

      À tous les étages, une improvisation idiote ! »

      Covid : une fuite massive de résultats de tests antigéniques
      31 août 2021 Par Jérôme Hourdeaux
      https://www.mediapart.fr/journal/france/310821/covid-une-fuite-massive-de-resultats-de-tests-antigeniques

      Plus de 700 000 résultats de tests, et les données personnelles des patients, ont été durant des mois accessibles en quelques clics en raison de failles béantes sur le site de Francetest, un logiciel transférant les données des pharmaciens vers le fichier SI-DEP et pourtant non homologué.

      #paywall

      Les données personnelles et les résultats des tests Covid de plusieurs centaines de milliers de personnes ont été durant plusieurs mois accessibles à tous en quelques clics en raison de plusieurs failles de sécurité sur la plateforme Francetest, une société transférant les données des pharmaciens au fichier SI-DEP, le fichier centralisant l’ensemble des données des tests.

      https://twitter.com/Poulin2012/status/1432680957664972802

  • Data et nouvelles technologies, la face cachée du contrôle des mobilités

    Dans un rapport de juillet 2020, l’#Agence_européenne_pour_la_gestion_opérationnelle_des_systèmes_d’information_à_grande_échelle (#EU-Lisa) présente l’#intelligence_artificielle (#IA) comme l’une des « #technologies prioritaires » à développer. Le rapport souligne les avantages de l’IA en matière migratoire et aux frontières, grâce, entre autres, à la technologie de #reconnaissance_faciale.

    L’intelligence artificielle est de plus en plus privilégiée par les acteurs publics, les institutions de l’UE et les acteurs privés, mais aussi par le #HCR et l’#OIM. Les agences de l’UE, comme #Frontex ou EU-Lisa, ont été particulièrement actives dans l’expérimentation des nouvelles technologies, brouillant parfois la distinction entre essais et mise en oeuvre. En plus des outils traditionnels de #surveillance, une panoplie de technologies est désormais déployée aux frontières de l’Europe et au-delà, qu’il s’agisse de l’ajout de nouvelles #bases_de_données, de technologies financières innovantes, ou plus simplement de la récupération par les #GAFAM des données laissées volontairement ou pas par les migrant·e·s et réfugié∙e∙s durant le parcours migratoire.

    La pandémie #Covid-19 est arrivée à point nommé pour dynamiser les orientations déjà prises, en permettant de tester ou de généraliser des technologies utilisées pour le contrôle des mobilités sans que l’ensemble des droits des exilé·e·s ne soit pris en considération. L’OIM, par exemple, a mis à disposition des Etats sa #Matrice_de_suivi_des_déplacements (#DTM) durant cette période afin de contrôler les « flux migratoires ». De nouvelles technologies au service de vieilles obsessions…

    http://migreurop.org/article3021.html

    Pour télécharger la note :
    migreurop.org/IMG/pdf/note_12_fr.pdf

    #migrations #réfugiés #asile #frontières #mobilité #mobilités #données #technologie #nouvelles_technologies #coronavirus #covid #IOM
    #migreurop

    ping @etraces

    voir aussi :
    Migreurop | Data : la face cachée du contrôle des mobilités
    https://seenthis.net/messages/900232

    • European funds for African IDs: migration regulation tool or privacy risk?

      The first person you meet after you land at Blaise Diagne Airport in Dakar is a border guard with a digital scanner.

      The official will scan your travel document and photograph and take a digital print of your index fingers.

      It’s the most visible sign of the new state-of-the-art digital biometrics system that is being deployed in the airport with the help of EU funding.

      The aim is to combat the increasingly sophisticated fake passports sold by traffickers to refugees.

      But it also helps Senegal’s government learn more about its own citizens.

      And it’s not just here: countries across West Africa are adopting travel documentation that has long been familiar to Europeans.

      Passports, ID cards and visas are all becoming biometric, and a national enrolment scheme is underway.

      In Europe too, there are proposals to create a biometric database of over 400 million foreign nationals, including fingerprints and photographs of their faces.

      The new systems are part of efforts to battle illegal migration from West Africa to the EU.

      ‘Fool-proof’ EU passport online

      Many are still plying the dangerous route across the Sahara and the Mediterranean to reach Europe, but a growing number are turning to the criminal gangs selling forged passports to avoid the treacherous journey over desert and sea.

      There’s a burgeoning market in travel documents advertised as ‘fake but real”.

      Prices vary according to the paperwork: an EU Schengen transit visa costs €5,000, while a longer-stay visa can be twice as high.

      Some forgers have even mastered the ability to incorporate holograms and hack the biometric chips.

      “Morphing” is an image processing technique that merges two people’s photographs into a single new face that appears to contain entirely new biometric data.

      Frontex, the EU’s border guard agency, says 7,000 people were caught trying to enter the Schengen area in 2019 carrying such documents — but it admits the true figure could be much higher.

      Sending migrants back

      Last year, the largest number of travellers with fake documents arrived via Turkish and Moroccan international airports.

      Many were caught in Italy, having arrived via Casablanca from sub-Saharan countries like Ghana, Mali, Nigeria and Senegal.

      A Frontex team responsible for deporting migrants without the correct paperwork was deployed this year at Rome’s Fiumicino Airport.

      It’s the first sign of a new European Commission regulation expanding the agency’s role, which includes access to biometric data held by member states, according to Jane Kilpatrick, a researcher at the civil liberties think-tank Statewatch.

      “The agency’s growing role in the collection of data, it links overtly to the agency’s role in deporting individuals from the EU,” she said.

      Over 490,000 return decisions were issued by member states last year, but only a third were actually sent back to a country outside the EU.

      There are multiple reasons why: some countries, for example, refuse to accept responsibility for people whose identity documents were lost, destroyed or stolen.

      Legally binding readmission agreements are now in place between the EU and 18 other countries to make that process easier.
      There are no records

      But a bigger problem is the fact that many African countries know very little about their own citizens.

      The World Bank estimates the continent is home to roughly half of the estimated one billion people on the planet who are unable to prove their identities.

      An absence of digitisation means that dusty registers are piling up in storage rooms.

      The same goes for many borders: unlike the scene at Dakar’s airport, many are still without internet access, servers, scanners and cameras.

      That, the Commission says, is why EU aid funds are being used to develop biometric identity systems in West African countries.

      The EU Trust Fund for Africa has allotted €60 million to support governments in Senegal and Côte d’Ivoire in modernising their registry systems and creating a national biometric identity database.

      Much of the funding comes through Civipol, a consulting firm attached to France’s interior ministry and part-owned by Milipol, one of the most important arms trade fairs in the world.

      It describes the objective of the programme in Côte d’Ivoire as identifying “people genuinely of Ivorian nationality and organising their return more easily”.
      Data security concerns

      European sources told Euronews that the EU-funded projects in West Africa were not designed to identify potential migrants or deport existing ones.

      A Commission spokesperson insisted no European entity — neither Frontex, nor member states, nor their partners — had access to the databases set up by West African countries.

      But the systems they are funding are intimately connected to anti-migration initiatives.

      One is the Migrant Information and Data Analysis System (MIDAS), a migration database that can send automatic queries to Interpol watchlists to detect travel documents and people possibly linked to organised crime, including human trafficking.

      Connections like these, and the role of French arms giants like Thales in the growing biometric market, has led data protection experts to become worried about possible abuses of privacy.
      World’s newest biometric market

      As Africa becomes the coveted market for biometric identification providers, the watchdog Privacy International has warned it risks becoming a mere testing ground for technologies later deployed elsewhere.

      So far 24 countries on the continent out of 53 have adopted laws and regulations to protect personal data.

      A letter by Privacy International, seen by Euronews, says EU must “ensure they are protecting rights before proceeding with allocating resources and technologies which, in absence of proper oversight, will likely result in fundamental rights abuses.”

      It has published internal documents tracking the development of Senegal’s system that suggest no privacy or data protection impact assessments have been carried out.

      Civipol, the French partner, denies this: it told Euronews that the Senegalese Personal Data Commission took part in the programme and Senegalese law was respected at every stage.

      Yet members of Senegal’s independent Commission of Personal Data (CDP), which is responsible for ensuring personal data is processed correctly, admit implementation and enforcement remained a challenge — even though they are proud of their country’s pioneering role in data governance in Africa.

      For the Senegalese cyber activist Cheick Fall, the charge is more serious: “Senegal has sinned by entrusting the processing of these data to foreign companies.”

      https://www.euronews.com/2021/07/30/european-funds-for-african-ids-migration-regulation-tool-or-privacy-risk

      #biométrie #aéroport #Afrique #étrangers #base_de_données_biométrique #empreintes_digitales #passeports #visas #hologramme #Morphing #image #photographie #Frontex #EU_Trust_Fund_for_Africa #Trust_Fund #Civipol #Milipol #armes #commerce_d'armes #Côte_d’Ivoire #Afrique_de_l'Ouest #Migrant_Information_and_Data_Analysis_System (#MIDAS) #Interpol #Thales #Sénégal #Senegalese_Personal_Data_Commission #Commission_of_Personal_Data (#CDP)

  • Efficacité de la vaccination : Il manque plus de la moitié des décès ! Décoder l’éco

    https://www.youtube.com/watch?v=hLARwm6jqbA

    Le 13 juillet 2021, la DREES, la direction réalisant les statistiques pour le ministère de la santé a sorti une étude récapitulant les données connus des résultats de tests Covid-19 pour les vaccinés et les non-vaccinés en France.
    Cette étude a été complétée le 23 juillet 2021 par une autre étude ajoutant cette fois-ci les données d’hospitalisations et de décès liées à la Covid-19.
    Cette dernière étude est utilisée en ce moment par le gouvernement et les médias pour justifier la politique vaccinale, puisqu’elle affirme notamment que :

    – Les non-vaccinés représentent près de 85 % des entrées hospitalières, que ce soit en hospitalisation conventionnelle ou en soins critiques.
    – Les patients complètement vaccinés comptent pour environ 7 % des admissions, une proportion cinq fois plus faible que celle observée en population générale (35 % en moyenne durant la période d’étude).
    – À tout âge, la part de patients vaccinés entrant à l’hôpital est nettement inférieure à celle qu’ils représentent dans l’ensemble de la population.

    Seulement, comme l’a relevé @NiusMarco sur Twitter et détaillé Patrice Gibertie dans un article, les données utilisées pas la DREES posent un énorme problème : il manque la moitié des décès Covid-19 français. Dans cette vidéo, nous allons détailler les données de l’étude pour comprendre d’où viennent les données, comment la DREES a pu retirer la moitié des décès de son analyse et ce que cela signifie pour les conclusions de l’étude.

    Sources :
    Etude DREES sur les tests : https://solidarites-sante.gouv.fr/IMG/pdf/note_drees_suivi_de_la_crise_sanitaire_.pdf
    Etude DREES sur les hospitalisations / décès : https://solidarites-sante.gouv.fr/IMG/pdf/2021-07-23_-_sivic-sidep-vacsi_premiers_resultats_-_drees-2.p
    Géodes pour les données SIVIC : https://geodes.santepubliquefrance.fr/#c=indicator&view=map2
    Fichier public des personnes décédées : https://www.data.gouv.fr/fr/datasets/fichier-des-personnes-decedees
    Etude anglaise sur la mortalité Covid vaccinés / non vaccinés : https://assets.publishing.service.gov.uk/government/uploads/system/uploads/attachment_data/file/1001354/Variants_of_Concern_VOC_Technical_Briefing_17.pdf
    Données israéliennes sur la mortalité Covid : https://data.gov.il/dataset/covid-19/resource/8a51c65b-f95a-4fb8-bd97-65f47109f41f?filters

    #france #angleterre #israel #DREES, #SIVIC #décès #vaccination #test_pcr #covid-19 #cas_contact #économie #coronavirus #santé #surveillance #confinement #covid #sars-cov-2 #pandémie #contacttracing #france #pass #pass_sanitaire #statistiques #chiffres #data #europe #données

  • Doctolib, un ogre aux bons soins de la macronie – Libération
    https://www.liberation.fr/idees-et-debats/editorial/doctolib-un-ogre-aux-bons-soins-de-la-macronie-20210730_W7IRCLXOVZBC5IJGW

    Doctolib bénéficie d’un monopole inquiétant, qui s’est construit avec l’argent de nos impôts et grâce à une générosité déconcertante de la régulation, couplée à un silence assourdissant de l’Autorité de la concurrence.

    On pourrait bien sûr – si on était doté d’une vision angélique du monde – raconter l’histoire d’une idée française de simple PME privée devenue succès national, celui d’un service en ligne simple et étonnamment stable, reliant enfin patients et médecins de façon efficace, grandissant naturellement jusqu’à une position hégémonique bienveillante et presque involontaire. C’est en tout cas le scénario présenté aux Français non seulement par Doctolib, mais aussi par la macronie qui l’a adopté comme exemple, sinon comme drapeau. Et on pourrait aussi dire la vérité : Doctolib est un monopole inquiétant, qui s’est construit avec l’argent de nos impôts et grâce à une générosité déconcertante de la régulation, couplée à un silence assourdissant de l’Autorité de la concurrence qui regardait ailleurs quand la gentille PME a acheté son principal concurrent.

    Gonflé à bloc par la Banque publique d’investissements, Doctolib a pu effacer la concurrence puis s’envoler vers une valorisation record, entre autres grâce à la décision gouvernementale de lui octroyer de facto l’organisation de la campagne vaccinale, qui a été dirigée dans d’autres pays avec un succès au moins égal par les systèmes d’assurance-maladie locaux. Ceci n’enlève en rien au talent de ses ingénieurs ou au mérite de ses dirigeants, mais laisse les utilisateurs devant le danger grandissant de se retrouver à la merci d’un ogre financier qui peine toujours à trouver la rentabilité.

    Les chiffres sont là : 90 % des docteurs, soignants ou même naturopathes utilisant un service virtuel de rendez-vous sont sous contrat avec Doctolib, et auraient grand peine à le quitter aujourd’hui. N’attendant pas les résultats d’une possible enquête sur sa position dominante, Doctolib profite de son hégémonie pour remplacer non seulement les secrétaires médicales, mais même le cabinet physique du médecin par sa consultation vidéo, offrant aussi le transfert d’ordonnances ou de tout document médical contre les #données des utilisateurs. Il est encore grand temps de démanteler cette hydre avant que le diagnostic ne soit irrémédiable.

    Doctolib, un nouveau monopole sur ordonnance ?
    https://www.liberation.fr/economie/economie-numerique/doctolib-un-nouveau-monopole-sur-ordonnance-20210730_SW6VPUKRWVHMVFW5FK7B

    Désormais incontournable dans la santé, la société chérie de la macronie n’a laissé que des miettes aux concurrents qu’elle n’avait pas encore avalés. Les médecins s’inquiètent mais il est peut-être trop tard.

    Nous sommes le 3 avril 2019. Bien avant la pandémie de Covid-19. #Cédric_O vient tout juste d’être nommé secrétaire d’Etat au Numérique et pour sa première apparition publique, il fait le choix symbolique de se rendre chez Doctolib. Très enjoué, il déambule dans les locaux de la jeune société de prise de rendez-vous médicaux en ligne. Il veille scrupuleusement à saluer tous les employés et tutoie son jeune PDG (34 ans) Stanislas Niox-Château, traduisant une forte proximité entre l’entreprise et le gouvernement. Ce dernier est encore plus souriant que son invité, pour ne pas dire euphorique. Et pour cause. Doctolib vient d’accomplir une levée colossale auprès de General Atlantic, un fonds d’investissement américain : 150 millions d’euros. Ce qui lui a permis d’entrer dans le club des « licornes » françaises, ces start-up valorisées à plus d’un milliard de dollars. Le genre de success-story de la « French Tech » qui plaît en macronie.

    Grâce à ses ingénieurs, l’entreprise a su mettre au point un outil à la fois performant et ergonomique pour mettre en relation médecins et patients et faciliter la prise de rendez-vous en ligne. Doctolib, qui tire ses revenus des abonnements payés par les professionnels de santé pour accéder à ses services, a connu depuis sa fondation en 2013 une ascension fulgurante. Aujourd’hui elle compte 1 700 salariés et collabore avec plus de 120 000 professionnels de santé (dont près de 40 000 médecins). Elle est déjà bien présente en Allemagne où elle participe à la campagne de vaccination et compte 30 000 clients, commence à l’être en Italie et sûrement dans d’autres pays à l’avenir. Et son chiffre d’affaires ? La société ne communique pas là-dessus, mais il peut être estimé à 50 millions d’euros par mois. Malgré cela, elle qui investit énormément dans son développement n’a pas encore atteint la rentabilité.

    La crise sanitaire a accéléré les choses pour la start-up devenue licorne. A la faveur de celle-ci, Doctolib s’est imposée comme un acteur essentiel. La vaccination, la réalisation de tests : tout passe par Doctolib. Quant à la téléconsultation, service que la société a commencé à déployer début 2019 et qui cherchait encore son public, elle a connu un formidable coup de pub avec le confinement.

    « Vous n’êtes plus un client, mais devenez le prestataire de cette entreprise »

    Cette ascension s’est faite avec la bénédiction de l’Etat qui, en tant qu’actionnaire via la Banque publique d’investissement, voit dans la jeune société un fleuron français susceptible de tutoyer un jour les géants mondiaux de la santé numérique. Le marché de l’e-santé est monumental : en octobre 2019 – avant le boom induit par la pandémie de Covid-19 – le cabinet de consulting Frost & Sullivan estimait qu’il atteindrait plus de 230 milliards d’euros d’ici à 2023. De quoi attiser les ambitions de nombreuses start-up qui rêvent de venir talonner les acteurs traditionnels de la santé : Doctolib donc, son équivalent américain ZocDoc, la suédoise Livi, la britannique Babylon Health…

    En attendant de s’imposer sur la planète santé, Doctolib règne de manière hégémonique sur le marché français. En juin 2020, le site internet Le Guide Santé a réalisé une enquête auprès de 81 631 professionnels du secteur abonnés à des services de gestion en ligne des consultations. Plus de 90 % d’entre eux l’étaient à Doctolib… Une position de quasi-monopole donc, qui peut inquiéter. Une enquête de l’Autorité de la concurrence, ouverte après une plainte pour « abus de position dominante » fin 2019 (vraisemblablement déposée par un concurrent) est toujours en cours. Le siège de l’entreprise, à Levallois-Perret, a même été perquisitionné en mai dernier.

    Plusieurs médecins redoutent aussi la montée en puissance de Doctolib. « S’ils sont seuls sur ce marché, ils vous tiennent, et la relation se modifie : vous n’êtes plus un client, mais devenez le prestataire de cette entreprise », pointe le Dr Jérôme Marty, président du syndicat de l’Union française pour une médecine libre (UFML-S). Un des risques lorsqu’une entreprise détient le monopole sur un marché, c’est de faire flamber les prix en dictant sa loi. Nous n’en sommes pas là, mais les services de Doctolib sont déjà les plus onéreux : comptez 129 euros par mois pour la prise de rendez-vous en ligne et 79 supplémentaires pour la téléconsultation. Les concurrents Maiia et Keldoc proposent ces deux mêmes services pour respectivement 149 et 89 euros. Leur problème est surtout leur manque de visibilité par rapport à celle de Doctolib.

    Jean-Paul Hamon de la Fédération des médecins de France (FMF) estime à ce propos que l’Etat « sert la soupe » à Doctolib et que favoriser son hégémonie « ne rend pas service à la santé » : « Il vaut mieux multiplier les solutions pour ne pas être dépendant. » Il faut croire que le gouvernement s’en est rendu compte : en janvier, les challengers Maiia et Keldoc ont été retenus avec Doctolib par les pouvoirs publics pour accompagner l’ouverture de la vaccination au grand public. Dominique Pon, responsable de la transformation numérique au ministère de la Santé, considère que  « même si Doctolib avait une énorme avance d’un point de vue de parts de marché, cela a tout de même permis l’émergence de Keldoc et Maiia ».

    Cette émergence est à relativiser puisque la prise de rendez-vous pour une grande majorité des centres de vaccination (près de 80 %) a été confiée à Doctolib. Mais il faut reconnaître que ses concurrents ont gagné une certaine visibilité, notamment dans certaines villes comme Toulouse pour Keldoc ou Marseille pour Maiia. Le directeur général de Doctolib France lui-même, Arthur Thirion, se réjouit de la croissance de nouveaux acteurs : « Je vois d’un très bon œil l’existence de Maiia, Keldoc, et plein d’autres start-up qui, je l’espère, vont se créer dans le monde médical. Car c’est le fait que l’on soit plus nombreux et qu’il y ait de la compétition qui va nous permettre de nous tirer vers le haut », assure-t-il à Libération. De belles paroles qui en feraient presque oublier comment la licorne qu’il représente est arrivée là où elle en est aujourd’hui.

    Asphyxiés par la stratégie absolutiste

    Si Doctolib salue aujourd’hui sa concurrence, il y a quelques années l’entreprise s’évertuait plutôt à la réduire le plus possible. En 2018, il existait encore quatre acteurs crédibles sur un marché encore naissant (un peu plus de 10 % des praticiens étaient équipés). A l’époque, Doctolib est déjà le leader avec 45 000 clients, mais MonDocteur qui en compte 10 000 n’est pas en reste et peut envisager de concurrencer son rival. La future licorne n’en fera pourtant qu’une bouchée : disposant d’importantes liquidités grâce à deux précédentes levées de fonds, elle rachète MonDocteur au groupe Lagardère pour 60 millions d’euros en juillet 2018.

    Restent alors Docavenue et RDVMédicaux. Ils seront asphyxiés par la stratégie absolutiste de Doctolib. Celle-ci consiste d’abord à démarcher le plus de médecins possible grâce aux nombreux commerciaux que la société emploie (selon une enquête de Télérama l’an dernier, ils représenteraient 80 % des salariés). Ils sont présents dans chaque région de France, appellent les cabinets ou s’y rendent directement, ce qui ne laisse pas vraiment le choix aux praticiens…

    A l’époque, les patients étaient aussi naturellement incités à choisir Doctolib par la « magie » du référencement. En octobre 2018, une fronde emmenée notamment par le docteur Bertrand Legrand se lève contre la société. Cette dernière est accusée de détournement de patientèle. Quand une personne cherchait le nom d’un médecin sur Google, le premier choix était ainsi une page Doctolib le mentionnant, et ce même si ce praticien n’en était pas client. En cliquant dessus, il se retrouvait face à une liste de médecins (eux clients de Doctolib) avec des créneaux de rendez-vous, celui recherché initialement n’y figurant pas. La communauté médicale s’enflamme alors et crie au « Doctolibgate ».

    « C’est quelque chose qui a été corrigé par Doctolib depuis. Mais à l’époque c’était totalement délibéré. Des rubriques spécifiques avaient été faites dans leur code informatique », explique Bertrand Legrand, qui continue d’inspecter régulièrement les pages de Doctolib. Ce médecin généraliste à Tourcoing (Nord) raconte même avoir été appelé par General Atlantic, le fonds d’investissement auprès duquel Doctolib s’apprêtait à lever 150 millions. « Ils voulaient savoir quel était le niveau du contentieux. Je leur avais signalé qu’il y avait un risque pénal qui n’était pas à négliger. » La levée aura tout de même lieu en mars 2019.

    « Les vrais concurrents de Doctolib, ce sont encore les praticiens »

    Un autre événement a fait grincer des dents. L’attribution en 2016 du vaste marché de la prise de rendez-vous en ligne des Hôpitaux de Paris (#AP-HP). Saisie à ce sujet, l’Autorité de la concurrence avait ouvert une instruction (distincte de celle actuellement en cours). Le fondateur de RDVMédicaux, David Bitton, racontait en 2018 dans Le Parisien avoir renoncé à l’époque à l’appel d’offres de l’AP-HP car « il s’agissait de créer une plate-forme propriétaire ». D’autres prestataires proposant de simples agendas de consultation en ligne ne pouvaient alors pas y répondre. Interrogé, David Bitton qui depuis a revendu sa start-up au développeur de logiciels de santé Cegedim et s’est complètement retiré du monde de l’e-santé, a refusé de s’exprimer. Le Dr Bertrand Legrand qui s’est penché sur le sujet à l’époque prétend avoir constaté « un changement de l’appel d’offres en cours de route », qui aurait permis à Doctolib d’y participer.

    « L’appel d’offres a mobilisé six réponses, soit l’ensemble des entreprises proposant des solutions disponibles sur le marché à l’époque, répond-on à l’AP-HP. Doctolib avait dans le rapport d’analyse une note technique et financière largement au-dessus de ses concurrents. Aucun recours par les candidats non retenus n’a été fait. »

    Lorsqu’on évoque l’enquête en cours de l’Autorité de la concurrence, le directeur général de Doctolib France balaie la question : « Pour nous, ce n’est absolument pas un sujet. Doctolib reste une PME française qui fournit un logiciel à destination de praticiens. On évolue dans un secteur où on est face à des acteurs qui sont six à dix fois plus importants et installés que nous. » Rappelons que, par définition, une PME compte moins de 500 salariés. Doctolib en emploie plus du triple et vise le milliard d’euros de chiffre d’affaires.

    On peut toutefois lui donner raison sur un point : sur les quelque 220 000 médecins en activité en France, beaucoup ne sont pas encore abonnés à aucun service de ce type. « Les vrais concurrents de Doctolib, ce sont encore les praticiens qui prennent en consultation libre, usent de leur téléphone ou ont un secrétariat. En réalité, Doctolib ne pèse pas plus de 30 % du marché », analyse le Dr Bertrand Legrand. Mais à l’avenir, la majorité des médecins soucieux de garder et d’étendre leur patientèle seront tentés de s’abonner aux services de la licorne ou à ceux d’un concurrent qui aura résisté au rouleau compresseur. Nous y sommes peut-être déjà : aussi réfractaire qu’il soit, le Dr Jérôme Marty de l’UFML-S est lui-même sur Doctolib.

    #Doctolib #BPI #données_de_santé #santé_publique

    • Florilège des problèmes rencontrés avec doctolib, 8 février 2021, @raqvam
      https://twitter.com/raqvam/status/1358869802744500231

      Y’a @MrLePsy qui pète un plomb sur facebook parce qu’il se fait harceler par @doctolib, ce que ne savent pas les patients c’est que c’est avec de telles pratiques commerciales que doctolib est actuellement leader d’un produit aussi simple qu’un agenda pour les médecins.

      @Doctolib a depuis longtemps des pratiques commerciales douteuses. Gardons à l’esprit que c’est une entreprise privée, chère et qui collecte une quantité de donnée de santé faramineuse.

      (...)

  • Amende de 746 millions d’euros contre Amazon suite à nos plaintes collectives
    https://www.laquadrature.net/2021/07/30/amende-de-746-millions-deuros-contre-amazon-suite-a-nos-plaintes-colle

    Le 16 juillet 2021, l’autorité luxembourgeoise de protection des #Données_personnelles s’est enfin prononcée sur notre plainte collective déposée par 10 000 personnes contre Amazon en mai 2018. Cette décision intervient après trois années de…

    #Non_classé