• Europe’s (digital) borders must fall: End the expansion of the EU’s #EURODAC database

    110 civil society organisations, including Statewatch, are calling for an end to the expansion of EURODAC, the EU database for the registration of asylum-seekers. EURODAC, designed to collect and store migrants’ data, is being transformed into an expansive, violent surveillance tool that will treat people seeking protection as crime suspects This will include children as young as 6 whose fingerprints and facial images will be integrated into the database.

    Europe’s (digital) borders must fall: End the expansion of the EU’s EURODAC database

    EURODAC is being expanded to enforce the EU’s discriminatory and hostile asylum and migration policies: increasing deportations, detention and a broader climate of racialised criminalisation.

    The endless expansion of EURODAC must be stopped: https://edri.org/wp-content/uploads/2021/10/EURODAC-open-letter.pdf.

    What is EURODAC?

    Since its inception in 2003, the EU has repeatedly expanded the scope, size and function of EURODAC.

    Created to implement the Dublin system and record the country responsible for processing asylum claims, it originally stored only limited information, mostly fingerprints, on few categories of people: asylum-seekers and people apprehended irregularly crossing the EU’s borders. From the start, this system has been a means to enforce a discriminatory and harmful deportation regime, premised on a false framework of ‘illegality’ in migration.

    After a first reform in 2013 allowing police to access the database, the EU continues to detach EURODAC from its asylum framework to re-package it as a system pursuing ‘wider immigration purposes’. The changes were announced in 2020 in the EU Migration Pact, the EU’s so-called ‘fresh start on migration’. Rather than a fresh start, the proposals contain the harshest proposals in the history of the EU’s migration policy: more detention, more violence, and a wider, evolved tool of surveillance in the EURODAC database to track, push back and deport ‘irregular’ migrants.
    How is the EURODAC expansion endangering people’s human rights?

    More people included into the database: Concretely EURODAC would collect a vast swathe of personal data (photographs, copies of travel and identity documents, etc.) on a wider range of people: those resettled, relocated, disembarked following search and rescue operations and arrested at borders or within national territories.

    Data collection on children: The reform would also lower the threshold for storing data in the system to the age of six, extend the data retention periods and weaken the conditions for law enforcement consultation of the database.

    Including facial images into the database: The reform also proposes the expansion to include facial images. Comparisons and searches run in the database can be based on facial recognition – a technology notoriously error-prone and unreliable that threatens the essence of dignity, non- discrimination and privacy rights. The database functions as a genuine tool of violence as it authorises the use of coercion against asylum-seekers who refuse to give up their data, such as detention and forced collection. Not only do these changes contradict European data protection standards, they demonstrate how the EU’s institutional racism creates differential standards between migrants and non-migrants.

    Access by law enforcement: EURODAC’s revamp also facilitates its connection to other existing EU migration and police databases as part of the so-called ‘interoperability’ initiative - the creation of an overarching EU information system designed to increase police identity checks of non-EU nationals, leading to increased racial profiling. These measures also unjustly equate asylum seekers with criminals. Lastly, the production of statistics from EURODAC data and other databases is supposed to inform future policymaking on migration movement trends. In reality, it is expected that they will facilitate illegal pushbacks and overpolicing of humanitarian assistance.
    End the expansion of EURODAC

    The EURODAC reform is a gross violation of the right to seek international protection, a chilling conflation of migration and criminality and an out-of-control surveillance instrument. The far- right is already anticipating the next step, calling for the collection of DNA.

    The EURODAC reform is one of many examples of the digitalisation of Fortress Europe. It is inconsistent with fundamental rights and will undermine frameworks of protection and rights of people on the move.

    We demand:

    – That the EU institutions immediately reject the expansion of EURODAC.
    - For legislators to prevent further violence and ensure protection at and within borders when rethinking the EURODAC system.
    - For legislators and EU Member States to establish safe and regular pathways for migrants and protective reception conditions.

    https://www.statewatch.org/news/2023/december/europe-s-digital-borders-must-fall-end-the-expansion-of-the-eu-s-eurodac
    #base_de_données #surveillance #frontières #frontières_digitales #migrations #asile #réfugiés #Dublin #règlement_Dublin #données_personnelles #reconnaissance_faciale #technologie

  • Comment la CAF a traité mon dossier avec un « robot à dettes » | Le Club
    https://blogs.mediapart.fr/lucieinland/blog/150421/comment-la-caf-traite-mon-dossier-avec-un-robot-dettes

    26 mars, appel de la CAF. Le conseiller confirme que c’est bien « le logiciel » qui a traité mon dossier selon certains paramètres. Jugé trop complexe depuis la déclaration de création de micro-entreprise, il a été remis à zéro puis re-traité, d’où la demande de documents. Malgré mes questions je n’ai pas compris pourquoi seule ma situation d’auto-entrepreneuse est retenue, bien qu’aussi salariée, avec les déclarations de revenus adéquates. Le mail notifiant ma dette a été envoyé dès que l’algorithme a détecté une erreur dans mon dossier. La machine menace d’abord, les humain·es vérifient ensuite. Seul mon mail a permis à la CAF de classer vite et correctement mon dossier. Et ce sont bien leurs outils automatisés qui m’ont mis en difficulté.

  • ENQUETE. Idemia : la face cachée de la société qui fabrique notre carte Vitale
    https://www.francetvinfo.fr/sciences/high-tech/enquete-idemia-la-face-cachee-de-la-societe-qui-fabrique-notre-carte-vi


    Portrait du suspect (gauche) et celui de Nijeer Parks (droite), capture d’écran d’une vidéo CNN Business (Youtube). (AUCUN)


    Démonstration de l’utilisation d’un kit d’enregistrement biométrique des électeurs (BVR) à Kasarani, Nairobi, le 6 novembre 2012. (SIMON MAINA / AFP)


    Une femme kényane regarde une caméra biométrique, collecte de données générant un numéro unique qui permet d’accéder aux services gouvernementaux. (SIMON MAINA / AFP)

    Spécialisée dans les technologies de l’identité biométrique, l’entreprise Idemia accumule les déboires en France et à l’étranger. (JOHN LUND / GETTYIMAGES)

    –---

    Le leader français de l’identité biométrique, Idemia, est notamment connu pour fabriquer la carte Vitale française. Mais ces dernières années, il a rencontré de nombreux déboires : sanction du PNF, incarcération abusive après une erreur de son algorithme et annulation d’une élection au Kenya.

    Quand Nijeer Parks répond à l’appel de sa grand-mère, en ce jour de janvier 2019, rien ne pouvait le préparer à ce qui allait suivre. À l’époque, ce charpentier afro-américain de 28 ans mène une vie rangée dans le New Jersey, dans le nord-est des États-Unis. Sa grand-mère lui apprend alors qu’il est recherché par la police de Woodbridge, une ville située à 30 kilomètres de son domicile. Il est accusé de vol à l’étalage et de tentative d’homicide contre un policier.

    >> ENQUETE. Quand le ministère de la Santé retoque deux campagnes de prévention sur l’alcool

    Les faits se sont déroulés à Woodbridge. Mais Nijeer Parks n’y a jamais mis les pieds. Il n’a même aucune idée d’où se trouve cette ville. Il décide donc de se rendre au commissariat pour lever le malentendu et prouver son innocence. Mais rien ne se passe comme prévu : malgré ses explications, Nijeer Parks se retrouve menotté dans une salle d’interrogatoire. Ce qu’il ignore encore, c’est qu’il est victime d’un faux positif produit par un algorithme de reconnaissance faciale fourni par la société française Idemia. Celle-là même qui fabrique les cartes Vitales en France. Une erreur d’identification d’un logiciel couplé à une enquête bâclée. « Ils ont ignoré toutes les preuves qui pouvaient l’innocenter, déplore Daniel Sexton, l’avocat de Nijeer Parks. Ils avaient des empreintes digitales, des traces d’ADN, des images de vidéo-surveillance… Mais comme ils ont eu ce résultat de reconnaissance faciale, ils ont juste ignoré le reste ».

    Selon l’avocat, le procureur avait connaissance de ces manquements de la police. Il requerra pourtant une peine de 20 ans à l’encontre de Nijeer Parks, évoquant ses antécédents judiciaires. Plus jeune, Parks avait été impliqué dans une affaire de possession et de vente de substances illicites.
    Des machines imparfaites

    Les charges seront finalement abandonnées en novembre 2019, compte tenu des preuves présentées devant la cour par la défense. Au moment des faits, Nijeer Parks était en train d’effectuer un transfert d’argent dans une agence Western Union à des kilomètres de Woodbridge. Il aura tout de même passé 13 jours derrière les barreaux pour un délit qu’il n’avait pas commis, et il déposera plainte contre la police.

    « Ils ont fait confiance au logiciel. Sauf que le logiciel n’était pas fiable. C’est un problème que l’on voit dans toutes les affaires d’arrestations injustifiées que nous connaissons, explique Nate Wessler, responsable des questions liées à la vie privée et aux technologies pour l’Union américaine pour les libertés civiles (ACLU). Les gens supposent que ces machines sont plus précises et intelligentes qu’un humain. Sauf que ce sont des programmes informatiques créés par des humains, entraînés sur des données imparfaites et qui font souvent des erreurs ».
    Portrait du suspect (gauche) et celui de Nijeer Parks (droite), capture d’écran d’une vidéo CNN Business (Youtube). (AUCUN)
    Portrait du suspect (gauche) et celui de Nijeer Parks (droite), capture d’écran d’une vidéo CNN Business (Youtube). (AUCUN)

    Interrogé sur cette affaire, Idemia n’a pas souhaité répondre, la société n’étant pas poursuivie par Nijeer Parks. Elle a néanmoins précisé que ses équipes travaillaient activement pour « améliorer l’équité des algorithmes d’intelligence artificielle » et rappelle que ses technologies sont « à la première place au test d’équité pour la détection de fausses correspondances », réalisé par l’Institut national américain des normes et de la technologie, le NIST.

    L’histoire d’Idemia démarre dans les années 1970, en Afrique de l’Ouest sous son nom originel : Morpho. C’est dans les anciennes colonies françaises que l’entreprise, alors une émanation de la Caisse des dépôts et consignations (CDC), développe des solutions de biométrie pour aider à la création d’états-civils inexistants ou imparfaits dans ces pays nouvellement indépendants. « Il fallait trouver un critère physique permettant d’assurer la construction d’un état-civil, se souvient Bernard Didier, fondateur de Morpho. Ils ont pensé que l’empreinte digitale pourrait être un bon moyen de le faire ».

    Mais le marché n’est pas rentable. En dépit des millions d’euros injectés dans le projet par la CDC, les contrats africains ne rapportent pas assez. « C’était un marché insolvable, regrette Bernard Didier. Les États n’avaient pas l’argent nécessaire au financement des équipements de très haute technologie. Nous nous sommes donc rabattus sur des activités de police scientifique. Parce que les polices du monde entier cherchaient des solutions pour les collections d’empreintes digitales ». Le marché « sécurité » devient donc prioritaire. Il conduit la société à démarcher aux États-Unis. À partir des années 1980, elle y signe plusieurs contrats, avec des villes moyennes comme Tacoma, au sud de Seattle, mais aussi la ville puis l’État de New York, et même le FBI en 2009, à qui elle fournit un logiciel de reconnaissance d’empreintes digitales.

    Appareil de reconnaissance digitale, capture d’écran d’une vidéo promotionnelle Idemia, Vimeo, septembre 2023. (AUCUN)
    Appareil de reconnaissance digitale, capture d’écran d’une vidéo promotionnelle Idemia, Vimeo, septembre 2023. (AUCUN)

    Le succès est au rendez-vous. Mais la Caisse des dépôts décide de se séparer de Morpho en 1993. Elle vend la société pour un euro symbolique à Sagem, une entreprise française alors spécialisée dans les télécommunications. S’en suivent un certain nombre de fusions et de rachats. En 2005, Sagem devient Safran. Morpho est rebaptisée plusieurs fois. Puis, en 2017, Safran vend sa filiale biométrique au fonds d’investissement américain Advent, qui la fusionne avec une autre entreprise française : Oberthur Technologies, imprimeur high-tech et spécialiste en sécurité numérique. De là, naît Idemia, qui est aujourd’hui considérée comme une des entreprises leader dans le secteur « identité et sécurité », aux côtés de Thalès.
    Une amende de huit millions d’euros

    Mais la suite ne sera pas de tout repos. En 2017, le parquet national financier (PNF) reçoit un signalement de la National Crime Agency britannique. Il met sur pied une équipe pour enquêter avec elle. Leurs investigations mettront au jour un schéma de corruption : afin d’obtenir le marché des cartes d’identité à puce au Bangladesh, entre 2014 et 2016, Oberthur aurait surfacturé des prestations pour rémunérer un intermédiaire. Selon le PNF, il s’agissait d’"un apporteur d’affaires influent en Asie dans le secteur de l’identité, disposant de connexions avec l’autorité publique du Bangladesh".

    Les enquêteurs du PNF ont retrouvé la trace d’un virement de 730 000 euros entre Oberthur et l’une des sociétés sous-traitantes. Ce paiement devait permettre de rémunérer un agent public bangladais, qui a joué un rôle dans l’attribution de ce marché. Résultat : Idemia (qui de fait a succédé à Oberthur) accepte de signer une convention judiciaire d’intérêt public avec le PNF en 2022. La société payera une amende de près de huit millions d’euros pour éviter un procès. Une partie de ses services sera interdite de concourir à des appels d’offres de la Banque mondiale pendant deux ans et demi. Un coup dur, car c’était un bailleur important pour l’entreprise, notamment pour ses marchés en Afrique.

    Selon une enquête réalisée sur le marché de la biométrie électorale en Afrique par Marielle Debos et Guillaume Desgranges, tous les deux chercheurs à l’université Paris-Nanterre, Idemia fait en effet partie de ces acteurs français qui dominent le marché sur ce continent. En 2020, ils ont recensé au moins huit pays ayant utilisé ses technologies dans le cadre de scrutins électoraux.
    Présence d’Idemia (M) pour chaque recensement biométrique électoral et corrélation entre nationalité des entreprises et ancienne puissance coloniale. (MARIELLE DEBOS ET GUILLAUME DESGRANGES, POUR AFRIQUEXXI)
    Présence d’Idemia (M) pour chaque recensement biométrique électoral et corrélation entre nationalité des entreprises et ancienne puissance coloniale. (MARIELLE DEBOS ET GUILLAUME DESGRANGES, POUR AFRIQUEXXI)

    Mais la médaille a un revers. En Côte d’Ivoire, le scrutin présidentiel de 2010, organisé avec l’aide d’Idemia - Safran, à l’époque - a été le plus cher jamais organisé en Afrique. « Il a battu tous les records avec un coût de quasiment 57 dollars par électeur, dont 46 pour la biométrie, explique Marielle Debos. La facture a atteint des sommes astronomiques en raison des retards pris par le projet. L’entreprise a réclamé 246 millions d’euros à l’État ivoirien ». Idemia justifie cette facture par le périmètre de la mission qui lui avait été confiée : « Il s’agissait d’une intervention qui va bien au-delà de l’organisation de l’élection. Il s’agissait également de procéder au recensement des populations ».

    Cet épisode ne va cependant pas ternir l’image de l’entreprise, puisqu’elle signe de nouveaux contrats en Afrique dans la décennie qui suit, notamment au Kenya. En 2017, le pays prépare son élection présidentielle. Il souhaite s’équiper d’une technologie biométrique. Une démarche motivée par le souvenir douloureux des événements qui ont suivi les élections générales, dix ans plus tôt : « En 2007, suite à des contestations électorales, un certain nombre de violences ont conduit à la mort de quasiment 1 500 personnes en un mois et à plusieurs centaines de milliers de déplacés », précise Tomas Statius, journaliste au média à but non-lucratif Lighthouse Reports.
    Une élection annulée

    Dans l’espoir de ne pas reproduire les erreurs du passé, le Kenya décide donc de faire confiance à la technologie d’Idemia. La société française fournit un système d’inscription biométrique des électeurs, couplé à 45 000 tablettes permettant leur authentification le jour du scrutin. Ces tablettes peuvent également transmettre des formulaires comprenant les résultats de chaque bureau de vote, après leur décompte.

    Mais dans les mois qui précèdent le scrutin, la commission électorale kényane s’inquiète. Les comptes-rendus de ses réunions, obtenus par Lighthouse Reports et le média d’investigation Africa Uncensored, révèlent « à la fois une impréparation des autorités kényanes, mais aussi de l’entreprise française, affirme Tomas Statius. Plusieurs commissaires électoraux kényans considèrent que le contrat a été signé à la hâte. Ils constatent aussi un certain nombre de dysfonctionnements durant les tests réalisés avant les élections ».
    Démonstration de l’utilisation d’un kit d’enregistrement biométrique des électeurs (BVR) à Kasarani, Nairobi, le 6 novembre 2012. (SIMON MAINA / AFP)
    Démonstration de l’utilisation d’un kit d’enregistrement biométrique des électeurs (BVR) à Kasarani, Nairobi, le 6 novembre 2012. (SIMON MAINA / AFP)

    Le jour du scrutin, ces craintes deviennent réalité : « Ce sont d’abord des pannes, avec des tablettes qui n’ont pas assez de batterie pour fonctionner, poursuit Tomas Statius. Des problèmes d’internet évidemment, de 4G qui ne fonctionne pas. Il y a aussi des problèmes de lecture des résultats ». Tous ces dysfonctionnements conduiront la Cour suprême kényane à annuler l’élection. Les Kényans retourneront aux urnes deux mois plus tard. Comme la première fois, le président sortant, Uhuru Kenyatta, remportera l’élection, mais avec 98% des votes. Et il sera le seul candidat, l’opposant Raila Odinga ayant décidé de ne pas se représenter.

    Dans sa réponse à la Cellule Investigation de Radio France, Idemia se félicite « d’avoir pu remplir avec succès ses engagements en faveur de la démocratie kényane, et réaffirme humblement aujourd’hui à quel point il peut considérer positivement le résultat des deux élections de 2017 » malgré un « contexte difficile ».

    Cet échec ne va d’ailleurs pas l’empêcher de participer au programme de carte d’identité biométrique lancée par le gouvernement kényan l’année suivante. L’objectif était de créer un numéro d’identification unique pour chaque citoyen. L’idée, c’était de permettre, par la suite, d’accéder aux services de l’État via cet identifiant, lié aux données biométriques de la personne. Ce conditionnement d’accès aux services de l’État inquiète cependant une minorité ethnique dans le pays : les Nubiens. « La base de données se voulait être le seul outil permettant de vérifier une identité, explique Yassah Musa, responsable de l’ONG Nubian Rights Forum. Mais pour y être enregistré, il fallait présenter des documents tels qu’un certificat de naissance, une carte d’identité, un permis de conduire ou un passeport. Or, la communauté nubienne n’a toujours pas accès à ces documents officiels ».
    Une femme kényane regarde une caméra biométrique, collecte de données générant un numéro unique qui permet d’accéder aux services gouvernementaux. (SIMON MAINA / AFP)
    Une femme kényane regarde une caméra biométrique, collecte de données générant un numéro unique qui permet d’accéder aux services gouvernementaux. (SIMON MAINA / AFP)

    En 2020, saisie par l’association Nubian Rights Forum, la Haute cour du Kenya reconnaît l’existence d’un risque d’exclusion : « Cela peut être le cas pour ceux qui n’ont pas de documents d’identité, ni de données biométriques, telles que les empreintes digitales. Nous pensons donc qu’une partie de la population risquerait d’être discriminée », peut-on lire dans sa décision. En 2021, la Haute cour suspendra ce système d’identité biométrique. De son côté, le Parlement kényan essaye d’interdire Idemia de tout contrat dans le pays pendant dix ans. Une décision qui sera finalement annulée par la Haute cour du Kenya.

    Mais Idemia n’en a pas fini avec ce pays. En septembre 2022, l’ONG Data Rights, aux côtés d’autres associations notamment kényanes, a déposé une plainte auprès de la Commission nationale de l’informatique et des libertés (Cnil) en France. Lors du scrutin kényan, les données des votes des électeurs ont, en effet, été hébergées sur des serveurs européens. Or, en opérant à l’étranger, l’entreprise transporte avec elle ses responsabilités en matière de protection des données en Europe. Celles-ci ont-elles été suffisamment protégées, comme l’exige le RGPD, le règlement européen de protection des données ? C’est là-dessus que la Cnil va devoir se prononcer.

  • Projet de loi SREN et accès au porno : identifier les internautes ne résoudra rien
    https://www.laquadrature.net/2023/09/19/projet-de-loi-sren-et-acces-au-porno-identifier-les-internautes-ne-res

    Article co-écrit par La Quadrature du Net et Act Up-Paris. Parmi les nombreuses mesures du projet de loi visant à sécuriser et réguler l’espace numérique (« SREN » ou « Espace numérique ») figurent deux articles qui renforcent le contrôle…

    #Censure #Données_personnelles

  • Règlement CSAR : la #Surveillance de nos communications se joue maintenant à Bruxelles
    https://www.laquadrature.net/2023/09/18/reglement-csar-la-surveillance-de-nos-communications-se-joue-maintenan

    Il y a un peu plus d’un an, la Commission européenne proposait l’un des pires textes jamais pensés sur le numérique : le règlement CSAR, également appelé « Chat control ». Affichant l’objectif de lutter contre les…

    #Données_personnelles

    • Le cheval de Troie de la Commission : vers la fin du chiffrement

      En affichant l’objectif de protéger les enfants, l’Union européenne tente en réalité d’introduire une capacité de contrôle gigantesque de l’ensemble des vies numériques, concrétisant le rêve de surveillance de tout gouvernement. Ce texte a fait l’objet de tant de réactions qu’EDRi se demande si le CSAR ne serait pas la loi européenne la plus critiquée de tous les temps. Les critiques contre ce texte viennent des institutions européennes elles-mêmes, mais aussi d’organisations de défense des enfants en passant par les acteurs de la tech, ainsi que de scientifiques et chercheur·es où 465 d’entre eux ont signé une lettre contre cette proposition. Et à raison.

      Sur le plan technique, il faut comprendre que les injonctions de détections obligent les fournisseurs à analyser toutes les communications de l’ensemble des utilisateur·ices des services concernés. Et puisque les messages sont alors analysés avant d’être envoyés à leurs destinataires, cela supprime non seulement toute confidentialité mais cela rendra également inutile toute technique de chiffrement appliquée ultérieurement, c’est-à-dire une fois que le message à quitté l’appareil de l’utilisateur·ice. L’objectif premier du chiffrement est d’empêcher un tiers de lire le message. Le CSAR vise pourtant précisément à permettre une telle lecture tierce. De même, la recherche de photo ou vidéo « inconnue » est totalement inacceptable. En pratique, le risque de « faux positifs » est énorme et cela signifie que pourraient faire l’objet d’une alerte des contenus tout à fait légitimes tels le corps d’adulte d’apparence trop juvénile, une photo d’enfant envoyée dans un cadre familial ou encore des ados échangeant de façon consentante.

      Enfin, appliqué au cas particulier de la détection de contenus pédopornographiques, envisager la constitution et l’utilisation d’une telle base de données ne prend pas en compte la réalité des humains devant la manipuler, l’alimenter, et qui seront confrontés à des contenus difficiles quotidiennement. Sans parler du fait que les images des enfants victimes seront conservées pour « améliorer » l’efficacité de ces outils.

      Non seulement le CSAR crée des obligations disproportionnées et implique des techniques extrêmement intrusives, mais surtout ces mesures sont loin d’être pertinentes pour atteindre l’objectif crucial de protection des enfants et de lutte contre les abus sexuels. En effet, aucune étude sérieuse n’a été fournie sur l’adéquation, la fiabilité ou la pertinence de telles mesures extrêmement intrusives. Au contraire, il a été révélé par l’association allemande Gesellschaft für Freiheitsrechte que la Commission fondait sa proposition sur les seules allégations de l’industrie, particulièrement la fondation Thorn et Meta, pour justifier ce projet de règlement. Des institutions policières et judiciaires, comme en Allemagne par exemple, ont elles aussi exprimé leurs réserves sur l’utilité de ces dispositifs pour leurs enquêtes dès lors que cela ne répond pas aux problématiques qu’ils rencontrent au quotidien.

      Par ailleurs, depuis le début de la campagne contre ce texte, beaucoup de ressources ont été produites pour démontrer que la protection des enfants contre les abus passait principalement par des politiques de prévention ou d’éducation et que toute éventuelle réponse pénale devait être encadrée par des mesures ciblées et fondées sur des preuves tangibles. Comment a-t-on pu alors en arriver là ?

      La tentation autoritaire des États

      Cette proposition législative est une solution largement conçue par l’industrie, et ensuite généralisée par les élites politiques qui illustrent ainsi une nouvelle fois leur absurde propension au « solutionnisme technologique » et au renforcement de la surveillance numérique. Pour rendre acceptable ces mesures de surveillance, elles affichent un objectif qui fait l’unanimité. Mais tout le monde sait que la stratégie consiste avant tout à affaiblir le niveau de sécurité et de confidentialité des communications numériques. Depuis les crypto-wars des années 1990, un certain nombre d’États affirment que les technologies protégeant la vie privée, et principalement le chiffrement des communications, sont un obstacle aux enquêtes policières. De fait, ces technologies sont conçues pour cela, puisque c’est à cette condition qu’elle garantissent à toutes et tous la possibilité de contrôler nos modes d’expression et de communication. L’une des plus importantes conséquences des révélations du lanceur d’alerte de la NSA Edward Snowden, il y a dix ans, fut justement une démocratisation de la pratique du chiffrement et, à l’époque, l’établissement d’un relatif consensus en faveur du droit au chiffrement au plan institutionnel. Mais police et gouvernements sont gênés, et l’on assiste depuis plusieurs années au retour de positionnements autoritaires de dirigeants prenant tour à tour l’excuse du terrorisme, de la criminalité organisée et de la pédopornographie pour obtenir sa remise en cause.

      En France, aussi bien Bernard Cazeneuve qu’Emmanuel Macron ont déjà affirmé leur volonté de contrôler les messageries chiffrées, rêvant ainsi de percer l’intimité des millions de personnes qui les utilisent. Au cours d’une audition devant le Sénat le 5 avril dernier, Gérald Darmanin a expressément demandé pouvoir casser le chiffrement des militant·es écologistes et de « l’ultragauche », qui auraient une « culture du clandestin ». Aussi avons-nous récemment exposé comment, dans l’affaire dite du « 8 décembre », les services de renseignement et de police ont construit une narration similaire autour de l’utilisation d’outils respectueux de la vie privée par les personnes inculpées (Signal, Tor, Tails…), afin de dessiner le portrait de personnes criminelles ayant des choses à cacher ou la volonté de fuir la police. Au niveau européen, des fuites ont révélé l’intention de plusieurs États de réduire le niveau de sécurité du chiffrement de bout-en-bout, tels que l’Espagne qui veut tout simplement y mettre fin.

      Le règlement CSAR s’inscrit dans cette continuité et constitue une opportunité parfaite pour les États membres pour enfin concevoir et généraliser un outil de surveillance des échanges de la population et ainsi mettre fin aux obstacles posés par les services trop protecteurs de la vie privée. Mais passer ce cap, c’est supprimer toute confidentialité des communications qui passeraient par des infrastructures numériques. L’intégrité et la sécurité de ces dernières ne pourraient alors plus jamais être garanties dès lors que cette « porte dérobée » existe. C’est créer des occasions, aussi bien pour les États que les acteurs malveillants, de détourner et d’abuser de cette capacité d’entrer dans les téléphones et ordinateurs de la population. Enfin, c’est ouvrir une brèche, un espace à surveiller qui n’existait pas auparavant, et qui sera nécessairement étendu dans le futur par de nouvelles législations pour repérer d’autres types de contenus.

      Ce risque est dénoncé par des services tels que Signal, Proton ou Matrix, qui proposent des communications chiffrées de bout-en-bout et sécurisées — et promettent donc une confidentialité presque intégrale. Cette proposition viendrait casser leur promesse en les obligeant à analyser les contenus et à créer une vulnérabilité dans leurs technologies. Ce risque a également été récemment dénoncé par Apple : pour justifier la fin de l’analyse des contenus hébergés sur iCloud, l’entreprise expliquait que la technologie utilisée est trop dangereuse en termes de sécurité et de respect de la vie privée.

      En Grande-Bretagne, où est actuellement discuté un projet de loi similaire, le Online Safety Bill, Signal et Whatsapp ont menacé de supprimer leur service du pays si ce texte venait à passer. Face à cette fronde, les Britanniques ont très récemment annoncé suspendre la mise en œuvre de cette mesure au regard de l’infaisabilité à ce stade de protéger le chiffrement de bout-en-bout. Cependant, la mesure est toujours dans la loi et pourrait donc être applicable un jour. À Londres comme à Bruxelles, la bataille est loin d’être finie.

      Refuser et agir

      Il est donc urgent d’agir pour arrêter cette nouvelle initiative qui créerait un grave précédent et donnerait aux États une légitimité pour pousser toujours plus loin l’intrusion dans les communications. Mais les discussions avancent vite à Bruxelles. D’un coté, le Conseil, organe regroupant les gouvernements des États membres, doit publier sa position sur ce texte d’ici fin septembre. Celle-ci s’annonce très mauvaise, poussée par plusieurs États – France en tête. Certains États comme l’Allemagne ou l’Autriche auraient néanmoins exprimé des réserves quand à l’incompatibilité de cette dernière version par rapport à leur propre position officielle. Une lettre ouverte a été signée le 13 septembre par plus de 80 organisations, dont La Quadrature, pour que les États membres n’adoptent pas le CSAR dans sa version actuelle.

      De l’autre coté, le Parlement européen devra également adopter sa version du texte, d’abord en commission en octobre puis en novembre en séance plénière. Si beaucoup d’eurodéputé·es s’opposent au texte, cela ne suffira sans doute pas à bloquer son adoption. Pour agir, nous vous invitons à rejoindre la campagne « Stop Scanning me » menée par une coalition d’organisations et à partager le plus possible les informations sur la mobilisation en cours2. Vous pouvez également appeler des parlementaires européens pour les inviter à rejeter ce texte.

      #surveillance-généralisée

  • Projet de loi SREN : le gouvernement sourd à la réalité d’internet
    https://www.laquadrature.net/2023/09/12/projet-de-loi-sren-le-gouvernement-sourd-a-la-realite-dinternet

    Le projet de loi visant à sécuriser et réguler l’espace numérique (aussi appelé « SREN » ou « Espace numérique ») est actuellement en discussion à l’Assemblée nationale, après avoir été voté en juillet dernier au Sénat. Ce texte,…

    #Censure #Données_personnelles

  • Un vol massif de données personnelles à Pôle emploi, six millions d’inscrits pourraient être concernés - Le Parisien
    https://www.leparisien.fr/economie/six-millions-de-personnes-pourraient-etre-concernees-par-un-vol-de-donnee

    Nom, prénom, numéro de Sécurité sociale… Un nouvel « acte de cybermalvaillance » a touché l’opérateur, via l’un de ses prestataires. Il pourrait concerner les données de six millions de demandeurs d’emploi. La direction de Pôle emploi va porter plainte.

    La CNIL va-t-elle enquêter ? A qui va-t-on ponctionner 4% du chiffre d’affaires annuel ?

    • les [ex] chômeurs volés seront-ils prévenus ?

      il est conseillé aux demandeurs d’emploi « de rester vigilants face à tout type de démarche ou proposition qui pourrait paraître frauduleuse. » Ils seront informés individuellement, assure encore la direction. Un appui sera également disponible via la plateforme téléphonique 39 49 afin d’accompagner ceux qui auraient des interrogations en lien avec le sujet. »

      Qui est touché ? « Cela pourrait, selon le prestataire, concerner 10 millions de personnes, c’est-à-dire celles inscrites à Pôle emploi en février 2022 et celles en cessation d’inscription depuis moins de 12 mois à cette date-là », nous détaille la direction de Pôle emploi. Soit respectivement 6 et 4 millions. Et d’ajouter : « Il y a parfois des décalages dans le temps dans la transmission des documents, ce qui explique que les personnes en cessation d’inscription apparaissent dans ce fichier ».

    • Des données personnelles de dix millions de demandeurs d’emploi dérobées
      https://www.lemonde.fr/pixels/article/2023/08/24/des-donnees-personnelles-de-dix-millions-de-demandeurs-d-emploi-derobees_618

      Des données personnelles d’environ dix millions de personnes inscrites à Pôle emploi ont été dérobées après un « acte de cyber-malveillance », a annoncé l’établissement public ce 23 août. D’après les informations du Parisien, Majorel, spécialiste de la relation client à qui est sous-traitée la numérisation de documents envoyés par les demandeurs d’emploi, a ainsi été touché par un vol de données.

      Ah, finalement, +4 millions. Ça doit être l’inflation qui commence à baisser à l’approche du pic de la hausse.

    • https://www.ladepeche.fr/2023/08/25/piratage-informatique-massif-les-donnees-de-10-millions-de-demandeurs-demp
      J’adore l’image du #darkweb par ladepeche


      Un source code html pour un login/password classique sur un mac mais ça fait peur, c’est avec vue sur fond noir.

      On conseillera aux chômeurs inscrits à pôle emploi de changer rapidement de date de naissance, de nom de famille ou de numéro de portable, voire de déménager très vite.

    • Je vois pas trop le sens de cette arnaque puisque ces données sont en accès libre sur le site de Pôle-emploi. Suffit de se faire passer pour un employeur pour accéder aux coordonnées des chômeureuses.

      https://www.pole-emploi.fr/candidat/soyez-vigilants/acte-de-cyber-malveillance-soyez.html

      Suite à un acte de cyber malveillance dont l’un de nos prestataires a été victime, des informations personnelles vous concernant sont susceptibles d’être divulguées.
      Vos nom et prénom, votre statut actuel ou ancien de demandeur d’emploi ainsi que votre numéro de sécurité sociale pourraient être concernés.
      Vos adresses e-mail, numéros de téléphone, mots de passe et coordonnées bancaires ne sont en revanche pas concernés.

    • Vols de données des privés d’emploi inscrits à Pôle emploi : que chacun prenne ses responsabilités
      https://snjcgt.fr/2023/08/24/vols-de-donnees-des-prives-demploi-inscrits-a-pole-emploi-que-chacun-prenne-s


      Cette situation qui s’était déjà produite, à moindre échelle, en 2021 est révélatrice des choix politiques de Pôle Emploi et de l’État pour l’ensemble des services publics : sous-traitance généralisée et dématérialisation quasi-intégrale imposées tant aux privé·es d’emploi qu’aux conseiller·es, sont les résultats des politiques d’austérité budgétaire des gouvernements successifs.

      Pour la CGT, cette numérisation à marche forcée au seul service de la diminution des coûts et la mise en concurrence d’acteurs privés induisent une perte de contrôle concernant les outils pouvant garantir la sécurité des données. La #CGT revendique de développer la numérisation en utilisant les compétences des services internes, seuls capables de définir une politique de #cybersécurité et de développement de services numériques et de matériels adaptés aux besoins des usagers.

      Avec la création imposée de #France_Travail et la multiplication des intervenants, prestataires, les échanges de données et d’accès aux dossiers vont s’intensifier faisant de la sécurisation des données un point crucial. D’autant plus important concernant France Travail Handicap qui possédera des données sensibles sur l’état de santé des travailleur·ses inscrit·es.

      La CGT rappelle que récemment une entreprise d’intérim, également prestataire de Pôle Emploi, s’est fait pirater ses données et plusieurs centaines de personnes ont été victimes de prélèvements frauduleux. Aujourd’hui, la CGT est à leurs côtés dans leurs démarches judiciaires.

      La CGT et son comité national des travailleurs précaires et privés d’emploi seront très vigilants sur les suites données et les préjudices subis par les usagers de Pôle Emploi.

    • 11,4 millions d’utilisateurs de Pôle Emploi dans les mains de plusieurs pirates ? Damien Bancal, ZATAZ.COM, Gendarme réserviste
      https://www.zataz.com/114-millions-dutilisateurs-de-pole-emploi-dans-les-mains-de-plusieurs-pirates

      Mais qui est ce pirate ?

      Le groupe Clop qui a mis à mal le prestataire de services de données externe Majorel, il y a plusieurs semaines, via la faille MOVEit ? La banque ING, par exemple, avait alerté le passage des pirates chez son prestataire Majorel. Même alerte pour Deutsche Bank et Commerzbank. ClOp s’était invité via la faille MOVEIt pour mettre la main sur des données que les banques avaient transmises à Majorel. Cela pourrait être logique, Pôle Emploi parlant d’une infiltration datant de la semaine du 17 août. [les infiltrations de Cl0P ne cessent d’être révélées par les pirates eux-mêmes depuis des semaines.]

      Le pirate diffuse aussi la géolocalisation (sous forme de Longitude/Latitude) des personnes présentes dans l’un des fichiers volé.
      Ou alors, il s’agit d’un autre pirate que ZATAZ a croisé, début août, sur plusieurs blackmarket.

      Rien qu’une tarte !

      Ce pirate, un commerçant malveillant que je baptiserai « Rien qu’une tarte » [PieWithNothing]. Un spécialiste malveillant très connu dans la vente de base de données. Il officiait déjà dans différents forums pirates, dont certains fermés par les autorités tels que Raid Forum ou encore Breached.

      Le 8 août 2023, soit une semaine avant la cyber attaque annoncée par Pôle Emploi, Tarte commercialisait pour 900$ deux fichiers Pôle Emploi. Le premier de 1,2 million de personnes (2021). Le second, 10,2 millions d’enregistrements datant de 2022. Le pirate parle de données comprenant : nom complet, âge, téléphone portable, e-mail, commune, code postal, NIR, RCI, niveau de formation, expérience, permis de conduire, disponibilité d’une voiture, emploi souhaité, géolocalisation, Date. Soit 11,4 millions de données. Il n’y a pas de numéro de sécurité sociale dans cette seconde fuite (2022), mais les téléphones, les adresses électroniques, Etc. Les NIR sont dans la première base de données (2021).

      Et ce n’est pas une nouveauté ! Le même pirate avait diffusé, en 2021, sur le site Raid Forum, une base de données de 1,2 million de personnes provenant déjà de Pôle Emploi. A l’époque, il vendait cette BDD 1 200$. Il s’agit de la première BDD de la vente d’août 2023.

      Pôle emploi a tenu à souligner qu’il n’y avait « aucun risque sur l’indemnisation et l’accompagnement proposé » et que l’accès à l’espace personnel sur le site « pole-emploi.fr » restait sécurisé. Malgré cela, l’organisme a recommandé aux demandeurs d’emploi de se montrer vigilants face à toute démarche ou proposition pouvant sembler frauduleuse. Un support téléphonique sera mis à disposition via la plateforme téléphonique 39 49 pour accompagner les demandeurs d’emploi ayant des questions relatives à cette situation.

      Parmi les démarches malveillantes envisageables, ZATAZ n’en citera que deux : faux contrat de travail pour des missions de réception de chèques ou de produits volés ; infiltration d’ordinateur via des fichiers communiqués dans un courriel aux couleurs de Pôle Emploi, Etc.

    • Majorel, Cl0p, MOVEit... Le scénario probable de la fuite de données Pôle emploi | Silicon
      https://www.silicon.fr/majorel-cl0p-moveit-fuite-donnees-pole-emploi-470755.html

      Les failles en question avaient été découvertes à quelques jours d’intervalle, dans MOVEit Transfer, logiciel de transfert sécurisé de fichiers. L’une et l’autre ouvraient la voie à des injections SQL au niveau du front-end web. Avec, entre autres conséquences potentielles, l’exfiltration de données.

  • L’arrivée de #meta sur le fédivers est-elle une bonne nouvelle ?
    https://www.laquadrature.net/2023/08/09/larrivee-de-meta-sur-le-fedivers-est-elle-une-bonne-nouvelle

    Le fédivers (de l’anglais fediverse, mot-valise de « fédération » et « univers ») est un ensemble de médias sociaux composé d’une multitude de plateformes et de logiciels, où les uns communiquent avec les autres grâce à un protocole…

    #Censure #Données_personnelles #Surveillance #facebook #fédiverse #interop #mastodon #régulation

  • Worldcoin just officially launched. Here’s why it’s being investigated. | MIT Technology Review
    https://www.technologyreview.com/2023/08/07/1077250/worldcoin-officially-launched-why-its-being-investigated/?truid=a497ecb44646822921c70e7e051f7f1a

    It’s a project that claims to use cryptocurrency to distribute money across the world, though its bigger ambition is to create a global identity system called “World ID” that relies on individuals’ unique biometric data to prove that they are humans. It officially launched on July 24 in more than 20 countries, and Sam Altman, the CEO of OpenAI and one of the biggest tech celebrities right now, is one of the cofounders of the project.

    The company makes big, idealistic promises: that it can deliver a form of universal basic income through technology to make the world a better and more equitable place, while offering a way to verify your humanity in a digital future filled with nonhuman intelligence, which it calls “proof of personhood.” If you’re thinking this sounds like a potential privacy nightmare, you’re not alone.

    “Our investigation revealed wide gaps between Worldcoin’s public messaging, which focused on protecting privacy, and what users experienced. We found that the company’s representatives used deceptive marketing practices, collected more personal data than it acknowledged, and failed to obtain meaningful informed consent.”

    What’s more, the company was using test users’ sensitive, but anonymized, data to train artificial intelligence models, but Eileen and Adi found that individuals did not know their data was being used that way.

    Importantly, a core objective of the Worldcoin project is to perfect its “proof of personhood” methodology, which requires a lot of data to train AI models. If its proof-of-personhood system becomes widely adopted, this could be quite lucrative for its investors, particularly during an AI gold rush like the one we’re seeing now.

    The company announced this week that it will allow other companies and governments to deploy its identity system.

    “Worldcoin’s proposed identity solution is problematic whether or not other companies and governments use it. Of course, it would be worse if it were used more broadly without so many key questions being answered,” says Eileen. “But I think at this stage, it’s clever marketing to try to convince everyone to get scanned and sign up so that they can achieve the ‘fastest’ and ‘biggest onboarding into crypto and Web3’ to date, as Blania told me last year.”

    #Biométrie #Vie_privée #Données_personnelles #Worldcoin #Proof_of_personhood

  • #Frontex #risk_analyses based on unreliable information, EU watchdog says

    The EU border management agency Frontex produces untrustworthy risk analyses on migration due to the ‘low reliability of the data collected’, an investigation conducted by the #European_Data_Protection_Supervisor (#EDPS) found on Wednesday (31 May).

    The supervisor, which oversees the data processing of EU bodies, questioned the methodology used to integrate interviews collected on the field into risk analyses and denounced the “absence of a clear mapping and exhaustive overview of the processing of personal data” which the authority assessed as not sufficiently protected.

    The voluntary nature of interviews themselves is also not guaranteed, the report has found, as they “are conducted in a situation of deprivation (or limitation) of liberty” and aim at “identifying suspects on the basis of the interviewee’s testimony”.

    The concerns regard “the use of information of low reliability for the production of risk analyses and its implications for certain groups who may be unduly targeted or represented in the output of risk analysis products”.

    “Such undue representation could have negative impacts on individuals and groups through operational actions as well as the policy decision-making process,” the EU watchdog said.

    The new investigation results from fieldwork occurred in late 2022 at the Frontex headquarters in Warsaw.

    It is not the first time that the body has raised serious concerns about the data processing practices of an EU agency. In 2020, the supervisor initiated an investigation on Europol, the EU’s law enforcement agency, that resulted in the European Commission revising the agency’s mandate.

    Lack of protection

    The report explains that Frontex uses as its “main source of personal data collection” interviews that it conducts jointly with the member state they are operating in. Interviews are carried out on an ad hoc basis with people intercepted while trying to cross a border “without authorisation”.

    The EU agency collects information about their journey, the causes of the departure and any other information that can be relevant to the agency’s risk analysis.

    Despite Frontex carrying out interviews without putting the name of individuals, the information the exchanges contain “would allow for the identification of the interviewee and thus constitutes personal data within the meaning of data protection law”, the report argued.

    Among others, the EU agency collects personal data about individuals suspected to be involved in cross-border crimes, such as human smuggling, whose data are shared with Europol.

    According to the report, the EU agency may not “systematically” collect information about cross-border crimes since it “must be strictly limited to” Europol, Eurojust, and the member states’ “identified needs”.

    However, evidence shown by the EDPS indicates “that Frontex is automatically exchanging the debriefing reports with Europol without assessing the strict necessity of such exchange”.

    Since the latter constitutes a breach of Frontex rules themselves, the authority said that it would open an investigation on the matter.

    The authority also considers the arrangements that should be put in place when data are collected jointly between Frontex and member states to be “incomplete”.

    According to the EDPS, there are “no arrangements between the joint controllers for the allocation of their respective data protection obligations regarding the processing of personal data of interviewees”.

    “The audit report challenges the fundamental legality of risk analysis systems used against migrant people, and it highlights the serious harms that derive from their use,” Caterina Rodelli, EU Policy Analyst at the NGO Access Now told EURACTIV.

    Rodelli sees the EDPS report as an “important step” to set a limit to Frontex’s “disproportionate power” and it comes in a pivotal moment of risk assessment of data collecting tools regarding migratory flows.

    The authority sent Frontex 32 recommendations, of which 24 must to be implemented by the end of 2023.

    https://www.euractiv.com/section/data-privacy/news/frontex-risk-analyses-based-on-unreliable-information-eu-watchdog-says
    #chiffres #statistiques #méthodologie #fiabilité #europol #données_personnelles #frontières #migrations #réfugiés

    –—

    voir aussi ce fil de discussion auquel cet article a été ajouté :
    https://seenthis.net/messages/705957

  • L’Italie bloque ChatGPT, les grands modèles de langage inquiètent
    https://www.nextinpact.com/article/71372/litalie-bloque-chatgpt-grands-modeles-langage-inquietent

    Après le chatbot Replika début février, ChatGPT subit les foudres de l’autorité italienne. L’annonce a été faite par la Garante per la protezione dei dati personali (GPDP), l’équivalente de notre CNIL. D’autres institutions en Europe et aux États-Unis s’inquiètent aussi de ChatGPT, mais c’est le premier blocage du genre.

    La GPDP n’y va pas par quatre chemins et ne veut laisser « aucun moyen pour ChatGPT de continuer à traiter des données en violation des lois sur la protection de la vie privée ». Le régulateur a ainsi imposé « une limitation temporaire, mais immédiate au traitement des données des utilisateurs italiens par OpenAI ». Cette dernière est pour rappel à l’origine de ChatGPT.
    Les griefs de la GPDP contre ChatGPT

    Dans son exposé des griefs, la GPDP commence par rappeler que ChatGPT « a subi le 20 mars une perte de données concernant les conversations des utilisateurs et des informations relatives au paiement des abonnés ».

    L’autorité à d’autres reproches à faire, notamment l’absence « d’information aux utilisateurs et aux personnes dont les données sont collectées par Open AI et, plus important encore, il ne semble pas y avoir de base juridique par rapport à la collecte et au traitement massifs de données personnelles afin d’"entrainer" les algorithmes ».

    La GPDP s’appuie sur des tests mis en ligne pour affirmer que « les informations mises à disposition par ChatGPT ne sont pas toujours factuelles, de sorte que des données personnelles inexactes sont traitées ». Elle reproche enfin l’absence de vérification d’age alors que, selon les conditions d’utilisation d’OpenAI, ChatGPT est interdit au moins de 13 ans.

    Le régulateur italien explique enfin qu’OpenAI dispose de 20 jours pour lui notifier les mesures mises en place pour se conformer à son injonction, « faute de quoi une amende pouvant aller jusqu’à 20 millions d’euros ou 4 % du chiffre d’affaires annuel mondial pourra être infligée ».
    La CNIL française n’a pas reçu de plainte

    Interrogée par l’AFP, la CNIL précise n’avoir « pas reçu de plainte et n’a pas de procédure similaire en cours ». La Commission s’est néanmoins rapprochée de son homologue « afin d’échanger sur les constats qui ont pu être faits ».

    La GPDP s’appuyant sur le RGPD pour expliquer sa décision, la CNIL et d’autres pays pourraient suivre le pas si les autorités arrivent à la même conclusion.
    Europol et le BEUC s’inquiètent, une plainte à la FTC

    Quoi qu’il en soit, la GPDP italienne n’est pas la seule institution à s’émouvoir de ChatGPT, et les inquiétudes ne datent pas d’hier. Europol a publié un document cette semaine sur « l’impact des grands modèles de langage [LLM, ndlr] sur l’application de la loi », expliquant que des criminels pourraient se servir de l’intelligence artificielle pour leurs méfaits.

    Dangers des grands modèles de langage : des chercheuses avaient prévenu

    Cette semaine également, le Center for AI and Digital Policy (CAIDP) a déposé une plainte auprès de la FTC (Federal Trade Commission). Elle « exhorte la FTC à enquêter sur OpenAI et à suspendre la vente de produits utilisant des grands modèles de langage, tels que GPT-4 ». Le CAIDP leur reproche notamment de décrire « comment commettre des actes terroristes, comment assassiner des dirigeants politiques et comment dissimuler la maltraitance des enfants. GPT-4 a la capacité d’entreprendre une surveillance de masse à grande échelle, en combinant sa capacité à ingérer des images, lier des identités et développer des profils complets ».

    Dans la foulée, le Bureau européen des unions de consommateurs (BEUC) a demandé « aux autorités européennes et nationales d’ouvrir une enquête sur ChatGPT et les chatbots similaires ».

    Le BEUC rappelle que l’Union européenne travaille actuellement sur la « première législation au monde sur l’IA », mais le Bureau craint qu’il faille encore « des années » avant que la loi n’entre en vigueur. Il ne souhaite donc pas laisser « les consommateurs exposés au risque de préjudice d’une technologie qui n’est pas suffisamment réglementée pendant cette période intérimaire ».
    Le Sénat dégaine sa proposition de résolution

    De manière opportune, le Sénat explique que sa commission des affaires européennes « a adopté à l’unanimité hier matin une proposition de résolution européenne pour appuyer l’instauration d’une réglementation européenne » dans le domaine des intelligences artificielles.

    La commission affirme « la nécessité de prévenir une utilisation excessive de cette technologie, et d’en promouvoir un déploiement conforme aux valeurs européennes, c’est-à-dire au service de l’humain, fiable et éthique ». Les rapporteurs rappellent que « mal utilisée, l’intelligence artificielle est susceptible de causer de graves atteintes aux droits fondamentaux, qu’il s’agisse du respect de la vie privée, de l’accès à la justice ou encore du respect du principe de non-discrimination ».

    La proposition de résolue comporte plusieurs points, notamment « l’interdiction générale de certaines applications particulièrement contraires aux valeurs de l’Union européenne ». Le document demande aussi d’« expliciter l’articulation entre la réglementation européenne sur l’intelligence artificielle et le règlement général sur la protection des données ».

    Il ne s’agit que d’une proposition de la commission des affaires européennes, qui est désormais renvoyée à la commission des lois, « qui peut ou non s’en saisir avant qu’elle ne devienne définitivement une résolution du Sénat d’ici un mois ».

    #ChatGPT #Données_personnelles #Italie #Interdiction

  • Un appel au numéro 09 69 39 99 98 de La Banque Postale, qui me demande avant d’accéder à un interlocuteur de taper le numéro de mon compte suivi de mon code secret. Quand on me répond (par mon nom et prénom), je glisse quand même que cela s’appelle une faille de sécurité monstre. La réponse vaut de l’or : « Oui mais ici on accède pas à votre compte, c’est juste pour donner des informations ». Uhuh, et comme je demande à parler à une personne responsable, on me raccroche au nez.

    #Labanquepostale #france #sécurité_informatique #données_personnelles #incurie_informatique #idiocratie

  • ‘Crazy invasive technology’ : UK faces legal challenge for GPS tagging of migrants

    A complaint has been filed by the anti-surveillance advocacy group Privacy International against the U.K. #Home_Office, which is rolling out #GPS tracking devices for migrants entering the country through irregular routes. Privacy International says the practice is excessive, unlawful and threatens the fundamental rights to privacy to which everyone in the United Kingdom is entitled.

    “These are just individuals who are seeking a new life in the U.K.,” said Lucie Audibert, a lawyer at Privacy International. “And so the necessity of surveilling them and monitoring in this way is highly questionable, and I question the effectiveness of it as well.”

    The devices, which are bulky ankle bracelets of the same type that have been used in the criminal justice system for decades, monitor migrants’ movements 24/7. Anyone who is on immigration bail in the U.K. can be tagged, for an unlimited amount of time.

    The Home Office unveiled a new 12-month pilot to experiment with tagging people arriving on small boats in June, when Prime Minister Boris Johnson said migrants couldn’t be allowed to simply “vanish” into the country. The Home Office have said they intend to use the tags to stop migrants bound for offshore detention centers in Rwanda from disappearing — despite absconding rates being as low as 1% in 2020, according to a Freedom of Information request by Migrants Organise.

    Privacy International argues that the practice of tagging migrants lacks the proper safeguards that are in place when the devices are used in the criminal justice system. They add that the devices can be inaccurate as well as intrusive. The privacy rights charity filed complaints with the Information Commissioner’s Office and the Forensic Science Regulator.

    Privacy and migration advocates say the Home Office can use the location data to check up on migrants who claim to remain in the U.K. on the basis of family ties with the country — to assess whether they really do visit their relatives. They also say the surveillance measure leaves migrants traumatized, stigmatized and — in some cases — housebound, afraid to engage with the outside world.

    The use of GPS tagging on migrants has already been trialed extensively in the U.S., under a program known as “Alternatives to Detention,” which has been expanded under President Joe Biden. The U.S. government argues that placing people under electronic surveillance is kinder and less brutal than imprisonment, and keeps more people out of immigration detention centers. But immigrants in the U.S. say the tags are dehumanizing.

    “You feel like you’re in prison again,” a U.S. asylum seeker told us in May. He described crying “tears of joy” when the bracelet was removed from his body after three months’ wear.

    The argument that the tags are a humane alternative to detaining migrants has been mirrored in the U.K.’s policy, according to Audibert. But, she says, it’s a false premise: “Every alternative to detention in the criminal justice system has never reduced prison numbers. It has just expanded the size of the population that was controlled.”

    The Home Office recently expanded the criteria for who is eligible to be tagged to include anyone who arrives in the U.K. via irregular routes, such as small boats — a practice which is now a criminal offense in the country. Earlier this month, a report in the Guardian revealed that the Home Office was rolling out new “facial recognition smartwatches” to migrants as a complement to the ankle tags. The smartwatches, though removable, require migrants convicted of a criminal offense to scan their face up to five times per day to ensure they’re still wearing them.

    The Home Office, in a statement, emphasized the tags will be used on “foreign national criminals” but made no mention of its pilot scheme to also tag asylum seekers with GPS ankle bracelets.

    A Home Office spokesperson said: “Since August 2021, the Home Office has successfully tagged over 2,500 foreign criminals, reassuring victims that their perpetrators cannot escape the law and will be removed from the U.K. at the earliest opportunity. Since January 2019, the Government has removed over 10,000 foreign criminals.”

    The use of GPS tracking has severe effects on the mental health of the wearer, according to research by Monish Bhatia, a criminology lecturer at Birkbeck, University of London. He describes, in a report published last year, how many people who are tagged experience it as imprisonment and punishment. They say the tag makes them feel like criminals, and that they have to live with the stigma if their tag is spotted.

    The tag means they’re often reluctant to engage with their community and do everyday activities like playing sport for fear of revealing their tag, and can end up isolating themselves, in a form of self-inflicted house arrest, because they do not want to be tracked.

    Bhatia argued the practice of tagging had no use other than to wield power over asylum seekers and minority groups. “It’s purely for control — and it is discriminatory. I’ve called it racial surveillance on more than a few occasions and I’ll stick with that term to describe this technology,” he said.

    The U.K. has in recent years rolled out a massive program of surveillance and technology to try to deter migrants from crossing the English Channel, at a cost of tens of millions of dollars to the British taxpayer. Audibert described how the GPS policy forms part of this strategy of deterrence and is part of the Home Office’s overall intention to stop migrants from making dangerous journeys across the water in small, fragile vessels.

    “They’re pouring millions of pounds into this crazy invasive technology,” said Audibert, who described how most migrants had no interest in breaching their bail conditions. “It’s criminalizing people that aren’t criminals in the first place.”

    https://www.codastory.com/authoritarian-tech/surveillance-uk-migrants-gps-trackers

    #surveillance #migrations #asile #réfugiés #frontières #données #données_personnelles #UK #Angleterre #géolocalisation

    –-

    Et parallèlement l’Union européenne...
    EU’s Frontex Tripped in Its Plan for ‘Intrusive’ Surveillance of Migrants
    https://seenthis.net/messages/966671

    ping @isskein @karine4

  • EU’s Frontex Tripped in Its Plan for ‘Intrusive’ Surveillance of Migrants

    Frontex and the European Commission sidelined their own data protection watchdogs in pursuing a much-criticised expansion of “intrusive” data collection from migrants and refugees to feed into Europol’s vast criminal databases, BIRN can reveal.

    On November 17 last year, when Hervé Yves Caniard entered the 14-floor conference room of the European Union border agency Frontex in Warsaw, European newspapers were flooded with stories of refugees a few hundreds kilometres away, braving the cold at the Belarusian border with Poland.

    A 14-year-old Kurd had died from hypothermia a few days earlier; Polish security forces were firing teargas and water cannon to push people back.

    The unfolding crisis was likely a topic of discussion at the Frontex Management Board meeting, but so too was a longer-term policy goal concerning migrants and refugees: the expansion of a mass surveillance programme at Europe’s external borders.

    PeDRA, or ‘Processing of Personal Data for Risk Analysis,’ had begun in 2016 as a way for Frontex and the EU police body Europol to exchange data in the wake of the November 2015 Paris attacks by Islamist militants that French authorities had linked to Europe’s then snowballing refugee crisis.

    At the November 2021 meeting, Caniard and his boss, Frontex’s then executive director, Fabrice Leggeri, were proposing to ramp it up dramatically, allowing Frontex border guards to collect what some legal experts have called ‘intrusive’ personal data from migrants and asylum seekers, including genetic data and sexual orientation; to store, analyse and share that data with Europol and security agencies of member states; and to scrape social media profiles, all on the premise of cracking down on ‘illegal’ migration and terrorism.

    The expanded PeDRA programme would target not just individuals suspected of cross-border crimes such as human trafficking but also the witnesses and victims.

    Caniard, the veteran head of the Frontex Legal Unit, had been appointed that August by fellow Frenchman Leggeri to lead the drafting of the new set of internal PeDRA rules. Caniard was also interim director of the agency’s Governance Support Centre, which reported directly to Leggeri, and as such was in a position to control internal vetting of the new PeDRA plan.

    That vetting was seriously undermined, according minutes of board meetings leaked by insiders and internal documents obtained via Freedom of Information requests submitted by BIRN.

    The evidence gathered by BIRN point to an effort by the Frontex leadership under Leggeri, backed by the European Commission, to sideline EU data protection watchdogs in order to push through the plan, regardless of warnings of institutional overreach, threats to privacy and the criminalisation of migrants.

    Nayra Perez, Frontex’s own Data Protection Officer, DPO, warned repeatedly that the PeDRA expansion “cannot be achieved by breaching compliance with EU legislation” and that the programme posed “a serious risk of function creep in relation to the Agency’s mandate.” But her input was largely ignored, documents reveal.

    The DPO warned of the possibility of Frontex data being transmitted in bulk, “carte blanche”, to Europol, a body which this year was ordered to delete much of a vast store of personal data that it was found to have amassed unlawfully by the EU’s top data protection watchdog, the European Data Protection Supervisor, EDPS.

    Backed by the Commission, Frontex ignored a DPO recommendation that it consult the EDPS, currently led by Polish Wojciech Wiewiórowski, over the new PeDRA rules. In a response for this story, the EDPS warned of the possibility of “unlawful” processing of data by Frontex.

    Having initially told BIRN that the DPO’s “advisory and auditing role” had been respected throughout the process, shortly before publication of this story Frontex conceded that Perez’s office “could have been involved more closely to the drafting and entrusted with the role of the chair of the Board”, an ad hoc body tasked with drafting the PeDRA rules.

    In June, the EDPS asked Frontex to make multiple amendments to the expanded surveillance programme in order to bring it into line with EU data protection standards; Frontex told BIRN it had now entrusted the DPO to redraft “relevant MB [Management Board] decisions in line with the EDPS recommendations and lessons learned.”

    Dr Niovi Vavoula, an expert in EU privacy and criminal law at Queen Mary University of London, said that the expanded PeDRA programme risked the “discriminatory criminalisation” of innocent people, prejudicing the outcomes of criminal proceedings against those flagged as “suspects” by Frontex border guards.

    As written, the revamped PeDRA “is another piece of the puzzle of the emerging surveillance and criminalisation of migrants and refugees,” she said.

    Religious beliefs, sexual orientation

    Leggeri had long held a vision of Frontex as more than simply a ‘border management’ body, one that would see it working in tandem with Europol in matters of law enforcement; to this end, both agencies have been keen to loosen restrictions on the exchange of personal data between them.

    Almost six years to the day before the Warsaw PeDRA meeting, a gun and bomb attack by Islamist militants killed 130 people in Paris. It was November 13, 2015, at the height of the refugee crisis in the Mediterranean and Aegean Seas.

    The following month, Leggeri signed a deal with the then head of Europol, Briton Richard Wainwright, which opened the door to the exchange of personal data between the two agencies. Addressing the UK parliament, Wainwright described a “symbiotic” relationship between the agencies in protecting the EU’s borders. In early 2016, a PeDRA pilot project launched in Italy, quickly followed by Greece and Spain.

    At the same time, Europol launched its own parallel programme of so-called Secondary Security Checks on migrants and refugees in often cramped, squalid camps in Italy and Greece using facial recognition technology. The checks, most recently expanded to refugees from Ukraine in Lithuania, Poland, Romania, Slovakia and Moldova, were introduced “in order to identify suspected terrorists and criminals” but Europol is tight-lipped about the criteria determining who gets checked and what happens with the data obtained.

    Since the launch of PeDRA, Frontex officers have been gathering information from newly-arrived migrants concerning individuals suspected of involvement in smuggling, trafficking or terrorism and transmitting the data to Europol in the form of “personal data packages,” which are then cross-checked against and stored within its criminal databases.

    According to its figures, under the PeDRA programme, Frontex has shared the personal data – e.g. names, personal descriptions and phone numbers – of 11,254 people with Europol between 2016 and 2021.

    But the 2015 version of the PEDRA programme was only its first incarnation.

    Until 2019, rules governing Frontex meant that its capacity to collect and exchange the personal data of migrants had been strictly limited.

    In December 2021, after years of acrimonious legal wrangling, the Frontex Management Board – comprising representatives of the 27 EU member states and the European Commission – gave the green light to the expansion of PeDRA.

    Under the new rules, which have yet to enter into force, Frontex border guards will be able to collect a much wider range of sensitive personal data from all migrants, including genetic and biometric data, such as DNA, fingerprints or photographs, information on their political and religious beliefs, and sexual orientation.

    The agency told BIRN it had not yet started processing personal data “related to sexual orientation” but that the collection of such information may be necessary to “determine whether suspects who appear to be similar are in fact the same.”

    In terms of social media monitoring, Frontex said it had not decided yet whether to take advantage of such a tool; minutes of a joint meeting in April, however, show that Frontex and Europol agreed on “strengthening cooperation on social media monitoring”.

    Indeed, in 2019, Frontex published plans to pay a surveillance company 400,000 euros to track people on social media, including “civil society and diaspora communities” within the EU, but abandoned it in November of that year after Privacy International questioned the legality of the plan.

    Yet, under the expanded PeDRA, Vavoula, of Queen Mary University, said Frontex officers could be tasked without scraping social media profiles “without restrictions”.

    Commenting on the entire programme, she added that PeDRA “could not have been drafted by someone with a deep knowledge of data protection law”. She cited numerous violations of elementary data protection safeguards, especially for children, the elderly and other vulnerable individuals, who should generally be treated differently from other subjects.

    “Sufficient procedural safeguards should be introduced to ensure the protection of fundamental rights of children to the fullest possible extent including the requirement of justified reasons of such a processing of personal data,” Vavoula said. “Genetic data is much more sensitive than biometric data,” and therefore requires “specific safeguards” not present in the text.

    Vavoula also noted the absence of a “maximum retention period,” warning, “Frontex may retain the data forever.”
    Internal dissent swept aside

    Internal documents seen by BIRN show that the man tasked by Leggeri to oversee the drafting of the new PeDRA rules, Caniard, ignored objections raised by the agency’s own data protection watchdog.

    Perez, a Spanish lawyer and Frontex’s DPO, has the task of monitoring the agency’s compliance with EU data protection laws not only concerning the thousands of migrants whose data will be stored in its databases but also of the agency’s rapidly expanding staff base, currently numbering more than 1,900 but soon to include a ‘standing corps’ of up to 10,000 border guards.

    She had also been working on earlier drafts of the new PeDRA rules since 2018, only to be leapfrogged by Caniard when he was appointed by Leggeri in August 2021.

    When she was shown an advanced draft of the new PeDRA rules in October 2021, Perez did not mince her words. “The process of drafting the new rules de facto encroaches on the tasks legally assigned to the DPO,” she said in an internal Frontex document obtained by BIRN. “When the DPO issues an opinion, such advice cannot be overruled or amended.”

    The DPO proposed more than a hundred changes to the draft; she warned that, under the proposed rules, Frontex “seems to arrogate the capacity to police the internet” through monitoring of social media and that victims and witnesses of crime whose data is shared with Europol face “undesirable consequences” of being part of a “pan-European criminal database.”

    During intense internal discussions in late 2021, as the deadline for approving the new rules was fast approaching, the DPO said that Frontex had failed to make a compelling case for the collection of sensitive data such as ethnicity or sexual orientation.

    “…the legal threshold to be met is not a ‘nice to have’ but a strict necessity,” Perez wrote.

    When the final draft landed on the desk of the Frontex Management Board in November 2021, it was clear that many of the DPO’s recommendations had been disregarded.

    At this point, Frontex was already the target of a probe by the European Anti-Fraud Office into its role in so-called ‘pushbacks’ in which migrants are illegally turned away at the EU’s borders, the findings of which would eventually force Leggeri’s resignation in April this year.

    In an initial written response for this story, Frontex said that the DPO “had an active, pivotal role in the deliberations” concerning the new rules and that the watchdog’s “advisory and auditing role was respected” throughout the process.

    Minutes of the November board meeting appeared to contradict this, however. Written in English and partially disclosed following an ‘access to documents request’, they cite Caniard conceding that the DPO was “consulted twice with a very short notice” and that, since Perez issued her opinion only the day before the meeting, there “was no possibility to take stock of it”. Perez submitted her opinion on November 16 and the board meeting was held on November 17 and 18.

    The DPO, for its part, urged the management board to “work on the current draft to eliminate inconsistencies” and, though not legally obliged, “to consult the EDPS prior to adoption”.

    Prior to publication of this story, BIRN asked Frontex again whether the DPO’s mandate had been respected during the drafting of the new PeDRA rules. The agency backtracked, saying it should have involved Perez’s office more closely and that the DPO would rewrite the programme.

    Dissent was not confined to the DPO. Danish and Dutch representatives in the meeting urged the board to delay voting on the rules given that the DPO’s opinions had not been taken on board and to “do its utmost to avoid any situation where it is necessary to amend rules just adopted just because an EDPS’ conflicting opinion is issued.”

    According to the minutes of the November meeting, the Commission representative, however, dismissed this, declaring that it considered the text “more than mature for adoption” and that there was no need to consult the EDPS because “it is not mandatory”.

    Email exchanges between the Commission and Frontex reveal the urgency with which the Commission wanted the new rules adopted, even at the cost of foregoing EDPS participation.

    One, from the Commission to Frontex on November 14, 2021, just days before the Board meeting said that, “while it would have been good to consult the EDPS on everything, it is more important now to get at least the two first decisions adopted.” An earlier mail, from July 2021 and sent directly to Leggeri, said it was “an absolute political priority to put in place the data protection framework of the Agency without any further delays.” That framework included the processing of personal data under PeDRA.

    Asked why it supported the expansion of the Frontex surveillance programme without first having the proposal checked by EDPS, the Commission told BIRN it would not comment on “discussion held in the management board or other internal meetings.”

    The EDPS, the EU’s top data protection authority, was only shown a copy of the new rules in late January 2022.

    Asked for its opinion, the EDPS told BIRN it is “concerned that the rules adopted do not specify with sufficient clarity how the intended processing will be carried out, nor define precisely how safeguards on data protection will be implemented.”

    The processing of highly vulnerable categories of individuals, including asylum seekers, could pose “severe risks for fundamental rights and freedoms,” such as the right to asylum, it said. It further stressed that “routine”, i.e. systematic, exchange of personal data between Frontex and Europol is not permitted and that such exchange can only take place “on a case-by-case basis.”
    Collecting data with ‘religious’ fervour

    Experts question the effectiveness of such extensive data collection in combating serious crime.

    Douwe Korff, Emeritus Professor of international law at London Metropolitan University, decried the apparent lack of results and accountability.

    “There isn’t even the absolute minimum requirement for law enforcement authorities to provide serious proof that the expansion of surveillance powers will be effective and proportionate,” said Korff, who has contributed to research on mass surveillance for EU institutions for years.

    “If you ask how many people have you arrested using this data that are completely innocent, they don’t even want to know about this. They pursue this policy of mass data collection with a religious belief.”

    Indeed, when the EDPS ordered Europol in January to delete data amassed unlawfully concerning individuals with no link to criminal activity, member states and the Commission came to the rescue with legal amendments enabling the agency to sidestep the order.

    In May, Frontex and Europol put forward a proposal, drafted by a joint working group named ‘The Future Group’, for a new surveillance programme at the bloc’s external borders that would implement large-scale profiling of EU and third-country nationals using Artificial Intelligence.

    https://balkaninsight.com/2022/07/07/eus-frontex-tripped-in-plan-for-intrusive-surveillance-of-migrants
    #surveillance #migrations #asile #réfugiés #frontières #Frontex #données #Europol #PeDRA #Processing_of_Personal_Data_for_Risk_Analysis #Caniard #Hervé_Yves_Caniard #Leggeri #Fabrice_Leggeri #Nayra_Perez #Italie #Grèce #Espagne #Secondary_Security_Checks #données_personnelles

  • Les données numériques des femmes, armes de la justice américaine contre l’avortement ?
    https://www.rts.ch/info/sciences-tech/technologies/13190398-les-donnees-numeriques-des-femmes-armes-de-la-justice-americaine-contre

    La Cour suprême américaine pourrait remettre en cause le droit à l’avortement en laissant les Etats légiférer. Ceux qui interdiraient cet acte pourraient poursuivre des femmes en se basant sur leurs données numériques.
    La criminalisation de l’avortement pourrait prendre une tout autre dimension en utilisant les données numériques comme preuves au tribunal. L’achat d’un test de grossesse sur internet, une géolocalisation à proximité d’un centre de Planning familial ou des données de santé provenant d’une application de fitness sont des preuves qui pourraient être utilisées lors d’une action en justice.

    En 2017, une jeune Afro-Américaine du Mississippi a été inculpée de meurtre au 2ème degré de son enfant mort-né. L’accusation s’est basée sur une recherche qu’elle avait réalisée en ligne sur une pilule abortive. Même si elle a été relaxée en 2020, ces épisodes risquent de se généraliser.

    Des données précieuses pour une publicité ciblée
    Les données numériques des recherches effectuées sur Internet sont collectées et exploitées pour proposer de la publicité ciblée ou encore à d’autres fins.

    Selon une étude https://www.privacyinternational.org/long-read/3196/no-bodys-business-mine-how-menstruations-apps-are-sharing-your , les applications de suivi du cycle menstruel envoient des informations très personnelles sur la santé et les pratiques sexuelles des femmes directement à Facebook comme l’utilisation de contraceptifs, les dates de leurs règles, les symptômes et les humeurs.

    Les annonceurs s’intéressent à l’humeur des personnes car cela les aide à cibler stratégiquement les publicités à des moments où elles sont plus susceptibles d’acheter. Par exemple, les femmes enceintes, ou cherchant à le devenir, sont susceptibles de changer leurs habitudes d’achat.

    Pas de protection
    Dans un contexte de criminalisation de l’avortement, ces informations pourraient être intéressantes pour les services de police. Notamment aux Etats-Unis où, contrairement à l’Europe, aucune loi ne protège les citoyennes et les citoyens de l’utilisation de ces données numériques par la justice.

    En Europe, les données de santé sont considérées comme sensibles. Elles sont donc assujetties à des protections particulières par le Règlement Général de Protection des Données (ou le RGPD).

    En Suisse, le droit à l’avortement subit actuellement quelques pressions, sans pour autant être remis en question. Deux initiatives fédérales pour réduire le nombre d’IVG ont été lancées en 2021 : « La nuit porte conseil » et « Sauver les bébés viables ». La récolte des signatures court jusqu’en juin 2023.

    #femmes #usa #avortement #données #surveillance #facebook #santé #bigdata #algorithme #data #google #données_personnelles #profiling #vie_privée #flicage #smartphone #publicité

  • Les tiers-lieux (Innovation sociale et prospective) par Valérie Peugeot | MOOC Digital Paris
    https://moocdigital.paris/cours/innovation-sociale-prospective/tiers-lieux

    Un MOOC sur l’innovation numérique et les communs, avec la participation de Valérie Peugeot. 6 séquences d’une dizaine de minutes.

    Valérie Peugeot donne d’abord une définition générale de l’innovation sociale. C’est une réponse face à un besoin qui n’est apporté ni par l’État ni par le marché, et va être proposée par un collectif de citoyens sous différentes formes. Ce qui l’intéresse, c’est ce que cela peut apporter en termes de créativité. « Je considère cela comme un terreau dans lequel on va pouvoir puiser de l’imagination, renouveler nos idées et manières de voir le monde pour trouver de nouvelles réponses ». Elle répertorie 2 500 tiers-lieux en France, et ils seront bientôt 3 000. C’est là qu’on trouve « cette imagination fertile pour faire vivre les territoires autrement ». Elle décrit différents types d’initiatives et la pluralité des activités qui y sont développées. Elle s’interroge : comment passer du local à une plus grande échelle ?

    Valérie Peugeot

    Chercheuse au sein d’Orange Labs et présidente de l’association Vecam, Valérie Peugeot a rejoint le collège des commissaires de la Commission Nationale de l’Informatique et des Libertés (CNIL) en avril 2016, où elle a la charge du secteur de la santé. De 2013 à 2015, elle a été vice-présidente du Conseil National du Numérique. Au sein du laboratoire de sciences sociales et humaines d’Orange Labs, les recherches de Valérie Peugeot portent sur les dispositifs numériques de contribution citoyenne dans la ville, la sobriété numérique ou encore l’inclusion numérique. Elle est également directrice pédagogique de l’Executive master « Digital humanities » à Sciences po Paris. En tant que présidente de l’association Vecam, Valérie Peugeot a notamment œuvré à la diffusion de la pensée et des pratiques des communs en France. Attachée au monde de l’ESS (économie sociale et solidaire), elle est membre du Conseil d’administration de la Fondation du Crédit coopératif. Elle est co-auteur avec Serge Abiteboul de l’ouvrage Terra Data - Qu’allons-nous faire des données numériques ? (Editions Le Pommier, 2017).

    #Communs #Valérie_Peugeot #Innovation_sociale #Données_personnelles #Tiers_Lieux

  • Le Canada a formé des éléments d’un régiment ukrainien lié à l’extrême droite Simon Coutu - Radio Canada
    https://ici.radio-canada.ca/nouvelle/1873461/canada-regiment-ukrainien-lie-extreme-droite-azov

    Le Canada a dépensé près d’un milliard de dollars pour former des forces ukrainiennes depuis 2014. Des militaires du régiment Azov, connu pour ses liens avec l’extrême droite, ont profité de cet entraînement, selon des documents analysés par Radio-Canada.

    Fondé par un néonazi notoire, le régiment Azov s’est fait connaître pour ses faits d’armes en 2014 contre les séparatistes prorusses, notamment à Marioupol, là où il combat de nouveau aujourd’hui. D’ailleurs, avec le repositionnement des forces russes dans le sud et dans l’est de l’Ukraine, le bataillon pourrait avoir un rôle central à jouer dans les futurs combats.

    Lorsque Vladimir Poutine avance vouloir “dénazifier” l’Ukraine en envahissant ce pays, il fait notamment référence à cette unité controversée. Si l’effectif du bataillon s’est diversifié depuis son intégration au sein de la Garde nationale ukrainienne (GNU), il entretient toujours des liens avec l’extrême droite.

    C’est en raison de ces affiliations fascistes qu’Ottawa répète d’ailleurs, depuis 2015, que jamais les Forces armées canadiennes (FAC) ne fourniront ou n’ont fourni d’entraînement ou de soutien à ce régiment ni à des unités affiliées.

    Pourtant, des photos prises au centre de formation de Zolochiv de la garde nationale ukrainienne , dans l’ouest de l’Ukraine, montrent le contraire. Les Forces armées canadiennes ont bel et bien contribué à la formation des soldats du régiment Azov en 2020, au point où cette unité se targue maintenant de pouvoir former ses propres militaires selon les standards occidentaux.

    Sur deux clichés publiés sur les réseaux sociaux de la Garde nationale ukrainienne (Nouvelle fenêtre) https://www.facebook.com/ngutrainingcentr/posts/2178291778970663 le 20 novembre 2020, on aperçoit deux militaires qui portent sur leur uniforme un écusson fourni par le régiment Azov au moment où ils participent à un entraînement auprès des Forces armées canadiennes. Il s’agit de l’emblème du test Spartan, un tournoi avec des épreuves de force. L’écusson est aussi frappé du logo du régiment Azov, qui évoque la Wolfsangel, un symbole qui a été utilisé par plusieurs unités nazies.

    Selon Oleksiy Kuzmenko, un journaliste spécialiste de l’extrême droite ukrainienne, la présence de ces écussons suggère fortement que le régiment Azov a eu accès à l’entraînement militaire canadien.

    “L’écusson en question est fermement et exclusivement associé au régiment Azov”, dit-il. “Ces éléments de preuve démontrent que les militaires canadiens n’ont pas mis en place les mécanismes qui empêcheraient cette unité militaire d’extrême droite d’accéder à l’aide occidentale fournie aux forces militaires et de sécurité”, dit le reporter, qui collabore notamment avec le média d’investigation en ligne Bellingcat (Nouvelle fenêtre). https://www.bellingcat.com

    Chercheur à l’Institut national des langues et civilisations orientales (INALCO), spécialiste de l’Ukraine, de l’extrême droite et du nationalisme ukrainien, Adrien Nonjon reconnaît lui aussi ce symbole sur les photos.

    “Je peux vous assurer avec une certitude absolue que c’est un écusson d’Azov”, fait-il observer. “Ce régiment se présente comme une formation d’élite et essaie d’inculquer ce modèle de dépassement de soi à ses combattants. Cela dit, on peut aussi imaginer que l’individu qui porte cet écusson est un ancien membre du régiment.”

    Sur une autre image (Nouvelle fenêtre) https://www.flickr.com/photos/cfcombatcamera/50562875068/in/photostream

    Flickr
    prise lors du même entraînement, cette fois-ci par une photographe des Forces armées canadiennes, on aperçoit un soldat ukrainien qui porte un écusson aux couleurs de la 14e division de la Waffen-SS, créée en 1943 par le régime nazi d’Adolf Hitler pour combattre l’Union des républiques socialistes soviétiques avec des volontaires ukrainiens. Une cérémonie destinée à rendre hommage à cette division a d’ailleurs été condamnée en 2021 (Nouvelle fenêtre) https://www.president.gov.ua/news/shodo-akciyi-u-kiyevi-do-richnici-stvorennya-diviziyi-ss-gal-68225 par le président Volodymyr Zelensky.

    Sur cette photo prise par les Forces armées canadiennes, on aperçoit un militaire ukrainien qui porte un écusson de la 14e division de la Waffen-SS.


    Photo : Avr Melissa Gloude, Forces armées canadiennes. Photomontage : Charlie Debons, Radio-Canada

    Si, historiquement, cette division de la Waffen-SS n’a pas participé aux massacres de Juifs en Ukraine durant la Seconde Guerre mondiale, il n’en reste pas moins que l’image du lion doré et des trois couronnes est très controversée.

    “On ne s’en sort pas : [la Waffen-SS], c’est une bande de nazis”, affirme le professeur et titulaire de la Chaire en études ukrainiennes de l’Université d’Ottawa, Dominique Arel. “En tant que division, ils ont été créés trop tard pour participer à l’Holocauste et ont été utilisés comme de la chair à canon par les Allemands.
    Mais il n’en demeure pas moins que la symbolique est forte. Les SS, c’est le groupe le plus criminel du 20e siècle.”

    Opération Unifier
    Depuis 2015, le Canada a contribué à former 33 346 candidats des Forces de sécurité de l’Ukraine, dont 1951 éléments de la garde nationale ukrainienne , dans le cadre de l’opération Unifier, selon le ministère de la Défense nationale (Nouvelle fenêtre). https://www.canada.ca/fr/ministere-defense-nationale/services/operations/operations-militaires/operations-en-cours/operation-unifier.html Le coût de ce programme s’élève à plus de 890 millions de dollars. Tous les six mois, environ 200 membres des Forces armées canadiennes se relaient pour offrir de l’aide en matière d’instruction sur la force de sécurité. Tout ce personnel a été temporairement déplacé en Pologne jusqu’à ce que les conditions permettent une reprise de l’entraînement.

    Les militaires canadiens ont travaillé en collaboration avec le Centre de formation de la Garde nationale ukrainienne à Zolochiv du 20 février 2019 au 13 février 2022, selon les Forces armées canadiennes.

    Interrogé sur la présence de ces écussons sur l’uniforme de militaires ukrainiens durant un entraînement mené par les Forces armées canadiennes, le ministère de la Défense nationale a formellement nié avoir formé des membres du régiment Azov.

    “Les Forces armées canadiennes n’ont jamais donné quelque formation que ce soit aux membres du bataillon Azov”, assure par courriel le ministère de la Défense nationale. “Les militaires participant à l’op Unifier ont toujours reçu l’ordre de ne pas s’entraîner avec les membres du bataillon Azov et de n’avoir aucun contact avec eux.”

    Le porte-parole du ministère convient cependant que “les membres de l’op Unifier n’exercent aucune surveillance sur les personnes choisies pour assister aux cours ou aux séances de formation”.

    Des membres de la Garde nationale ukrainienne suivent une séance de formation de la part de militaires canadiens de l’opération Unifier le 22 janvier 2021.


    Photo : Avr Melissa Gloude, Forces armées canadiennes

    Selon le ministère, il incombe à l’Ukraine d’effectuer les vérifications requises en ce qui concerne les militaires en formation.

    “Les Forces armées canadiennes n’ont ni le pouvoir ni le mandat de faire enquête sur les militaires d’autres pays. Toutefois, le personnel de l’op Unifier a toujours eu l’obligation et le droit de demander au personnel de commandement des installations d’entraînement ou des académies militaires ukrainiennes de retirer des cours donnés ou supervisés par des membres des Forces armées canadiennes tout soldat ukrainien qu’ils soupçonnent d’être inadéquat du point de vue des valeurs canadiennes ou du droit international.”

    Contacté par courriel, un représentant de la garde nationale ukrainienne a réfuté que des éléments du régiment Azov aient pu participer à une formation auprès de militaires canadiens, malgré les écussons particuliers du régiment observés sur leurs propres photos. “Quant à la période que vous mentionnez [novembre 2020], cette unité n’y a pas fait d’exercice”, écrit un porte-parole. “Et cette pièce ne fait pas partie de leur uniforme.”

    Les membres du régiment Azov n’ont pas répondu à nos requêtes par courriel ni sur le réseau Telegram.

    Des membres du régiment Azov de la Garde nationale ukrainienne ainsi que des activistes du parti d’extrême droite Corps national et du groupe radical Secteur droit ont participé à un rassemblement pour marquer la Journée des défenseurs de l’Ukraine, à Kiev, en octobre 2016.


    Photo : Reuters / Gleb Garanich _

    Former Azov par la bande
    Le 18 août 2021, un communiqué publié sur le site web de la garde nationale ukrainienne avançait par ailleurs que des éléments du régiment Azov (aussi connu sous le nom “de détachement spécial de l’unité militaire 3057”) avaient reçu un entraînement auprès d’instructeurs formés selon un programme élaboré avec la participation de représentants de l’opération Unifier, appelé “PR-1”.

    “Le premier groupe de chasseurs de l’unité militaire 3057 a commencé à s’entraîner dans le cadre du programme de formation de base des soldats selon les normes de l’Organisation du traité de l’Atlantique nord [...]”, peut-on y lire. “Un tel cours en Ukraine n’a lieu qu’au Centre de formation de la Garde nationale ukrainienne à Zolochiv [...]. Le programme de formation de base des soldats est la première étape de la croissance du système de formation professionnelle de la Garde nationale d’Ukraine. Il a été élaboré conjointement avec des représentants de l’opération Unifier selon les normes de l’Organisation du traité de l’Atlantique nord.”

    Un communiqué publié sur le site web du régiment Azov au mois d’août 2021 précise que 35 combattants ont participé à cette formation.

    Au mois d’octobre, Azov se targuait de former 33 cadets selon le programme PR-1, mais cette fois-ci dans ses propres installations, grâce aux entraînements reçus à Zolochiv. On y mentionne aussi que, “pour le prochain cours, les instructeurs sont prêts à accepter deux fois plus de militaires et à dispenser régulièrement une telle formation”.

    Questionné sur cette formation offerte par des instructeurs d’Azov, “élaborée avec des représentants de l’opération Unifier selon les normes de l’Organisation du traité de l’Atlantique nord”, le ministère canadien de la Défense nationale affirme “ne pas être au courant”.

    La garde nationale ukrainienne et toutes ses sous-organisations, comme le Centre de formation de Zolochiv – où les membres des Forces armées canadiennes opéraient –, “ont toujours été pleinement conscients et ont convenu que le ministère de la Défense nationale et les FAC ne formeraient pas les membres du régiment Azov et n’auraient pas de contacts avec eux”, indique un porte-parole par courriel. “De plus, la [garde nationale ukrainienne ] a toujours accepté de prendre des mesures pour éviter des interactions.”

    La garde nationale ukrainienne n’a pas donné suite à notre demande à ce sujet.

    Dépolitisé ou néofasciste ?
    Le régiment Azov, qui participe à la défense de la ville de Marioupol, dévastée par l’armée russe, est une unité très controversée en Ukraine, comme ailleurs.

    Les autorités russes utilisent le spectre d’Azov pour justifier l’invasion de l’Ukraine. Dans un discours diffusé quelques minutes avant le début de l’invasion, le 24 février, Vladimir Poutine avait déclaré chercher “à démilitariser et à dénazifier l’Ukraine”, alors que le président du pays, Volodymyr Zelensky, est juif. Le 10 mars, le ministre russe des Affaires étrangères, Sergueï Lavrov, a justifié le bombardement d’une maternité à Marioupol par la présence du “bataillon Azov et d’autres radicaux” sur place.


    Le président de la Russie, Vladimir Poutine, a déclaré chercher à démilitariser et à dénazifier l’Ukraine au cours d’un discours télévisé le 24 février 2022.
    Photo : Associated Press

    Créé par le néonazi Andriy Biletsky, le régiment Azov compterait aujourd’hui 10 000 combattants sur les quelque 200 000 soldats de l’armée ukrainienne, selon son fondateur.

    Il s’agit donc d’une entité minoritaire, bien loin de ce que laisse supposer la propagande de Vladimir Poutine.

    Les quelque 800 combattants qui le composaient à l’origine, durant la guerre du Donbass, ont contribué à reprendre la ville de Marioupol aux séparatistes prorusses en 2014. De nombreux volontaires étaient issus de la formation ultranationaliste Patriote d’Ukraine et de l’Assemblée sociale nationale, d’allégeance néofasciste.

    Andriy Biletsky a siégé au Parlement de 2014 à 2019. Si son discours s’est affiné depuis, il a mentionné en 2008 que la mission de l’Ukraine consiste à “ mener les races blanches du monde dans une croisade finale… contre les Untermenschen [les sous-humains] dirigés par les Sémites”.

    En juin 2015, le Canada a annoncé qu’il ne soutiendrait pas et n’entraînerait pas ce régiment. En visite à Kiev, le ministre de la Défense nationale de l’époque, Jason Kenney, l’avait alors qualifié  (Nouvelle fenêtre) https://www.theglobeandmail.com/news/national/kenney-says-nationalist-azov-group-shouldnt-tarnish-ukraines-image/article25157369 d’un “petit nombre de pommes pourries”.

    Toutefois, en 2018, une délégation de militaires et de diplomates canadiens a rencontré des membres du régiment en Ukraine (Nouvelle fenêtre) https://ottawacitizen.com/news/national/defence-watch/canadian-officials-who-met-with-ukrainian-unit-linked-to-neo-nazis-fe malgré les mises en garde formulées un an plus tôt par les Forces armées canadiennes.

    Un rapport de 2016 du Haut-Commissariat aux droits de l’homme  (Nouvelle fenêtre)des Nations unies (Nouvelle fenêtre) https://www.ohchr.org/sites/default/files/Documents/Countries/UA/Ukraine_13th_HRMMU_Report_3March2016.pdf accuse par ailleurs le régiment Azov d’avoir enfreint le droit international humanitaire. On l’accuse notamment d’avoir violé et torturé des détenus dans la région du Donbass et d’avoir déplacé des résidents après avoir pillé des propriétés civiles.

    Le bataillon Azov a été intégré à la garde nationale ukrainienne en 2014 à la suite des premiers accords de Minsk. Il serait donc “dépolitisé”, selon le chercheur à l’INALCO Adrien Nonjon. Il n’aurait alors plus de liens avec le Corps national, le parti du fondateur du régiment Azov, Andriy Biletsky.

    Des volontaires ukrainiens du bataillon Azov avec leurs drapeaux ont fait une démonstration de force lors de la Journée des volontaires ukrainiens à Kiev, en Ukraine, le samedi 14 mars 2020.

    “Tant les séparatistes que l’Ukraine se sont engagés dans une volonté de désescalade”, fait-il observer. “Ils ont intégré ces éléments subversifs pour pouvoir les surveiller et les contrôler. C’est un corps militaire comme un autre et je dirais même que c’est une unité d’élite au sein de la Garde nationale ukrainienne. On pourra toujours dire qu’il y a des liens qui existent, mais ils sont plutôt informels, basés sur une camaraderie, parce qu’ils ont tous été au front.”

    Toutefois, pour Oleksiy Kuzmenko, qui est aussi l’auteur d’un rapport pour l’université George Washington (Nouvelle fenêtre) https://www.illiberalism.org/wp-content/uploads/2021/09/IERES-Papers-no-11-September-2021-FINAL.pdf sur les contacts entre les militaires occidentaux et des membres du groupe d’extrême droite ukrainien Ordre militaire Centuria, il ne fait aucun doute que le régiment Azov entretient toujours des liens avec le parti d’extrême droite Corps national, malgré un vernis politiquement correct.

    “Pour commencer, jusqu’au début de la nouvelle agression de la Russie, le centre de recrutement du régiment à Kiev partageait un emplacement avec les bureaux du parti au centre ATEK d’Azov. Il est aussi important de souligner que le chef actuel du régiment, Denis Prokopenko, et son adjoint, Svyatoslav Palamar, sont tous deux membres depuis 2014 et ont servi sous Biletsky. Le fondateur du régiment Azov et d’autres leaders du Corps national ont d’ailleurs continué à visiter le régiment avant la guerre. J’ajouterais aussi qu’en 2019, le régiment s’est rangé du côté du mouvement civil lorsqu’il a perturbé la campagne de réélection du président Petro Porochenko. Finalement, la faction armée d’Azov a accueilli l’aile jeunesse du Corps national en août 2021 dans le cadre d’un entraînement.”

    Dans de récents communiqués publiés sur la plateforme Telegram, un porte-parole du régiment dénonce le manque d’implication de l’Occident dans le conflit qui oppose l’Ukraine à la Russie. “Une des unités les plus motivées de notre pays, le régiment Azov, est qualifiée de fasciste et de nazie [...]. On nous interdit d’obtenir des armes et de nous entraîner avec des instructeurs de l’Organisation du traité de l’Atlantique nord, nos réseaux sociaux ont été bloqués, etc. Les vrais fascistes sont non pas les combattants du régiment Azov mais bien les dirigeants russes et l’armée russe, qui ont eu l’audace d’appeler la guerre en Ukraine une "opération spéciale de "dénazification.”

    Il reste que, selon le chercheur Dominique Arel, le régiment Azov “n’est pas dépolitisé du tout”. Par contre, il s’interroge quant à la pertinence d’aborder cette question alors que l’Ukraine subit l’invasion russe.

    Des milliers de civils sont toujours coincés à Marioupol, qui est bombardée quotidiennement par les forces russes.
    Photo : afp via getty images / ARIS MESSINIS

    “C’est une branche qui est dangereuse”, admet-il. “Mais en ce moment, ils ne tabassent pas de Roms dans la rue : ils défendent leur pays. Les fascistes, ce sont les Russes qui terrorisent les populations civiles. Après la guerre, ça pourrait poser problème que l’extrême droite se retrouve armée. Mais actuellement, au-delà du régiment Azov, c’est une très bonne chose que l’Armée canadienne ait formé les forces ukrainiennes. On voit les résultats exceptionnels sur le terrain. Sur le sol, à Marioupol, l’armée, dont le régiment Azov, résiste toujours.”

    #Canada #azof #régiment_azof #ukraine #waffen-ss #armée #armée_canadienne #néonazi #ukronazi #zelinsky #pologne #Donbass #Marioupol #facisme #nazisme #dénazification #dominique_arel #otan

  • Tu as besoin de savoir ? Paye tes allocs ! - Association nationale des assistants de service social
    https://www.anas.fr/Paye-tes-allocs-_a1880.html

    DÉCLARATION DE L’ANAS DU 4 AVRIL 2022

    Paris, le 4 avril 2022,
     

    Depuis plus de trois ans, le site « mes-allocs.fr » prospère illégalement sur le dos des personnes les plus fragiles.

    Ce site se présente comme un simulateur de droits et propose aux internautes d’estimer leur éligibilité à certaines prestations en espèces à l’instar du site gouvernemental gratuit https://www.mesdroitssociaux.gouv.fr.

    Pourtant, derrière la vitrine d’une louable ambition énoncée sur son site internet, le fonctionnement de cette plateforme vient montrer une réalité bien plus mercantile en totale violation de la loi.

    En effet, il est proposé aux internautes de renseigner une multitude de données personnelles pour estimer un potentiel droit à une ou plusieurs prestations sociales. Dans un second temps, le site propose à l’utilisateur que ses « experts » réalisent le remplissage et l’envoi de formulaires d’accès à ces mêmes prestations en contrepartie de frais d’inscription et d’un abonnement de 29,90 euros par trimestre.

    Or, par un travail de collecte, d’analyse et de recherche, notre association, l’Association Nationale des Assistants de Service Social (ANAS), a établi le caractère illégal de l’activité de ce site internet (voir documents ci-dessous). Elle a par conséquent déposé plainte auprès de la procureure de la République d’Evry. Les principales institutions de sécurité sociale ont également été alertées.

    Pour l’ANAS, l’accès au système de protection sociale est gratuit et doit le demeurer au nom du principe de solidarité nationale.

    ben oui, on sait jamais à quelle sauce on va être mangé (ou trashé). le service public est ainsi fait que toute entreprise qui vient remédier à l’absence d’information sur les droits peut espérer prospérer. 30 balles c’est 10% de l’APL individuelle au montant le plus élevée possible. un RSA pour personne isolée, c’est 506 euros (max, car 12% de "forfait logement est ôté au montant théorique partout rabâche par la presse toujours plus ministérielle). le pire c’est de se faire une idée des montants de prime d’activité, ou de cumul alloc chômage, salaire de la chômeuse en activité à temps réduit...

    #opacité #allocataires #droits_sociaux #données_personnelles #mes-allocs.fr #racket #abus_de_faiblesse #CAF #simulateur_de_droits #Pôle_emploi #précarité

  • Contrôles discriminatoires : « Nous demandons le démantèlement des pratiques illégales des CAF » - Basta !
    https://basta.media/CAF-controles-abusifs-des-allocataires-CNAF-score-de-risque-fraude-tribune-


    Photo : Cheep, CC BY-SA 4.0, via Wikimedia Commons

    Contrôles abusifs des allocataires, suspension des versements, harcèlement des plus précaires… La CAF oublie ses missions initiales de protection et de soutien pour devenir un outil de police numérique. Une tribune du collectif « Changer de cap ».

    La numérisation à marche forcée des services publics contribue à faire des Caisses d’allocations familiales (CAF) un instrument de la mise en place d’une société de surveillance et de pénalisation des plus pauvres. Alors que la protection sociale est un droit universel depuis le Conseil national de la Résistance, les CAF développent une politique de plus en plus dure de contrôle des personnes en situation de précarité.

    Tous fichés...

    Plus de 1 000 données par personne sont collectées pour 13 millions de foyers [1], grâce à l’interconnexion de dizaines de fichiers administratifs (impôts, éducation, police, justice…) Les contrôleurs ont en outre le pouvoir de consulter nos comptes bancaires, nos factures de téléphone et d’énergie… Toutes ces données sont traitées à notre insu.

    Repère  :
    Le collectif « Changer de cap »
    Lire l’encadré
    Chaque allocataire fait l’objet d’un profilage établi par un logiciel, mais selon des variables définies par des décisions humaines. Des algorithmes déterminent des « scores de risque » de fraude, qui débouchent sur un véritable harcèlement des personnes en difficulté. Sont qualifiés de « risque » les variations de revenus, les situations familiales atypiques, la naissance hors de France… Il en résulte un ciblage des contrôles sur les personnes précaires, handicapées ou vulnérables.

    Plus de 32 millions de contrôles automatisés ont été réalisés par les CAF en 2020. Les témoignages collectés confirment la concentration de ces contrôles sur les femmes seules avec enfants, les chômeurs, des personnes handicapées, d’origine étrangère…

    [...]

    Vous pouvez vous joindre à cet #appel. Voici le lien pour le signer : https://changerdecap.net/petition-caf

    Voir les témoignages et le dossier complet https://changerdecap.net/caf-controle-social

    #allocataires #minima_sociaux #APL #RSA #CAF #CNAF #arbitraire #illégalité #contrôles #contrôleurs #visites_domiciliaires #indus #numérisation #reste_à_vivre #protection_sociale #droits_sociaux #précarité #précarisation #données_personnelles #données #pétition #chasse_aux_pauvres

  • Contrôles discriminatoires : « Nous demandons le démantèlement des pratiques illégales des CAF »
    https://www.laquadrature.net/2022/04/06/controles-discriminatoires-nous-demandons-le-demantelement-des-pratiqu

    Nous republions ici une tribune initiée par le collectif Changer de Cap et que nous avons signée. Elle est parue le 5 avril dans Basta !. Nous appelons à signer et faire circuler l’appel correspondant. Contrôles abusifs…

    #Données_personnelles #Surveillance #Vie_privée_-_Données_personnelles

  • Pourquoi s’opposer à la création de Mon Espace Santé ?
    https://www.laquadrature.net/2022/03/25/pourquoi-sopposer-a-la-creation-de-mon-espace-sante

    Expérimenté depuis le mois d’août 2021 dans trois départements de Métropole, le service Mon Espace Santé (qui prend la suite du Dossier Médical Partagé) a été généralisé à l’ensemble de la population depuis février 2022.…

    #Données_personnelles

    • Mon Espace Santé est un service manipulant des données sensibles qui est déployé à l’ensemble de la population française. Or, sa conception et son déploiement ne sont clairement pas au niveau des services les plus respectueux en matière de protection de la vie privée.

      Selon le Ségur du numérique en santé, son ambition est de « généraliser le partage fluide et sécurisé de données de santé entre professionnels et usagers pour mieux soigner et accompagner. »

      Mais pour cela, les besoins en terme de consentement et de gestion des données des usagères devraient être au cœur d’une expérience utilisatrice respectueuse, fiable et réaliste, ce qui à notre sens n’est pas le cas avec Mon Espace Santé. Sans oublier que ce service s’inscrit dans un processus de numérisation des services publics qui, trop souvent, ne tient pas compte des difficultés d’accès et d’utilisation d’Internet par de nombreuses personnes.

      Pour ces raisons, nous ne pouvons que remercier les nombreuses associations qui ont déjà alerté sur ce sujet et, comme elles, vous proposer des guides pour demander la suppression de votre espace santé.

      https://smg-pratiques.info/IMG/pdf/tuto_smg_refuser_mes.pdf

    • Tutoriel : comment s’opposer à l’activation de Mon Espace Santé - SMG, Syndicat de la Médecine Générale
      https://smg-pratiques.info/tutoriel-comment-s-opposer-a-l-activation-de-mon-espace-sante

      Pour faciliter votre droit d’opposition, nous mettons en ligne un tutoriel permettant de savoir, étape par étape, comment s’opposer à l’activation de Mon Espace Santé.

      Et je continue de détester fortement l’utilisation de la première personne du singulier pour s’adresser aux internautes. Ce type de communication renforce la puérilisation des administrés et la bascule du service public en business plan (Mon panier/Mon Espace Santé). C’est d’autant plus faux, qu’il n’y a justement plus rien qui m’appartienne, et ce n’est pas MON espace santé mais bien l’espace d’appropriation de nos données médicales par Microsoft et Consorts.

    • Vous savez ce qu’il en est pour les enfants ?

      Je lis ça sur le site d’ameli :
      "Les enfants peuvent aussi bénéficier des avantages de Mon espace santé. Pour activer leur profil, le parent auquel est rattaché l’enfant auprès de la caisse d’assurance maladie (CPAM) doit se connecter à monespacesante.fr avec le code provisoire envoyé pour son enfant. Le profil de l’enfant sera ensuite visible depuis le compte du parent qui a réalisé la démarche."
      https://www.ameli.fr/hauts-de-seine/assure/sante/mon-espace-sante

      Mais ça me fait me poser quelques questions et peut être que l’un de vous aurait la/les réponse(s) :

      Comment l’enfant reçoit le code provisoire s’il n’a pas d’email ? Est ce que c’est l’un des parents ou les 2 parents qu’ils vont le recevoir ?
      Si personne n’a reçu de code, est ce que l’espace santé est quand même créé ?

      Si le(s) parent(s) s’oppose(nt) à son(leur) espace santé, est ce que l’opposition se réalise par défaut également pour les enfants ?
      Sinon quels sont les recours pour s’opposer à l’espace santé de ses enfants ? (bon là je viens de voir que l’on peut s’opposer par téléphone...Donc j’imagine que c’est possible de cette manière...)

      (j’ai posé ces questions il y a plusieurs semaines aux services d’ameli mais ma demande est toujours en traitement... :( )

    • non non c’est séparé, mais c’est le parent rattaché qui reçoit, enfin moi je l’ai reçu en tout cas

      ce qui est bizarre c’est que j’ai d’abord annulé mon compte comme on peut le faire, et du coup au passage j’ai vu qu’il y avait le compte de mon fis aussi, et donc je l’ai déjà désactivé directement, mais avant de recevoir un email disant que son compte existe… et là la semaine dernière j’ai reçu un email pour lui disant que si je fais rien son compte va s’activer dans X jours, alors que je l’avais normalement déjà désactivé en avance juste après le mien…

  • 2 fils sur #Elize, l’#application numéro 1 des stores en France cette semaine

    François Malaussena sur Twitter

    Je lis des articles sur Elyze. Pour l’instant, pas un seul pour souligner le risque à ce que 2 inconnus sans encadrement aient en leurs mains l’une des bases de données probablement les plus puissantes de l’histoire #politique française. Que des partis payeraient cher pour avoir.

    https://twitter.com/malopedia/status/1482405960555577344

    et une faille de sécu découverte et corrigée

    Mathis Hammel sur Twitter

    Hier soir, j’ai découvert un problème de sécurité sur l’app Elyze (numéro 1 des stores en France cette semaine) qui m’a permis d’apparaître comme candidat à la présidentielle sur le téléphone de plusieurs centaines de milliers de français.

    Je vous explique ce qui s’est passé

    https://twitter.com/MathisHammel/status/1482393799456436228

    • Merci pour cette touche d’humour.

      Et quand on rigole d’une telle blague on est quoi ?
      Ça me rappel avoir vu Macron en vidéo qui disait qu’il y avait tout un tas de complot autour de lui qui le visait lui... Si même les politiques qui se servent habituellement des complots pour rallier les crédules disent qu’il existent des complots c’est le fin de la science.... 😏

    • On critique le Président parce qu’il s’occupe de Marseille à 6 mois de la fin de son mandat, mais vous croyez sérieusement que c’est facile de passer 4 ans et demi à rénover les milliardaires ?

  • Enquête sur une fuite de résultats de tests Covid en Autriche
    https://www.rts.ch/info/monde/12458791-pionnier-du-pass-sanitaire-le-danemark-en-tourne-la-page-le-suivi-du-co

    Les autorités autrichiennes ont annoncé mercredi l’ouverture d’une enquête après la fuite de dizaines de milliers de résultats de tests positifs au Covid-19 dans la province du Tyrol. Au total, 24’000 documents, incluant les noms, adresses et autres données personnelles, dont ceux de plusieurs responsables politiques connus, ont été divulgués à des médias, selon la Commission de protection des données.

    D’après la chaîne publique ORF et le quotidien Der Standard, qui ont accédé à la liste, c’est l’ancien directeur de la compagnie HG Lab Truck (filiale de HG Pharma), chargée d’effectuer les tests dans le Tyrol, qui est responsable de cette fuite. Il a expliqué avoir envoyé les données dans un courriel le 11 août à un technicien extérieur à l’entreprise, sous forme de tableaux Excel cryptés, mais a nié toute faute, assurant avoir été victime d’un piratage informatique.

    Dans un communiqué, le gouvernement du Tyrol a condamné ce nouvel épisode, se disant attaché à « des normes de sécurité élevées pour la protection des données », et annoncé une action en justice « s’il s’avère que les données ont bien été transmises à des tiers contrairement aux engagements pris ».

    #santé #surveillance #coronavirus #covid-19 #secret_médical #données #données_personnelles #bigdata #médecine #test_pcr #pcr #tests #Autriche