À Strasbourg, l’Europe intensifie discrètement le fichage des migrants
Dans un bâtiment discret, 350 personnes travaillent à renforcer le #contrôle et le #suivi des personnes entrant dans l’#espace_Schengen. Reportage dans l’agence de l’Union européenne qui renforce le fichage des migrants.
Dans le quartier du Neuhof à Strasbourg, un bâtiment hautement sécurisé attire l’œil. Dissimulée derrière le gymnase du Stockfeld et entourée de terrains vagues, l’#agence_européenne #eu-Lisa est protégée par deux lignes barbelées surplombées de caméras. Aux alentours du bâtiment, les agents de sécurité portent au cœur un petit drapeau bleu aux douze étoiles. Des véhicules immatriculés en France, au Luxembourg, en Belgique et en Allemagne stationnent sur le parking.
Créée en 2011 et opérationnelle depuis 2012, l’#agence_européenne_pour_la_gestion_opérationnelle_des_systèmes_d’information à grande échelle eu-Lisa développe et fait fonctionner les #bases_de_données de l’Union européenne (UE). Ces dernières permettent d’archiver les #empreintes_digitales des demandeurs et demandeuses d’asile mais aussi les demandes de visa ou les alertes de personnes portées disparues.
Le siège d’eu-Lisa est à Tallinn, en Estonie. Un bureau de liaison se trouve à Bruxelles et son centre opérationnel a été construit à Strasbourg. Lundi 26 février, le ministre délégué aux affaires européennes, Jean-Noël Barrot, est venu visiter l’endroit, où sont développés les nouveaux systèmes de suivi et de #filtrage des personnes migrantes et des voyageurs et voyageuses non européen·nes. Le « cœur de Schengen », selon la communication de l’agence.
Sur les écrans de contrôle, des ingénieur·es suivent les requêtes adressées par les États membres aux différents #systèmes_d’information_opérationnels. L’un d’eux raconte que le nombre de cyberattaques subies par l’agence est colossal : 500 000 tentatives par mois environ. La quantité de données gérées est aussi impressionnante : en 2022, le système #VIS (#Visa_Information_System) a enregistré 57 millions de demandes de #visas et 52 millions d’empreintes digitales. La même année, 86,5 millions d’alertes ont été transmises au système #SIS (#Schengen_Information_System).
Dans l’agence du Neuhof, une vingtaine de nationalités sont représentées parmi les 350 travailleurs et travailleuses. En tout, 500 mètres carrés sécurisés abritent les données confidentielles de dizaines de millions de personnes. 2 500 ordinateurs fonctionnent en permanence pour une capacité de stockage de 13 petabytes, soit 13 milliards de gigabytes. Vingt-quatre heures sur vingt-quatre et sept jours sur sept, l’eu-Lisa répond aux demandes de données des pays membres de l’espace Schengen ou de l’Union européenne.
Traduire la politique en #technologie
Au-delà de la salle de réunion, impossible de photographier les murs ou l’environnement de travail. L’enclave européenne est sous haute surveillance : pour entrer, les empreintes digitales sont relevées après un passage des sacs au scanner. Un badge connecté aux empreintes permet de passer un premier sas d’entrée. Au-delà, les responsables de la sécurité suivent les visiteurs de très près, au milieu d’un environnement violet et vert parsemé de plantes de toutes formes.
Moins de six mois avant le début des Jeux olympiques et paralympiques de Paris et deux mois après l’accord européen relatif au Pacte sur la migration et l’asile, l’agence aux 260 millions d’euros de budget en 2024 travaille à mettre en place le système de contrôle des flux de personnes le plus précis, efficace et complet de l’histoire de l’espace Schengen. Le pacte prévoit, par exemple, que la demande d’asile soit uniformisée à travers l’UE et que les « migrants illégaux » soient reconduits plus vite et plus efficacement aux frontières.
Pour accueillir le ministre, #Agnès_Diallo, directrice de l’eu-Lisa depuis 2023, diffuse une petite vidéo en anglais dans une salle de réunion immaculée. L’ancienne cadre de l’entreprise de services numériques #Atos présente une « agence discrète » au service de la justice et des affaires intérieures européennes. À l’eu-Lisa, pas de considération politique. « Notre agence a été créée par des règlements européens et nous agissons dans ce cadre, résume-t-elle. Nous remplaçons les frontières physiques par des #frontières_numériques. Nous travaillons à laisser passer dans l’espace Schengen les migrants et voyageurs qui sont légitimes et à filtrer ceux qui le sont moins. »
L’eu-Lisa invente, améliore et fait fonctionner les sept outils informatiques utilisés en réseau par les États membres et leurs institutions. L’agence s’assure notamment que les données sont protégées. Elle forme aussi les personnes qui utiliseront les interfaces, comme les agents de #Frontex, d’#Europol ou de la #police_aux_frontières. Au Neuhof, les personnes qui travaillent n’utilisent pas les informations qu’elles stockent.
Fichés dès l’âge de 6 ans
L’agence eu-Lisa héberge les empreintes digitales de 7,5 millions de demandeurs et demandeuses d’asile et « migrants illégaux » dans le système appelé Eurodac. Pour le moment, les données récoltées ne sont pas liées à l’identité de la personne ni à sa photo. Mais avec l’adoption des nouvelles règles relatives au statut de réfugié·e en Europe, Eurodac est en train d’être complètement refondé pour être opérationnel en 2026.
La réforme décidée en décembre 2023 prévoit que les demandeurs d’asile et « migrants illégaux » devront fournir d’autres informations biométriques : en plus de leurs empreintes, leur photo, leur nom, prénom et date et lieu de naissance seront enregistrés lors de leur entrée dans Schengen. La procédure vaudra pour toute personne dès l’âge de 6 ans (contre 14 avant la réforme). Les #données qui étaient conservées pour dix-huit mois pourront l’être jusqu’à cinq ans.
La quantité d’informations stockées va donc croître exponentiellement dès 2026. « Nous aurons énormément de données pour #tracer les mouvements des migrants irréguliers et des demandeurs d’asile », se félicite #Lorenzo_Rinaldi, l’un des cadres de l’agence venant tout droit de Tallinn. Eurodac permettra à n’importe quelle autorité policière habilitée de savoir très précisément par quel pays est arrivée une personne, ainsi que son statut administratif.
Il sera donc impossible de demander une protection internationale dans un pays, puis de s’installer dans un autre, ou de demander une seconde fois l’asile dans un pays européen. Lorenzo Rinaldi explique : « Aujourd’hui, il nous manque la grande image des mouvements de personnes entre les États membres. On pourra identifier les tendances, recouper les données et simplifier l’#identification des personnes. »
Pour identifier les itinéraires et contrôler les mouvements de personnes dans l’espace Schengen, l’agence travaille aussi à ce que les sept systèmes d’information fonctionnent ensemble. « Nous avions des bases de données, nous aurons désormais un système complet de gestion de ces informations », se réjouit Agnès Diallo.
L’eu-Lisa crée donc également un système de #traçage des entrées et des sorties de l’espace Schengen, sobrement appelé #Entry-Exit_System (ou #EES). Développé à l’initiative de la France dès 2017, il remplace par une #trace_numérique le tamponnage physique des passeports par les gardes-frontières. Il permet notamment de détecter les personnes qui restent dans Schengen, après que leur visa a expiré – les #overstayers, celles qui restent trop longtemps.
Frontières et Jeux olympiques
« Toutes nos équipes sont mobilisées pour faire fonctionner le système EES [entrées-sorties de l’espace Schengen – ndlr] d’ici à la fin de l’année 2024 », précise Agnès Diallo. Devant le Sénat en 2023, la directrice exécutive avait assuré que l’EES ne serait pas mis en place pendant les Jeux olympiques et paralympiques si son influence était négative sur l’événement, par exemple s’il ralentissait trop le travail aux frontières.
En France et dans onze autres pays, le système EES est testé depuis janvier 2024. L’agence estime qu’il sera prêt pour juillet 2024, comme l’affirme Lorenzo Rinaldi, chef de l’unité chargé du soutien à la direction et aux relations avec les partenaires de l’eu-Lisa : « Lorsqu’une personne non européenne arrive dans Schengen, elle devra donner à deux reprises ses #données_biométriques. Donc ça sera plus long la première fois qu’elle viendra sur le territoire, mais ses données seront conservées trois ans. Les fois suivantes, lorsque ses données seront déjà connues, le passage sera rapide. »
Ce système est prévu pour fonctionner de concert avec un autre petit nouveau, appelé #Etias, qui devrait être opérationnel d’ici au premier semestre de 2025. Les personnes qui n’ont pas d’obligation d’avoir de visa pour entrer dans 30 pays européens devront faire une demande avant de venir pour un court séjour – comme lorsqu’un·e citoyen·ne français·e demande une autorisation électronique de voyage pour entrer aux États-Unis ou au Canada. La procédure, en ligne, sera facturée 7 euros aux voyageurs et voyageuses, et l’autorisation sera valable trois ans.
L’eu-Lisa gère enfin le #système_d’information_Schengen (le #SIS, qui gère les alertes sur les personnes et objets recherchés ou disparus), le système d’information sur les visas (#VIS), la base de données des #casiers_judiciaires (#Ecris-TCN) et le #Codex pour la #coopération_judiciaire entre États membres.
L’agence travaille notamment à mettre en place une communication par Internet entre ces différents systèmes. Pour Agnès Diallo, cette nouveauté permettra une coordination sans précédent des agents aux frontières et des institutions judiciaires nationales et européennes dans les 27 pays de l’espace Schengen.
« On pourra suivre les migrants, réguliers et irréguliers », se félicite Fabienne Keller, députée européenne Renew et fervente défenseuse du Pacte sur les migrations. Pour la mise en place de tous ces outils, l’agence eu-Lisa devra former les États membres mais également les transporteurs et les voyageurs et voyageuses. L’ensemble de ces systèmes devrait être opérationnel d’ici à la fin 2026.
▻https://www.mediapart.fr/journal/international/050324/strasbourg-l-europe-intensifie-discretement-le-fichage-des-migrants
#fichage #migrations #réfugiés #biométrie
via @karine4
ping @_kg_
Piratage de Viamedis et Almerys : les données de santé plus de 33 millions de personnes concernées, selon la CNIL
▻https://www.lemonde.fr/pixels/article/2024/02/07/piratage-de-viamedis-et-almerys-les-donnees-de-plus-de-33-millions-de-person
Les données des millions d’assurés qui ont été compromises lors du piratage des bases de données sont « l’état civil, la date de naissance et le numéro de Sécurité sociale, le nom de l’assureur santé ainsi que les garanties du contrat souscrit », selon la CNIL.
]]>La France crée un fichier des personnes trans
▻https://www.laquadrature.net/2024/01/30/la-france-cree-un-fichier-des-personnes-trans
Révélé et dénoncé par plusieurs associations de défense des droits des personnes transgenres, un récent arrêté ministériel autorise la création d’un fichier de recensement des changements d’état civil. Accessible par la police et présenté comme…
]]>Pourquoi la #promesse de « vidéogérer » les #villes avec des caméras couplées à une #intelligence_artificielle séduit et inquiète
Sécurité, stationnement, déchets… #Nîmes a inauguré, à l’automne 2023, son « #hyperviseur_urbain ». Alors que la collecte et la circulation des #données sont au cœur de ce système, l’antenne locale de la Ligue des droits de l’homme s’inquiète. D’autres villes, comme #Dijon, ont déjà fait ce choix.
La salle a des allures de centre spatial : un mur de plus de 20 mètres de long totalement recouvert d’écrans, 76 au total, chacun pouvant se diviser en neuf. Ici parviennent les images des 1 300 #caméras disposées dans la ville de Nîmes et dans certaines communes de son agglomération.
A la pointe depuis 2001 sur le thème des #caméras_urbaines, se classant sur le podium des villes les plus vidéosurveillées du pays, Nîmes a inauguré, le 13 novembre 2023, son « #hyperviseur ». Ce plateau technique et confidentiel de 600 mètres carrés est entièrement consacré à une « nouvelle démarche de #territoire_intelligent », indique le maire (Les Républicains), Jean-Paul Fournier, réélu pour un quatrième mandat en 2020.
Avec cet outil dernier cri, sur lequel se relaient nuit et jour une cinquantaine de personnes, la ville fait un grand pas de plus vers la #smart_city (la « #ville_connectée »), une tendance en plein développement pour la gestion des collectivités.
Ce matin-là, les agents en poste peuvent facilement repérer, à partir d’images de très haute qualité, un stationnement gênant, un véhicule qui circule trop vite, un dépotoir sauvage, un comportement étrange… L’hyperviseur concentre toutes les informations en lien avec la gestion de l’#espace_public (sécurité, circulation, stationnement, environnement…), permet de gérer d’un simple clic l’éclairage public d’un quartier, de mettre une amende à distance (leur nombre a augmenté de 23 % en un an avec la #vidéoverbalisation) ou de repérer une intrusion dans un des 375 bâtiments municipaux connectés.
La collecte et la circulation des données en temps réel sont au cœur du programme. Le système s’appuie sur des caméras dotées, et c’est la nouveauté, de logiciels d’intelligence artificielle dont les #algorithmes fournissent de nouvelles informations. Car il ne s’agit plus seulement de filmer et de surveiller. « Nous utilisons des caméras qui permettent de gérer en temps réel la ville et apportent des analyses pour optimiser la consommation d’énergie, par exemple, ou gérer un flux de circulation grâce à un logiciel capable de faire du comptage et de la statistique », explique Christelle Michalot, responsable de ce centre opérationnel d’#hypervision_urbaine.
Si la municipalité n’hésite pas à présenter, sur ses réseaux sociaux, ce nouveau dispositif, elle est en revanche beaucoup plus discrète lorsqu’il s’agit d’évoquer les #logiciels utilisés. Selon nos informations, la ville travaille avec #Ineo, une entreprise française spécialisée dans le domaine de la #ville_intelligente. Le centre de police municipale est également équipé du logiciel de #surveillance_automatisée #Syndex, et d’un logiciel d’analyse pour images de vidéosurveillance très performant, #Briefcam.
Ce dernier logiciel, de plus en plus répandu dans les collectivités françaises, a été mis au point par une société israélienne rachetée par le japonais #Canon, en 2018. Il est surtout au cœur de plusieurs polémiques et d’autant d’actions en justice intentées par des syndicats, des associations et des collectifs qui lui reprochent, notamment, de permettre la reconnaissance faciale de n’importe quel individu en activant une fonctionnalité spécifique.
Le 22 novembre 2023, le tribunal administratif de Caen a condamné la communauté de communes normande #Cœur-Côte-Fleurie, ardente promotrice de cette solution technologique, « à l’effacement des données à caractère personnel contenues dans le fichier », en estimant que l’utilisation de ce type de caméras dites « intelligentes » était susceptible de constituer « une atteinte grave et manifestement illégale au #respect_de_la_vie_privée ». D’autres décisions de la #justice administrative, comme à #Nice et à #Lille, n’ont pas condamné l’usage en soi du #logiciel, dès lors que la possibilité de procéder à la reconnaissance faciale n’était pas activée.
A Nîmes, le développement de cette « surveillance de masse » inquiète la Ligue des droits de l’homme (LDH), la seule association locale à avoir soulevé la question de l’utilisation des #données_personnelles au moment de la campagne municipale, et qui, aujourd’hui encore, s’interroge. « Nous avons le sentiment qu’on nous raconte des choses partielles quant à l’utilisation de ces données personnelles », explique le vice-président de l’antenne nîmoise, Jean Launay.
« Nous ne sommes pas vraiment informés, et cela pose la question des #libertés_individuelles, estime celui qui craint une escalade sans fin. Nous avons décortiqué les logiciels : ils sont prévus pour éventuellement faire de la reconnaissance faciale. C’est juste une affaire de #paramétrage. » Reconnaissance faciale officiellement interdite par la loi. Il n’empêche, la LDH estime que « le #droit_à_la_vie_privée passe par l’existence d’une sphère intime. Et force est de constater que cette sphère, à Nîmes, se réduit comme peau de chagrin », résume M. Launay.
« Des progrès dans de nombreux domaines »
L’élu à la ville et à Nîmes Métropole Frédéric Escojido s’en défend : « Nous ne sommes pas Big Brother ! Et nous ne pouvons pas faire n’importe quoi. L’hyperviseur fonctionne en respectant la loi, le #RGPD [règlement général sur la protection des données] et selon un cahier des charges très précis. » Pour moderniser son infrastructure et la transformer en hyperviseur, Nîmes, qui consacre 8 % de son budget annuel à la #sécurité et dépense 300 000 euros pour installer entre vingt-cinq et trente nouvelles caméras par an, a déboursé 1 million d’euros.
La métropole s’est inspirée de Dijon, qui a mis en place un poste de commandement partagé avec les vingt-trois communes de son territoire il y a cinq ans. En 2018, elle est arrivée deuxième aux World Smart City Awards, le prix mondial de la ville intelligente.
Dans l’agglomération, de grands panneaux lumineux indiquent en temps réel des situations précises. Un accident, et les automobilistes en sont informés dans les secondes qui suivent par le biais de ces mâts citadins ou sur leur smartphone, ce qui leur permet d’éviter le secteur. Baptisé « #OnDijon », ce projet, qui mise aussi sur l’open data, a nécessité un investissement de 105 millions d’euros. La ville s’est associée à des entreprises privées (#Bouygues_Telecom, #Citelum, #Suez et #Capgemini).
A Dijon, un #comité_d’éthique et de gouvernance de la donnée a été mis en place. Il réunit des habitants, des représentants de la collectivité, des associations et des entreprises pour établir une #charte « de la #donnée_numérique et des usages, explique Denis Hameau, adjoint au maire (socialiste) François Rebsamen et élu communautaire. La technique permet de faire des progrès dans de nombreux domaines, il faut s’assurer qu’elle produit des choses justes dans un cadre fixe. Les données ne sont pas là pour opprimer les gens, ni les fliquer ».
Des « systèmes susceptibles de modifier votre #comportement »
Nice, Angers, Lyon, Deauville (Calvados), Orléans… Les villes vidéogérées, de toutes tailles, se multiplient, et avec elles les questions éthiques concernant l’usage, pour le moment assez flou, des données personnelles et la #surveillance_individuelle, même si peu de citoyens semblent s’en emparer.
La Commission nationale de l’informatique et des libertés (CNIL), elle, veille. « Les systèmes deviennent de plus en plus performants, avec des #caméras_numériques capables de faire du 360 degrés et de zoomer, observe Thomas Dautieu, directeur de l’accompagnement juridique de la CNIL. Et il y a un nouveau phénomène : certaines d’entre elles sont augmentées, c’est-à-dire capables d’analyser, et ne se contentent pas de filmer. Elles intègrent un logiciel capable de faire parler les images, et ces images vont dire des choses. »
Cette nouveauté est au cœur de nouveaux enjeux : « On passe d’une situation où on était filmé dans la rue à une situation où nous sommes analysés, reprend Thomas Dautieu. Avec l’éventuel développement des #caméras_augmentées, quand vous mettrez un pied dans la rue, si vous restez trop longtemps sur un banc, si vous prenez un sens interdit, vous pourrez être filmé et analysé. Ces systèmes sont susceptibles de modifier votre comportement dans l’espace public. Si l’individu sait qu’il va déclencher une alerte s’il se met à courir, peut-être qu’il ne va pas courir. Et cela doit tous nous interpeller. »
Actuellement, juridiquement, ces caméras augmentées ne peuvent analyser que des objets (camions, voitures, vélos) à des fins statistiques. « Celles capables d’analyser des comportements individuels ne peuvent être déployées », assure le directeur à la CNIL. Mais c’est une question de temps. « Ce sera prochainement possible, sous réserve qu’elles soient déployées à l’occasion d’événements particuliers. » Comme les Jeux olympiques.
Le 19 mai 2023, le Parlement a adopté une loi pour mieux encadrer l’usage de la #vidéoprotection dite « intelligente ». « Le texte permet une expérimentation de ces dispositifs, et impose que ces algorithmes ne soient mis en place, avec autorisation préfectorale, dans le temps et l’espace, que pour une durée limitée, par exemple pour un grand événement comme un concert. Ce qui veut dire que, en dehors de ces cas, ce type de dispositif ne peut pas être déployé », insiste Thomas Dautieu. La CNIL, qui a déjà entamé des contrôles de centres d’hypervision urbains en 2023, en fait l’une de ses priorités pour 2024.
▻https://www.lemonde.fr/societe/article/2024/01/02/pourquoi-la-promesse-de-videogerer-les-villes-avec-des-cameras-couplees-a-un
#vidéosurveillance #AI #IA #caméras_de_vidéosurveillance
Europe’s (digital) borders must fall: End the expansion of the EU’s #EURODAC database
110 civil society organisations, including Statewatch, are calling for an end to the expansion of EURODAC, the EU database for the registration of asylum-seekers. EURODAC, designed to collect and store migrants’ data, is being transformed into an expansive, violent surveillance tool that will treat people seeking protection as crime suspects This will include children as young as 6 whose fingerprints and facial images will be integrated into the database.
Europe’s (digital) borders must fall: End the expansion of the EU’s EURODAC database
EURODAC is being expanded to enforce the EU’s discriminatory and hostile asylum and migration policies: increasing deportations, detention and a broader climate of racialised criminalisation.
The endless expansion of EURODAC must be stopped: ▻https://edri.org/wp-content/uploads/2021/10/EURODAC-open-letter.pdf.
What is EURODAC?
Since its inception in 2003, the EU has repeatedly expanded the scope, size and function of EURODAC.
Created to implement the Dublin system and record the country responsible for processing asylum claims, it originally stored only limited information, mostly fingerprints, on few categories of people: asylum-seekers and people apprehended irregularly crossing the EU’s borders. From the start, this system has been a means to enforce a discriminatory and harmful deportation regime, premised on a false framework of ‘illegality’ in migration.
After a first reform in 2013 allowing police to access the database, the EU continues to detach EURODAC from its asylum framework to re-package it as a system pursuing ‘wider immigration purposes’. The changes were announced in 2020 in the EU Migration Pact, the EU’s so-called ‘fresh start on migration’. Rather than a fresh start, the proposals contain the harshest proposals in the history of the EU’s migration policy: more detention, more violence, and a wider, evolved tool of surveillance in the EURODAC database to track, push back and deport ‘irregular’ migrants.
How is the EURODAC expansion endangering people’s human rights?
More people included into the database: Concretely EURODAC would collect a vast swathe of personal data (photographs, copies of travel and identity documents, etc.) on a wider range of people: those resettled, relocated, disembarked following search and rescue operations and arrested at borders or within national territories.
Data collection on children: The reform would also lower the threshold for storing data in the system to the age of six, extend the data retention periods and weaken the conditions for law enforcement consultation of the database.
Including facial images into the database: The reform also proposes the expansion to include facial images. Comparisons and searches run in the database can be based on facial recognition – a technology notoriously error-prone and unreliable that threatens the essence of dignity, non- discrimination and privacy rights. The database functions as a genuine tool of violence as it authorises the use of coercion against asylum-seekers who refuse to give up their data, such as detention and forced collection. Not only do these changes contradict European data protection standards, they demonstrate how the EU’s institutional racism creates differential standards between migrants and non-migrants.
Access by law enforcement: EURODAC’s revamp also facilitates its connection to other existing EU migration and police databases as part of the so-called ‘interoperability’ initiative - the creation of an overarching EU information system designed to increase police identity checks of non-EU nationals, leading to increased racial profiling. These measures also unjustly equate asylum seekers with criminals. Lastly, the production of statistics from EURODAC data and other databases is supposed to inform future policymaking on migration movement trends. In reality, it is expected that they will facilitate illegal pushbacks and overpolicing of humanitarian assistance.
End the expansion of EURODAC
The EURODAC reform is a gross violation of the right to seek international protection, a chilling conflation of migration and criminality and an out-of-control surveillance instrument. The far- right is already anticipating the next step, calling for the collection of DNA.
The EURODAC reform is one of many examples of the digitalisation of Fortress Europe. It is inconsistent with fundamental rights and will undermine frameworks of protection and rights of people on the move.
We demand:
– That the EU institutions immediately reject the expansion of EURODAC.
- For legislators to prevent further violence and ensure protection at and within borders when rethinking the EURODAC system.
- For legislators and EU Member States to establish safe and regular pathways for migrants and protective reception conditions.
▻https://www.statewatch.org/news/2023/december/europe-s-digital-borders-must-fall-end-the-expansion-of-the-eu-s-eurodac
#base_de_données #surveillance #frontières #frontières_digitales #migrations #asile #réfugiés #Dublin #règlement_Dublin #données_personnelles #reconnaissance_faciale #technologie
Comment la CAF a traité mon dossier avec un « robot à dettes » | Le Club
▻https://blogs.mediapart.fr/lucieinland/blog/150421/comment-la-caf-traite-mon-dossier-avec-un-robot-dettes
26 mars, appel de la CAF. Le conseiller confirme que c’est bien « le logiciel » qui a traité mon dossier selon certains paramètres. Jugé trop complexe depuis la déclaration de création de micro-entreprise, il a été remis à zéro puis re-traité, d’où la demande de documents. Malgré mes questions je n’ai pas compris pourquoi seule ma situation d’auto-entrepreneuse est retenue, bien qu’aussi salariée, avec les déclarations de revenus adéquates. Le mail notifiant ma dette a été envoyé dès que l’algorithme a détecté une erreur dans mon dossier. La machine menace d’abord, les humain·es vérifient ensuite. Seul mon mail a permis à la CAF de classer vite et correctement mon dossier. Et ce sont bien leurs outils automatisés qui m’ont mis en difficulté.
]]>ENQUETE. Idemia : la face cachée de la société qui fabrique notre carte Vitale
▻https://www.francetvinfo.fr/sciences/high-tech/enquete-idemia-la-face-cachee-de-la-societe-qui-fabrique-notre-carte-vi
Spécialisée dans les technologies de l’identité biométrique, l’entreprise Idemia accumule les déboires en France et à l’étranger. (JOHN LUND / GETTYIMAGES)
–---
Le leader français de l’identité biométrique, Idemia, est notamment connu pour fabriquer la carte Vitale française. Mais ces dernières années, il a rencontré de nombreux déboires : sanction du PNF, incarcération abusive après une erreur de son algorithme et annulation d’une élection au Kenya.
Quand Nijeer Parks répond à l’appel de sa grand-mère, en ce jour de janvier 2019, rien ne pouvait le préparer à ce qui allait suivre. À l’époque, ce charpentier afro-américain de 28 ans mène une vie rangée dans le New Jersey, dans le nord-est des États-Unis. Sa grand-mère lui apprend alors qu’il est recherché par la police de Woodbridge, une ville située à 30 kilomètres de son domicile. Il est accusé de vol à l’étalage et de tentative d’homicide contre un policier.
>> ENQUETE. Quand le ministère de la Santé retoque deux campagnes de prévention sur l’alcool
Les faits se sont déroulés à Woodbridge. Mais Nijeer Parks n’y a jamais mis les pieds. Il n’a même aucune idée d’où se trouve cette ville. Il décide donc de se rendre au commissariat pour lever le malentendu et prouver son innocence. Mais rien ne se passe comme prévu : malgré ses explications, Nijeer Parks se retrouve menotté dans une salle d’interrogatoire. Ce qu’il ignore encore, c’est qu’il est victime d’un faux positif produit par un algorithme de reconnaissance faciale fourni par la société française Idemia. Celle-là même qui fabrique les cartes Vitales en France. Une erreur d’identification d’un logiciel couplé à une enquête bâclée. « Ils ont ignoré toutes les preuves qui pouvaient l’innocenter, déplore Daniel Sexton, l’avocat de Nijeer Parks. Ils avaient des empreintes digitales, des traces d’ADN, des images de vidéo-surveillance… Mais comme ils ont eu ce résultat de reconnaissance faciale, ils ont juste ignoré le reste ».
Selon l’avocat, le procureur avait connaissance de ces manquements de la police. Il requerra pourtant une peine de 20 ans à l’encontre de Nijeer Parks, évoquant ses antécédents judiciaires. Plus jeune, Parks avait été impliqué dans une affaire de possession et de vente de substances illicites.
Des machines imparfaites
Les charges seront finalement abandonnées en novembre 2019, compte tenu des preuves présentées devant la cour par la défense. Au moment des faits, Nijeer Parks était en train d’effectuer un transfert d’argent dans une agence Western Union à des kilomètres de Woodbridge. Il aura tout de même passé 13 jours derrière les barreaux pour un délit qu’il n’avait pas commis, et il déposera plainte contre la police.
« Ils ont fait confiance au logiciel. Sauf que le logiciel n’était pas fiable. C’est un problème que l’on voit dans toutes les affaires d’arrestations injustifiées que nous connaissons, explique Nate Wessler, responsable des questions liées à la vie privée et aux technologies pour l’Union américaine pour les libertés civiles (ACLU). Les gens supposent que ces machines sont plus précises et intelligentes qu’un humain. Sauf que ce sont des programmes informatiques créés par des humains, entraînés sur des données imparfaites et qui font souvent des erreurs ».
Portrait du suspect (gauche) et celui de Nijeer Parks (droite), capture d’écran d’une vidéo CNN Business (Youtube). (AUCUN)
Portrait du suspect (gauche) et celui de Nijeer Parks (droite), capture d’écran d’une vidéo CNN Business (Youtube). (AUCUN)
Interrogé sur cette affaire, Idemia n’a pas souhaité répondre, la société n’étant pas poursuivie par Nijeer Parks. Elle a néanmoins précisé que ses équipes travaillaient activement pour « améliorer l’équité des algorithmes d’intelligence artificielle » et rappelle que ses technologies sont « à la première place au test d’équité pour la détection de fausses correspondances », réalisé par l’Institut national américain des normes et de la technologie, le NIST.
L’histoire d’Idemia démarre dans les années 1970, en Afrique de l’Ouest sous son nom originel : Morpho. C’est dans les anciennes colonies françaises que l’entreprise, alors une émanation de la Caisse des dépôts et consignations (CDC), développe des solutions de biométrie pour aider à la création d’états-civils inexistants ou imparfaits dans ces pays nouvellement indépendants. « Il fallait trouver un critère physique permettant d’assurer la construction d’un état-civil, se souvient Bernard Didier, fondateur de Morpho. Ils ont pensé que l’empreinte digitale pourrait être un bon moyen de le faire ».
Mais le marché n’est pas rentable. En dépit des millions d’euros injectés dans le projet par la CDC, les contrats africains ne rapportent pas assez. « C’était un marché insolvable, regrette Bernard Didier. Les États n’avaient pas l’argent nécessaire au financement des équipements de très haute technologie. Nous nous sommes donc rabattus sur des activités de police scientifique. Parce que les polices du monde entier cherchaient des solutions pour les collections d’empreintes digitales ». Le marché « sécurité » devient donc prioritaire. Il conduit la société à démarcher aux États-Unis. À partir des années 1980, elle y signe plusieurs contrats, avec des villes moyennes comme Tacoma, au sud de Seattle, mais aussi la ville puis l’État de New York, et même le FBI en 2009, à qui elle fournit un logiciel de reconnaissance d’empreintes digitales.
Appareil de reconnaissance digitale, capture d’écran d’une vidéo promotionnelle Idemia, Vimeo, septembre 2023. (AUCUN)
Appareil de reconnaissance digitale, capture d’écran d’une vidéo promotionnelle Idemia, Vimeo, septembre 2023. (AUCUN)
Le succès est au rendez-vous. Mais la Caisse des dépôts décide de se séparer de Morpho en 1993. Elle vend la société pour un euro symbolique à Sagem, une entreprise française alors spécialisée dans les télécommunications. S’en suivent un certain nombre de fusions et de rachats. En 2005, Sagem devient Safran. Morpho est rebaptisée plusieurs fois. Puis, en 2017, Safran vend sa filiale biométrique au fonds d’investissement américain Advent, qui la fusionne avec une autre entreprise française : Oberthur Technologies, imprimeur high-tech et spécialiste en sécurité numérique. De là, naît Idemia, qui est aujourd’hui considérée comme une des entreprises leader dans le secteur « identité et sécurité », aux côtés de Thalès.
Une amende de huit millions d’euros
Mais la suite ne sera pas de tout repos. En 2017, le parquet national financier (PNF) reçoit un signalement de la National Crime Agency britannique. Il met sur pied une équipe pour enquêter avec elle. Leurs investigations mettront au jour un schéma de corruption : afin d’obtenir le marché des cartes d’identité à puce au Bangladesh, entre 2014 et 2016, Oberthur aurait surfacturé des prestations pour rémunérer un intermédiaire. Selon le PNF, il s’agissait d’"un apporteur d’affaires influent en Asie dans le secteur de l’identité, disposant de connexions avec l’autorité publique du Bangladesh".
Les enquêteurs du PNF ont retrouvé la trace d’un virement de 730 000 euros entre Oberthur et l’une des sociétés sous-traitantes. Ce paiement devait permettre de rémunérer un agent public bangladais, qui a joué un rôle dans l’attribution de ce marché. Résultat : Idemia (qui de fait a succédé à Oberthur) accepte de signer une convention judiciaire d’intérêt public avec le PNF en 2022. La société payera une amende de près de huit millions d’euros pour éviter un procès. Une partie de ses services sera interdite de concourir à des appels d’offres de la Banque mondiale pendant deux ans et demi. Un coup dur, car c’était un bailleur important pour l’entreprise, notamment pour ses marchés en Afrique.
Selon une enquête réalisée sur le marché de la biométrie électorale en Afrique par Marielle Debos et Guillaume Desgranges, tous les deux chercheurs à l’université Paris-Nanterre, Idemia fait en effet partie de ces acteurs français qui dominent le marché sur ce continent. En 2020, ils ont recensé au moins huit pays ayant utilisé ses technologies dans le cadre de scrutins électoraux.
Présence d’Idemia (M) pour chaque recensement biométrique électoral et corrélation entre nationalité des entreprises et ancienne puissance coloniale. (MARIELLE DEBOS ET GUILLAUME DESGRANGES, POUR AFRIQUEXXI)
Présence d’Idemia (M) pour chaque recensement biométrique électoral et corrélation entre nationalité des entreprises et ancienne puissance coloniale. (MARIELLE DEBOS ET GUILLAUME DESGRANGES, POUR AFRIQUEXXI)
Mais la médaille a un revers. En Côte d’Ivoire, le scrutin présidentiel de 2010, organisé avec l’aide d’Idemia - Safran, à l’époque - a été le plus cher jamais organisé en Afrique. « Il a battu tous les records avec un coût de quasiment 57 dollars par électeur, dont 46 pour la biométrie, explique Marielle Debos. La facture a atteint des sommes astronomiques en raison des retards pris par le projet. L’entreprise a réclamé 246 millions d’euros à l’État ivoirien ». Idemia justifie cette facture par le périmètre de la mission qui lui avait été confiée : « Il s’agissait d’une intervention qui va bien au-delà de l’organisation de l’élection. Il s’agissait également de procéder au recensement des populations ».
Cet épisode ne va cependant pas ternir l’image de l’entreprise, puisqu’elle signe de nouveaux contrats en Afrique dans la décennie qui suit, notamment au Kenya. En 2017, le pays prépare son élection présidentielle. Il souhaite s’équiper d’une technologie biométrique. Une démarche motivée par le souvenir douloureux des événements qui ont suivi les élections générales, dix ans plus tôt : « En 2007, suite à des contestations électorales, un certain nombre de violences ont conduit à la mort de quasiment 1 500 personnes en un mois et à plusieurs centaines de milliers de déplacés », précise Tomas Statius, journaliste au média à but non-lucratif Lighthouse Reports.
Une élection annulée
Dans l’espoir de ne pas reproduire les erreurs du passé, le Kenya décide donc de faire confiance à la technologie d’Idemia. La société française fournit un système d’inscription biométrique des électeurs, couplé à 45 000 tablettes permettant leur authentification le jour du scrutin. Ces tablettes peuvent également transmettre des formulaires comprenant les résultats de chaque bureau de vote, après leur décompte.
Mais dans les mois qui précèdent le scrutin, la commission électorale kényane s’inquiète. Les comptes-rendus de ses réunions, obtenus par Lighthouse Reports et le média d’investigation Africa Uncensored, révèlent « à la fois une impréparation des autorités kényanes, mais aussi de l’entreprise française, affirme Tomas Statius. Plusieurs commissaires électoraux kényans considèrent que le contrat a été signé à la hâte. Ils constatent aussi un certain nombre de dysfonctionnements durant les tests réalisés avant les élections ».
Démonstration de l’utilisation d’un kit d’enregistrement biométrique des électeurs (BVR) à Kasarani, Nairobi, le 6 novembre 2012. (SIMON MAINA / AFP)
Démonstration de l’utilisation d’un kit d’enregistrement biométrique des électeurs (BVR) à Kasarani, Nairobi, le 6 novembre 2012. (SIMON MAINA / AFP)
Le jour du scrutin, ces craintes deviennent réalité : « Ce sont d’abord des pannes, avec des tablettes qui n’ont pas assez de batterie pour fonctionner, poursuit Tomas Statius. Des problèmes d’internet évidemment, de 4G qui ne fonctionne pas. Il y a aussi des problèmes de lecture des résultats ». Tous ces dysfonctionnements conduiront la Cour suprême kényane à annuler l’élection. Les Kényans retourneront aux urnes deux mois plus tard. Comme la première fois, le président sortant, Uhuru Kenyatta, remportera l’élection, mais avec 98% des votes. Et il sera le seul candidat, l’opposant Raila Odinga ayant décidé de ne pas se représenter.
Dans sa réponse à la Cellule Investigation de Radio France, Idemia se félicite « d’avoir pu remplir avec succès ses engagements en faveur de la démocratie kényane, et réaffirme humblement aujourd’hui à quel point il peut considérer positivement le résultat des deux élections de 2017 » malgré un « contexte difficile ».
Cet échec ne va d’ailleurs pas l’empêcher de participer au programme de carte d’identité biométrique lancée par le gouvernement kényan l’année suivante. L’objectif était de créer un numéro d’identification unique pour chaque citoyen. L’idée, c’était de permettre, par la suite, d’accéder aux services de l’État via cet identifiant, lié aux données biométriques de la personne. Ce conditionnement d’accès aux services de l’État inquiète cependant une minorité ethnique dans le pays : les Nubiens. « La base de données se voulait être le seul outil permettant de vérifier une identité, explique Yassah Musa, responsable de l’ONG Nubian Rights Forum. Mais pour y être enregistré, il fallait présenter des documents tels qu’un certificat de naissance, une carte d’identité, un permis de conduire ou un passeport. Or, la communauté nubienne n’a toujours pas accès à ces documents officiels ».
Une femme kényane regarde une caméra biométrique, collecte de données générant un numéro unique qui permet d’accéder aux services gouvernementaux. (SIMON MAINA / AFP)
Une femme kényane regarde une caméra biométrique, collecte de données générant un numéro unique qui permet d’accéder aux services gouvernementaux. (SIMON MAINA / AFP)
En 2020, saisie par l’association Nubian Rights Forum, la Haute cour du Kenya reconnaît l’existence d’un risque d’exclusion : « Cela peut être le cas pour ceux qui n’ont pas de documents d’identité, ni de données biométriques, telles que les empreintes digitales. Nous pensons donc qu’une partie de la population risquerait d’être discriminée », peut-on lire dans sa décision. En 2021, la Haute cour suspendra ce système d’identité biométrique. De son côté, le Parlement kényan essaye d’interdire Idemia de tout contrat dans le pays pendant dix ans. Une décision qui sera finalement annulée par la Haute cour du Kenya.
Mais Idemia n’en a pas fini avec ce pays. En septembre 2022, l’ONG Data Rights, aux côtés d’autres associations notamment kényanes, a déposé une plainte auprès de la Commission nationale de l’informatique et des libertés (Cnil) en France. Lors du scrutin kényan, les données des votes des électeurs ont, en effet, été hébergées sur des serveurs européens. Or, en opérant à l’étranger, l’entreprise transporte avec elle ses responsabilités en matière de protection des données en Europe. Celles-ci ont-elles été suffisamment protégées, comme l’exige le RGPD, le règlement européen de protection des données ? C’est là-dessus que la Cnil va devoir se prononcer.
]]>Projet de loi SREN et accès au porno : identifier les internautes ne résoudra rien
▻https://www.laquadrature.net/2023/09/19/projet-de-loi-sren-et-acces-au-porno-identifier-les-internautes-ne-res
Article co-écrit par La Quadrature du Net et Act Up-Paris. Parmi les nombreuses mesures du projet de loi visant à sécuriser et réguler l’espace numérique (« SREN » ou « Espace numérique ») figurent deux articles qui renforcent le contrôle…
]]>Règlement CSAR : la #Surveillance de nos communications se joue maintenant à Bruxelles
▻https://www.laquadrature.net/2023/09/18/reglement-csar-la-surveillance-de-nos-communications-se-joue-maintenan
Il y a un peu plus d’un an, la Commission européenne proposait l’un des pires textes jamais pensés sur le numérique : le règlement CSAR, également appelé « Chat control ». Affichant l’objectif de lutter contre les…
]]>Projet de loi SREN : le gouvernement sourd à la réalité d’internet
▻https://www.laquadrature.net/2023/09/12/projet-de-loi-sren-le-gouvernement-sourd-a-la-realite-dinternet
Le projet de loi visant à sécuriser et réguler l’espace numérique (aussi appelé « SREN » ou « Espace numérique ») est actuellement en discussion à l’Assemblée nationale, après avoir été voté en juillet dernier au Sénat. Ce texte,…
]]>Un vol massif de données personnelles à Pôle emploi, six millions d’inscrits pourraient être concernés - Le Parisien
▻https://www.leparisien.fr/economie/six-millions-de-personnes-pourraient-etre-concernees-par-un-vol-de-donnee
Nom, prénom, numéro de Sécurité sociale… Un nouvel « acte de cybermalvaillance » a touché l’opérateur, via l’un de ses prestataires. Il pourrait concerner les données de six millions de demandeurs d’emploi. La direction de Pôle emploi va porter plainte.
La CNIL va-t-elle enquêter ? A qui va-t-on ponctionner 4% du chiffre d’affaires annuel ?
]]>L’arrivée de #meta sur le fédivers est-elle une bonne nouvelle ?
▻https://www.laquadrature.net/2023/08/09/larrivee-de-meta-sur-le-fedivers-est-elle-une-bonne-nouvelle
Le fédivers (de l’anglais fediverse, mot-valise de « fédération » et « univers ») est un ensemble de médias sociaux composé d’une multitude de plateformes et de logiciels, où les uns communiquent avec les autres grâce à un protocole…
#Censure #Données_personnelles #Surveillance #facebook #fédiverse #interop #mastodon #régulation
]]>Worldcoin just officially launched. Here’s why it’s being investigated. | MIT Technology Review
▻https://www.technologyreview.com/2023/08/07/1077250/worldcoin-officially-launched-why-its-being-investigated/?truid=a497ecb44646822921c70e7e051f7f1a
It’s a project that claims to use cryptocurrency to distribute money across the world, though its bigger ambition is to create a global identity system called “World ID” that relies on individuals’ unique biometric data to prove that they are humans. It officially launched on July 24 in more than 20 countries, and Sam Altman, the CEO of OpenAI and one of the biggest tech celebrities right now, is one of the cofounders of the project.
The company makes big, idealistic promises: that it can deliver a form of universal basic income through technology to make the world a better and more equitable place, while offering a way to verify your humanity in a digital future filled with nonhuman intelligence, which it calls “proof of personhood.” If you’re thinking this sounds like a potential privacy nightmare, you’re not alone.
“Our investigation revealed wide gaps between Worldcoin’s public messaging, which focused on protecting privacy, and what users experienced. We found that the company’s representatives used deceptive marketing practices, collected more personal data than it acknowledged, and failed to obtain meaningful informed consent.”
What’s more, the company was using test users’ sensitive, but anonymized, data to train artificial intelligence models, but Eileen and Adi found that individuals did not know their data was being used that way.
Importantly, a core objective of the Worldcoin project is to perfect its “proof of personhood” methodology, which requires a lot of data to train AI models. If its proof-of-personhood system becomes widely adopted, this could be quite lucrative for its investors, particularly during an AI gold rush like the one we’re seeing now.
The company announced this week that it will allow other companies and governments to deploy its identity system.
“Worldcoin’s proposed identity solution is problematic whether or not other companies and governments use it. Of course, it would be worse if it were used more broadly without so many key questions being answered,” says Eileen. “But I think at this stage, it’s clever marketing to try to convince everyone to get scanned and sign up so that they can achieve the ‘fastest’ and ‘biggest onboarding into crypto and Web3’ to date, as Blania told me last year.”
#Biométrie #Vie_privée #Données_personnelles #Worldcoin #Proof_of_personhood
]]>#Frontex #risk_analyses based on unreliable information, EU watchdog says
The EU border management agency Frontex produces untrustworthy risk analyses on migration due to the ‘low reliability of the data collected’, an investigation conducted by the #European_Data_Protection_Supervisor (#EDPS) found on Wednesday (31 May).
The supervisor, which oversees the data processing of EU bodies, questioned the methodology used to integrate interviews collected on the field into risk analyses and denounced the “absence of a clear mapping and exhaustive overview of the processing of personal data” which the authority assessed as not sufficiently protected.
The voluntary nature of interviews themselves is also not guaranteed, the report has found, as they “are conducted in a situation of deprivation (or limitation) of liberty” and aim at “identifying suspects on the basis of the interviewee’s testimony”.
The concerns regard “the use of information of low reliability for the production of risk analyses and its implications for certain groups who may be unduly targeted or represented in the output of risk analysis products”.
“Such undue representation could have negative impacts on individuals and groups through operational actions as well as the policy decision-making process,” the EU watchdog said.
The new investigation results from fieldwork occurred in late 2022 at the Frontex headquarters in Warsaw.
It is not the first time that the body has raised serious concerns about the data processing practices of an EU agency. In 2020, the supervisor initiated an investigation on Europol, the EU’s law enforcement agency, that resulted in the European Commission revising the agency’s mandate.
Lack of protection
The report explains that Frontex uses as its “main source of personal data collection” interviews that it conducts jointly with the member state they are operating in. Interviews are carried out on an ad hoc basis with people intercepted while trying to cross a border “without authorisation”.
The EU agency collects information about their journey, the causes of the departure and any other information that can be relevant to the agency’s risk analysis.
Despite Frontex carrying out interviews without putting the name of individuals, the information the exchanges contain “would allow for the identification of the interviewee and thus constitutes personal data within the meaning of data protection law”, the report argued.
Among others, the EU agency collects personal data about individuals suspected to be involved in cross-border crimes, such as human smuggling, whose data are shared with Europol.
According to the report, the EU agency may not “systematically” collect information about cross-border crimes since it “must be strictly limited to” Europol, Eurojust, and the member states’ “identified needs”.
However, evidence shown by the EDPS indicates “that Frontex is automatically exchanging the debriefing reports with Europol without assessing the strict necessity of such exchange”.
Since the latter constitutes a breach of Frontex rules themselves, the authority said that it would open an investigation on the matter.
The authority also considers the arrangements that should be put in place when data are collected jointly between Frontex and member states to be “incomplete”.
According to the EDPS, there are “no arrangements between the joint controllers for the allocation of their respective data protection obligations regarding the processing of personal data of interviewees”.
“The audit report challenges the fundamental legality of risk analysis systems used against migrant people, and it highlights the serious harms that derive from their use,” Caterina Rodelli, EU Policy Analyst at the NGO Access Now told EURACTIV.
Rodelli sees the EDPS report as an “important step” to set a limit to Frontex’s “disproportionate power” and it comes in a pivotal moment of risk assessment of data collecting tools regarding migratory flows.
The authority sent Frontex 32 recommendations, of which 24 must to be implemented by the end of 2023.
▻https://www.euractiv.com/section/data-privacy/news/frontex-risk-analyses-based-on-unreliable-information-eu-watchdog-says
#chiffres #statistiques #méthodologie #fiabilité #europol #données_personnelles #frontières #migrations #réfugiés
–—
voir aussi ce fil de discussion auquel cet article a été ajouté :
►https://seenthis.net/messages/705957
uBlock Origin pour #Thunderbird
Un bloqueur de nuisances efficace, qui ménagera votre processeur et votre mémoire vive.
▻https://addons.thunderbird.net/fr/thunderbird/addon/ublock-origin
]]>L’Italie bloque ChatGPT, les grands modèles de langage inquiètent
▻https://www.nextinpact.com/article/71372/litalie-bloque-chatgpt-grands-modeles-langage-inquietent
Après le chatbot Replika début février, ChatGPT subit les foudres de l’autorité italienne. L’annonce a été faite par la Garante per la protezione dei dati personali (GPDP), l’équivalente de notre CNIL. D’autres institutions en Europe et aux États-Unis s’inquiètent aussi de ChatGPT, mais c’est le premier blocage du genre.
La GPDP n’y va pas par quatre chemins et ne veut laisser « aucun moyen pour ChatGPT de continuer à traiter des données en violation des lois sur la protection de la vie privée ». Le régulateur a ainsi imposé « une limitation temporaire, mais immédiate au traitement des données des utilisateurs italiens par OpenAI ». Cette dernière est pour rappel à l’origine de ChatGPT.
Les griefs de la GPDP contre ChatGPT
Dans son exposé des griefs, la GPDP commence par rappeler que ChatGPT « a subi le 20 mars une perte de données concernant les conversations des utilisateurs et des informations relatives au paiement des abonnés ».
L’autorité à d’autres reproches à faire, notamment l’absence « d’information aux utilisateurs et aux personnes dont les données sont collectées par Open AI et, plus important encore, il ne semble pas y avoir de base juridique par rapport à la collecte et au traitement massifs de données personnelles afin d’"entrainer" les algorithmes ».
La GPDP s’appuie sur des tests mis en ligne pour affirmer que « les informations mises à disposition par ChatGPT ne sont pas toujours factuelles, de sorte que des données personnelles inexactes sont traitées ». Elle reproche enfin l’absence de vérification d’age alors que, selon les conditions d’utilisation d’OpenAI, ChatGPT est interdit au moins de 13 ans.
Le régulateur italien explique enfin qu’OpenAI dispose de 20 jours pour lui notifier les mesures mises en place pour se conformer à son injonction, « faute de quoi une amende pouvant aller jusqu’à 20 millions d’euros ou 4 % du chiffre d’affaires annuel mondial pourra être infligée ».
La CNIL française n’a pas reçu de plainte
Interrogée par l’AFP, la CNIL précise n’avoir « pas reçu de plainte et n’a pas de procédure similaire en cours ». La Commission s’est néanmoins rapprochée de son homologue « afin d’échanger sur les constats qui ont pu être faits ».
La GPDP s’appuyant sur le RGPD pour expliquer sa décision, la CNIL et d’autres pays pourraient suivre le pas si les autorités arrivent à la même conclusion.
Europol et le BEUC s’inquiètent, une plainte à la FTC
Quoi qu’il en soit, la GPDP italienne n’est pas la seule institution à s’émouvoir de ChatGPT, et les inquiétudes ne datent pas d’hier. Europol a publié un document cette semaine sur « l’impact des grands modèles de langage [LLM, ndlr] sur l’application de la loi », expliquant que des criminels pourraient se servir de l’intelligence artificielle pour leurs méfaits.
Dangers des grands modèles de langage : des chercheuses avaient prévenu
Cette semaine également, le Center for AI and Digital Policy (CAIDP) a déposé une plainte auprès de la FTC (Federal Trade Commission). Elle « exhorte la FTC à enquêter sur OpenAI et à suspendre la vente de produits utilisant des grands modèles de langage, tels que GPT-4 ». Le CAIDP leur reproche notamment de décrire « comment commettre des actes terroristes, comment assassiner des dirigeants politiques et comment dissimuler la maltraitance des enfants. GPT-4 a la capacité d’entreprendre une surveillance de masse à grande échelle, en combinant sa capacité à ingérer des images, lier des identités et développer des profils complets ».
Dans la foulée, le Bureau européen des unions de consommateurs (BEUC) a demandé « aux autorités européennes et nationales d’ouvrir une enquête sur ChatGPT et les chatbots similaires ».
Le BEUC rappelle que l’Union européenne travaille actuellement sur la « première législation au monde sur l’IA », mais le Bureau craint qu’il faille encore « des années » avant que la loi n’entre en vigueur. Il ne souhaite donc pas laisser « les consommateurs exposés au risque de préjudice d’une technologie qui n’est pas suffisamment réglementée pendant cette période intérimaire ».
Le Sénat dégaine sa proposition de résolution
De manière opportune, le Sénat explique que sa commission des affaires européennes « a adopté à l’unanimité hier matin une proposition de résolution européenne pour appuyer l’instauration d’une réglementation européenne » dans le domaine des intelligences artificielles.
La commission affirme « la nécessité de prévenir une utilisation excessive de cette technologie, et d’en promouvoir un déploiement conforme aux valeurs européennes, c’est-à-dire au service de l’humain, fiable et éthique ». Les rapporteurs rappellent que « mal utilisée, l’intelligence artificielle est susceptible de causer de graves atteintes aux droits fondamentaux, qu’il s’agisse du respect de la vie privée, de l’accès à la justice ou encore du respect du principe de non-discrimination ».
La proposition de résolue comporte plusieurs points, notamment « l’interdiction générale de certaines applications particulièrement contraires aux valeurs de l’Union européenne ». Le document demande aussi d’« expliciter l’articulation entre la réglementation européenne sur l’intelligence artificielle et le règlement général sur la protection des données ».
Il ne s’agit que d’une proposition de la commission des affaires européennes, qui est désormais renvoyée à la commission des lois, « qui peut ou non s’en saisir avant qu’elle ne devienne définitivement une résolution du Sénat d’ici un mois ».
]]>Un appel au numéro 09 69 39 99 98 de La Banque Postale, qui me demande avant d’accéder à un interlocuteur de taper le numéro de mon compte suivi de mon code secret. Quand on me répond (par mon nom et prénom), je glisse quand même que cela s’appelle une faille de sécurité monstre. La réponse vaut de l’or : « Oui mais ici on accède pas à votre compte, c’est juste pour donner des informations ». Uhuh, et comme je demande à parler à une personne responsable, on me raccroche au nez.
#Labanquepostale #france #sécurité_informatique #données_personnelles #incurie_informatique #idiocratie
]]>‘Crazy invasive technology’ : UK faces legal challenge for GPS tagging of migrants
A complaint has been filed by the anti-surveillance advocacy group Privacy International against the U.K. #Home_Office, which is rolling out #GPS tracking devices for migrants entering the country through irregular routes. Privacy International says the practice is excessive, unlawful and threatens the fundamental rights to privacy to which everyone in the United Kingdom is entitled.
“These are just individuals who are seeking a new life in the U.K.,” said Lucie Audibert, a lawyer at Privacy International. “And so the necessity of surveilling them and monitoring in this way is highly questionable, and I question the effectiveness of it as well.”
The devices, which are bulky ankle bracelets of the same type that have been used in the criminal justice system for decades, monitor migrants’ movements 24/7. Anyone who is on immigration bail in the U.K. can be tagged, for an unlimited amount of time.
The Home Office unveiled a new 12-month pilot to experiment with tagging people arriving on small boats in June, when Prime Minister Boris Johnson said migrants couldn’t be allowed to simply “vanish” into the country. The Home Office have said they intend to use the tags to stop migrants bound for offshore detention centers in Rwanda from disappearing — despite absconding rates being as low as 1% in 2020, according to a Freedom of Information request by Migrants Organise.
Privacy International argues that the practice of tagging migrants lacks the proper safeguards that are in place when the devices are used in the criminal justice system. They add that the devices can be inaccurate as well as intrusive. The privacy rights charity filed complaints with the Information Commissioner’s Office and the Forensic Science Regulator.
Privacy and migration advocates say the Home Office can use the location data to check up on migrants who claim to remain in the U.K. on the basis of family ties with the country — to assess whether they really do visit their relatives. They also say the surveillance measure leaves migrants traumatized, stigmatized and — in some cases — housebound, afraid to engage with the outside world.
The use of GPS tagging on migrants has already been trialed extensively in the U.S., under a program known as “Alternatives to Detention,” which has been expanded under President Joe Biden. The U.S. government argues that placing people under electronic surveillance is kinder and less brutal than imprisonment, and keeps more people out of immigration detention centers. But immigrants in the U.S. say the tags are dehumanizing.
“You feel like you’re in prison again,” a U.S. asylum seeker told us in May. He described crying “tears of joy” when the bracelet was removed from his body after three months’ wear.
The argument that the tags are a humane alternative to detaining migrants has been mirrored in the U.K.’s policy, according to Audibert. But, she says, it’s a false premise: “Every alternative to detention in the criminal justice system has never reduced prison numbers. It has just expanded the size of the population that was controlled.”
The Home Office recently expanded the criteria for who is eligible to be tagged to include anyone who arrives in the U.K. via irregular routes, such as small boats — a practice which is now a criminal offense in the country. Earlier this month, a report in the Guardian revealed that the Home Office was rolling out new “facial recognition smartwatches” to migrants as a complement to the ankle tags. The smartwatches, though removable, require migrants convicted of a criminal offense to scan their face up to five times per day to ensure they’re still wearing them.
The Home Office, in a statement, emphasized the tags will be used on “foreign national criminals” but made no mention of its pilot scheme to also tag asylum seekers with GPS ankle bracelets.
A Home Office spokesperson said: “Since August 2021, the Home Office has successfully tagged over 2,500 foreign criminals, reassuring victims that their perpetrators cannot escape the law and will be removed from the U.K. at the earliest opportunity. Since January 2019, the Government has removed over 10,000 foreign criminals.”
The use of GPS tracking has severe effects on the mental health of the wearer, according to research by Monish Bhatia, a criminology lecturer at Birkbeck, University of London. He describes, in a report published last year, how many people who are tagged experience it as imprisonment and punishment. They say the tag makes them feel like criminals, and that they have to live with the stigma if their tag is spotted.
The tag means they’re often reluctant to engage with their community and do everyday activities like playing sport for fear of revealing their tag, and can end up isolating themselves, in a form of self-inflicted house arrest, because they do not want to be tracked.
Bhatia argued the practice of tagging had no use other than to wield power over asylum seekers and minority groups. “It’s purely for control — and it is discriminatory. I’ve called it racial surveillance on more than a few occasions and I’ll stick with that term to describe this technology,” he said.
The U.K. has in recent years rolled out a massive program of surveillance and technology to try to deter migrants from crossing the English Channel, at a cost of tens of millions of dollars to the British taxpayer. Audibert described how the GPS policy forms part of this strategy of deterrence and is part of the Home Office’s overall intention to stop migrants from making dangerous journeys across the water in small, fragile vessels.
“They’re pouring millions of pounds into this crazy invasive technology,” said Audibert, who described how most migrants had no interest in breaching their bail conditions. “It’s criminalizing people that aren’t criminals in the first place.”
▻https://www.codastory.com/authoritarian-tech/surveillance-uk-migrants-gps-trackers
#surveillance #migrations #asile #réfugiés #frontières #données #données_personnelles #UK #Angleterre #géolocalisation
–-
Et parallèlement l’Union européenne...
EU’s Frontex Tripped in Its Plan for ‘Intrusive’ Surveillance of Migrants
▻https://seenthis.net/messages/966671
EU’s Frontex Tripped in Its Plan for ‘Intrusive’ Surveillance of Migrants
Frontex and the European Commission sidelined their own data protection watchdogs in pursuing a much-criticised expansion of “intrusive” data collection from migrants and refugees to feed into Europol’s vast criminal databases, BIRN can reveal.
On November 17 last year, when Hervé Yves Caniard entered the 14-floor conference room of the European Union border agency Frontex in Warsaw, European newspapers were flooded with stories of refugees a few hundreds kilometres away, braving the cold at the Belarusian border with Poland.
A 14-year-old Kurd had died from hypothermia a few days earlier; Polish security forces were firing teargas and water cannon to push people back.
The unfolding crisis was likely a topic of discussion at the Frontex Management Board meeting, but so too was a longer-term policy goal concerning migrants and refugees: the expansion of a mass surveillance programme at Europe’s external borders.
PeDRA, or ‘Processing of Personal Data for Risk Analysis,’ had begun in 2016 as a way for Frontex and the EU police body Europol to exchange data in the wake of the November 2015 Paris attacks by Islamist militants that French authorities had linked to Europe’s then snowballing refugee crisis.
At the November 2021 meeting, Caniard and his boss, Frontex’s then executive director, Fabrice Leggeri, were proposing to ramp it up dramatically, allowing Frontex border guards to collect what some legal experts have called ‘intrusive’ personal data from migrants and asylum seekers, including genetic data and sexual orientation; to store, analyse and share that data with Europol and security agencies of member states; and to scrape social media profiles, all on the premise of cracking down on ‘illegal’ migration and terrorism.
The expanded PeDRA programme would target not just individuals suspected of cross-border crimes such as human trafficking but also the witnesses and victims.
Caniard, the veteran head of the Frontex Legal Unit, had been appointed that August by fellow Frenchman Leggeri to lead the drafting of the new set of internal PeDRA rules. Caniard was also interim director of the agency’s Governance Support Centre, which reported directly to Leggeri, and as such was in a position to control internal vetting of the new PeDRA plan.
That vetting was seriously undermined, according minutes of board meetings leaked by insiders and internal documents obtained via Freedom of Information requests submitted by BIRN.
The evidence gathered by BIRN point to an effort by the Frontex leadership under Leggeri, backed by the European Commission, to sideline EU data protection watchdogs in order to push through the plan, regardless of warnings of institutional overreach, threats to privacy and the criminalisation of migrants.
Nayra Perez, Frontex’s own Data Protection Officer, DPO, warned repeatedly that the PeDRA expansion “cannot be achieved by breaching compliance with EU legislation” and that the programme posed “a serious risk of function creep in relation to the Agency’s mandate.” But her input was largely ignored, documents reveal.
The DPO warned of the possibility of Frontex data being transmitted in bulk, “carte blanche”, to Europol, a body which this year was ordered to delete much of a vast store of personal data that it was found to have amassed unlawfully by the EU’s top data protection watchdog, the European Data Protection Supervisor, EDPS.
Backed by the Commission, Frontex ignored a DPO recommendation that it consult the EDPS, currently led by Polish Wojciech Wiewiórowski, over the new PeDRA rules. In a response for this story, the EDPS warned of the possibility of “unlawful” processing of data by Frontex.
Having initially told BIRN that the DPO’s “advisory and auditing role” had been respected throughout the process, shortly before publication of this story Frontex conceded that Perez’s office “could have been involved more closely to the drafting and entrusted with the role of the chair of the Board”, an ad hoc body tasked with drafting the PeDRA rules.
In June, the EDPS asked Frontex to make multiple amendments to the expanded surveillance programme in order to bring it into line with EU data protection standards; Frontex told BIRN it had now entrusted the DPO to redraft “relevant MB [Management Board] decisions in line with the EDPS recommendations and lessons learned.”
Dr Niovi Vavoula, an expert in EU privacy and criminal law at Queen Mary University of London, said that the expanded PeDRA programme risked the “discriminatory criminalisation” of innocent people, prejudicing the outcomes of criminal proceedings against those flagged as “suspects” by Frontex border guards.
As written, the revamped PeDRA “is another piece of the puzzle of the emerging surveillance and criminalisation of migrants and refugees,” she said.
Religious beliefs, sexual orientation
Leggeri had long held a vision of Frontex as more than simply a ‘border management’ body, one that would see it working in tandem with Europol in matters of law enforcement; to this end, both agencies have been keen to loosen restrictions on the exchange of personal data between them.
Almost six years to the day before the Warsaw PeDRA meeting, a gun and bomb attack by Islamist militants killed 130 people in Paris. It was November 13, 2015, at the height of the refugee crisis in the Mediterranean and Aegean Seas.
The following month, Leggeri signed a deal with the then head of Europol, Briton Richard Wainwright, which opened the door to the exchange of personal data between the two agencies. Addressing the UK parliament, Wainwright described a “symbiotic” relationship between the agencies in protecting the EU’s borders. In early 2016, a PeDRA pilot project launched in Italy, quickly followed by Greece and Spain.
At the same time, Europol launched its own parallel programme of so-called Secondary Security Checks on migrants and refugees in often cramped, squalid camps in Italy and Greece using facial recognition technology. The checks, most recently expanded to refugees from Ukraine in Lithuania, Poland, Romania, Slovakia and Moldova, were introduced “in order to identify suspected terrorists and criminals” but Europol is tight-lipped about the criteria determining who gets checked and what happens with the data obtained.
Since the launch of PeDRA, Frontex officers have been gathering information from newly-arrived migrants concerning individuals suspected of involvement in smuggling, trafficking or terrorism and transmitting the data to Europol in the form of “personal data packages,” which are then cross-checked against and stored within its criminal databases.
According to its figures, under the PeDRA programme, Frontex has shared the personal data – e.g. names, personal descriptions and phone numbers – of 11,254 people with Europol between 2016 and 2021.
But the 2015 version of the PEDRA programme was only its first incarnation.
Until 2019, rules governing Frontex meant that its capacity to collect and exchange the personal data of migrants had been strictly limited.
In December 2021, after years of acrimonious legal wrangling, the Frontex Management Board – comprising representatives of the 27 EU member states and the European Commission – gave the green light to the expansion of PeDRA.
Under the new rules, which have yet to enter into force, Frontex border guards will be able to collect a much wider range of sensitive personal data from all migrants, including genetic and biometric data, such as DNA, fingerprints or photographs, information on their political and religious beliefs, and sexual orientation.
The agency told BIRN it had not yet started processing personal data “related to sexual orientation” but that the collection of such information may be necessary to “determine whether suspects who appear to be similar are in fact the same.”
In terms of social media monitoring, Frontex said it had not decided yet whether to take advantage of such a tool; minutes of a joint meeting in April, however, show that Frontex and Europol agreed on “strengthening cooperation on social media monitoring”.
Indeed, in 2019, Frontex published plans to pay a surveillance company 400,000 euros to track people on social media, including “civil society and diaspora communities” within the EU, but abandoned it in November of that year after Privacy International questioned the legality of the plan.
Yet, under the expanded PeDRA, Vavoula, of Queen Mary University, said Frontex officers could be tasked without scraping social media profiles “without restrictions”.
Commenting on the entire programme, she added that PeDRA “could not have been drafted by someone with a deep knowledge of data protection law”. She cited numerous violations of elementary data protection safeguards, especially for children, the elderly and other vulnerable individuals, who should generally be treated differently from other subjects.
“Sufficient procedural safeguards should be introduced to ensure the protection of fundamental rights of children to the fullest possible extent including the requirement of justified reasons of such a processing of personal data,” Vavoula said. “Genetic data is much more sensitive than biometric data,” and therefore requires “specific safeguards” not present in the text.
Vavoula also noted the absence of a “maximum retention period,” warning, “Frontex may retain the data forever.”
Internal dissent swept aside
Internal documents seen by BIRN show that the man tasked by Leggeri to oversee the drafting of the new PeDRA rules, Caniard, ignored objections raised by the agency’s own data protection watchdog.
Perez, a Spanish lawyer and Frontex’s DPO, has the task of monitoring the agency’s compliance with EU data protection laws not only concerning the thousands of migrants whose data will be stored in its databases but also of the agency’s rapidly expanding staff base, currently numbering more than 1,900 but soon to include a ‘standing corps’ of up to 10,000 border guards.
She had also been working on earlier drafts of the new PeDRA rules since 2018, only to be leapfrogged by Caniard when he was appointed by Leggeri in August 2021.
When she was shown an advanced draft of the new PeDRA rules in October 2021, Perez did not mince her words. “The process of drafting the new rules de facto encroaches on the tasks legally assigned to the DPO,” she said in an internal Frontex document obtained by BIRN. “When the DPO issues an opinion, such advice cannot be overruled or amended.”
The DPO proposed more than a hundred changes to the draft; she warned that, under the proposed rules, Frontex “seems to arrogate the capacity to police the internet” through monitoring of social media and that victims and witnesses of crime whose data is shared with Europol face “undesirable consequences” of being part of a “pan-European criminal database.”
During intense internal discussions in late 2021, as the deadline for approving the new rules was fast approaching, the DPO said that Frontex had failed to make a compelling case for the collection of sensitive data such as ethnicity or sexual orientation.
“…the legal threshold to be met is not a ‘nice to have’ but a strict necessity,” Perez wrote.
When the final draft landed on the desk of the Frontex Management Board in November 2021, it was clear that many of the DPO’s recommendations had been disregarded.
At this point, Frontex was already the target of a probe by the European Anti-Fraud Office into its role in so-called ‘pushbacks’ in which migrants are illegally turned away at the EU’s borders, the findings of which would eventually force Leggeri’s resignation in April this year.
In an initial written response for this story, Frontex said that the DPO “had an active, pivotal role in the deliberations” concerning the new rules and that the watchdog’s “advisory and auditing role was respected” throughout the process.
Minutes of the November board meeting appeared to contradict this, however. Written in English and partially disclosed following an ‘access to documents request’, they cite Caniard conceding that the DPO was “consulted twice with a very short notice” and that, since Perez issued her opinion only the day before the meeting, there “was no possibility to take stock of it”. Perez submitted her opinion on November 16 and the board meeting was held on November 17 and 18.
The DPO, for its part, urged the management board to “work on the current draft to eliminate inconsistencies” and, though not legally obliged, “to consult the EDPS prior to adoption”.
Prior to publication of this story, BIRN asked Frontex again whether the DPO’s mandate had been respected during the drafting of the new PeDRA rules. The agency backtracked, saying it should have involved Perez’s office more closely and that the DPO would rewrite the programme.
Dissent was not confined to the DPO. Danish and Dutch representatives in the meeting urged the board to delay voting on the rules given that the DPO’s opinions had not been taken on board and to “do its utmost to avoid any situation where it is necessary to amend rules just adopted just because an EDPS’ conflicting opinion is issued.”
According to the minutes of the November meeting, the Commission representative, however, dismissed this, declaring that it considered the text “more than mature for adoption” and that there was no need to consult the EDPS because “it is not mandatory”.
Email exchanges between the Commission and Frontex reveal the urgency with which the Commission wanted the new rules adopted, even at the cost of foregoing EDPS participation.
One, from the Commission to Frontex on November 14, 2021, just days before the Board meeting said that, “while it would have been good to consult the EDPS on everything, it is more important now to get at least the two first decisions adopted.” An earlier mail, from July 2021 and sent directly to Leggeri, said it was “an absolute political priority to put in place the data protection framework of the Agency without any further delays.” That framework included the processing of personal data under PeDRA.
Asked why it supported the expansion of the Frontex surveillance programme without first having the proposal checked by EDPS, the Commission told BIRN it would not comment on “discussion held in the management board or other internal meetings.”
The EDPS, the EU’s top data protection authority, was only shown a copy of the new rules in late January 2022.
Asked for its opinion, the EDPS told BIRN it is “concerned that the rules adopted do not specify with sufficient clarity how the intended processing will be carried out, nor define precisely how safeguards on data protection will be implemented.”
The processing of highly vulnerable categories of individuals, including asylum seekers, could pose “severe risks for fundamental rights and freedoms,” such as the right to asylum, it said. It further stressed that “routine”, i.e. systematic, exchange of personal data between Frontex and Europol is not permitted and that such exchange can only take place “on a case-by-case basis.”
Collecting data with ‘religious’ fervour
Experts question the effectiveness of such extensive data collection in combating serious crime.
Douwe Korff, Emeritus Professor of international law at London Metropolitan University, decried the apparent lack of results and accountability.
“There isn’t even the absolute minimum requirement for law enforcement authorities to provide serious proof that the expansion of surveillance powers will be effective and proportionate,” said Korff, who has contributed to research on mass surveillance for EU institutions for years.
“If you ask how many people have you arrested using this data that are completely innocent, they don’t even want to know about this. They pursue this policy of mass data collection with a religious belief.”
Indeed, when the EDPS ordered Europol in January to delete data amassed unlawfully concerning individuals with no link to criminal activity, member states and the Commission came to the rescue with legal amendments enabling the agency to sidestep the order.
In May, Frontex and Europol put forward a proposal, drafted by a joint working group named ‘The Future Group’, for a new surveillance programme at the bloc’s external borders that would implement large-scale profiling of EU and third-country nationals using Artificial Intelligence.
▻https://balkaninsight.com/2022/07/07/eus-frontex-tripped-in-plan-for-intrusive-surveillance-of-migrants
#surveillance #migrations #asile #réfugiés #frontières #Frontex #données #Europol #PeDRA #Processing_of_Personal_Data_for_Risk_Analysis #Caniard #Hervé_Yves_Caniard #Leggeri #Fabrice_Leggeri #Nayra_Perez #Italie #Grèce #Espagne #Secondary_Security_Checks #données_personnelles
Les données numériques des femmes, armes de la justice américaine contre l’avortement ?
▻https://www.rts.ch/info/sciences-tech/technologies/13190398-les-donnees-numeriques-des-femmes-armes-de-la-justice-americaine-contre
La Cour suprême américaine pourrait remettre en cause le droit à l’avortement en laissant les Etats légiférer. Ceux qui interdiraient cet acte pourraient poursuivre des femmes en se basant sur leurs données numériques.
La criminalisation de l’avortement pourrait prendre une tout autre dimension en utilisant les données numériques comme preuves au tribunal. L’achat d’un test de grossesse sur internet, une géolocalisation à proximité d’un centre de Planning familial ou des données de santé provenant d’une application de fitness sont des preuves qui pourraient être utilisées lors d’une action en justice.
En 2017, une jeune Afro-Américaine du Mississippi a été inculpée de meurtre au 2ème degré de son enfant mort-né. L’accusation s’est basée sur une recherche qu’elle avait réalisée en ligne sur une pilule abortive. Même si elle a été relaxée en 2020, ces épisodes risquent de se généraliser.
Des données précieuses pour une publicité ciblée
Les données numériques des recherches effectuées sur Internet sont collectées et exploitées pour proposer de la publicité ciblée ou encore à d’autres fins.
Selon une étude ▻https://www.privacyinternational.org/long-read/3196/no-bodys-business-mine-how-menstruations-apps-are-sharing-your , les applications de suivi du cycle menstruel envoient des informations très personnelles sur la santé et les pratiques sexuelles des femmes directement à Facebook comme l’utilisation de contraceptifs, les dates de leurs règles, les symptômes et les humeurs.
Les annonceurs s’intéressent à l’humeur des personnes car cela les aide à cibler stratégiquement les publicités à des moments où elles sont plus susceptibles d’acheter. Par exemple, les femmes enceintes, ou cherchant à le devenir, sont susceptibles de changer leurs habitudes d’achat.
Pas de protection
Dans un contexte de criminalisation de l’avortement, ces informations pourraient être intéressantes pour les services de police. Notamment aux Etats-Unis où, contrairement à l’Europe, aucune loi ne protège les citoyennes et les citoyens de l’utilisation de ces données numériques par la justice.
En Europe, les données de santé sont considérées comme sensibles. Elles sont donc assujetties à des protections particulières par le Règlement Général de Protection des Données (ou le RGPD).
En Suisse, le droit à l’avortement subit actuellement quelques pressions, sans pour autant être remis en question. Deux initiatives fédérales pour réduire le nombre d’IVG ont été lancées en 2021 : « La nuit porte conseil » et « Sauver les bébés viables ». La récolte des signatures court jusqu’en juin 2023.
#femmes #usa #avortement #données #surveillance #facebook #santé #bigdata #algorithme #data #google #données_personnelles #profiling #vie_privée #flicage #smartphone #publicité
]]>Les tiers-lieux (Innovation sociale et prospective) par Valérie Peugeot | MOOC Digital Paris
▻https://moocdigital.paris/cours/innovation-sociale-prospective/tiers-lieux
Un MOOC sur l’innovation numérique et les communs, avec la participation de Valérie Peugeot. 6 séquences d’une dizaine de minutes.
Valérie Peugeot donne d’abord une définition générale de l’innovation sociale. C’est une réponse face à un besoin qui n’est apporté ni par l’État ni par le marché, et va être proposée par un collectif de citoyens sous différentes formes. Ce qui l’intéresse, c’est ce que cela peut apporter en termes de créativité. « Je considère cela comme un terreau dans lequel on va pouvoir puiser de l’imagination, renouveler nos idées et manières de voir le monde pour trouver de nouvelles réponses ». Elle répertorie 2 500 tiers-lieux en France, et ils seront bientôt 3 000. C’est là qu’on trouve « cette imagination fertile pour faire vivre les territoires autrement ». Elle décrit différents types d’initiatives et la pluralité des activités qui y sont développées. Elle s’interroge : comment passer du local à une plus grande échelle ?
Valérie Peugeot
Chercheuse au sein d’Orange Labs et présidente de l’association Vecam, Valérie Peugeot a rejoint le collège des commissaires de la Commission Nationale de l’Informatique et des Libertés (CNIL) en avril 2016, où elle a la charge du secteur de la santé. De 2013 à 2015, elle a été vice-présidente du Conseil National du Numérique. Au sein du laboratoire de sciences sociales et humaines d’Orange Labs, les recherches de Valérie Peugeot portent sur les dispositifs numériques de contribution citoyenne dans la ville, la sobriété numérique ou encore l’inclusion numérique. Elle est également directrice pédagogique de l’Executive master « Digital humanities » à Sciences po Paris. En tant que présidente de l’association Vecam, Valérie Peugeot a notamment œuvré à la diffusion de la pensée et des pratiques des communs en France. Attachée au monde de l’ESS (économie sociale et solidaire), elle est membre du Conseil d’administration de la Fondation du Crédit coopératif. Elle est co-auteur avec Serge Abiteboul de l’ouvrage Terra Data - Qu’allons-nous faire des données numériques ? (Editions Le Pommier, 2017).
#Communs #Valérie_Peugeot #Innovation_sociale #Données_personnelles #Tiers_Lieux
]]> Le Canada a formé des éléments d’un régiment ukrainien lié à l’extrême droite Simon Coutu - Radio Canada
▻https://ici.radio-canada.ca/nouvelle/1873461/canada-regiment-ukrainien-lie-extreme-droite-azov
Le Canada a dépensé près d’un milliard de dollars pour former des forces ukrainiennes depuis 2014. Des militaires du régiment Azov, connu pour ses liens avec l’extrême droite, ont profité de cet entraînement, selon des documents analysés par Radio-Canada.
Fondé par un néonazi notoire, le régiment Azov s’est fait connaître pour ses faits d’armes en 2014 contre les séparatistes prorusses, notamment à Marioupol, là où il combat de nouveau aujourd’hui. D’ailleurs, avec le repositionnement des forces russes dans le sud et dans l’est de l’Ukraine, le bataillon pourrait avoir un rôle central à jouer dans les futurs combats.
Lorsque Vladimir Poutine avance vouloir “dénazifier” l’Ukraine en envahissant ce pays, il fait notamment référence à cette unité controversée. Si l’effectif du bataillon s’est diversifié depuis son intégration au sein de la Garde nationale ukrainienne (GNU), il entretient toujours des liens avec l’extrême droite.
C’est en raison de ces affiliations fascistes qu’Ottawa répète d’ailleurs, depuis 2015, que jamais les Forces armées canadiennes (FAC) ne fourniront ou n’ont fourni d’entraînement ou de soutien à ce régiment ni à des unités affiliées.
Pourtant, des photos prises au centre de formation de Zolochiv de la garde nationale ukrainienne , dans l’ouest de l’Ukraine, montrent le contraire. Les Forces armées canadiennes ont bel et bien contribué à la formation des soldats du régiment Azov en 2020, au point où cette unité se targue maintenant de pouvoir former ses propres militaires selon les standards occidentaux.
Sur deux clichés publiés sur les réseaux sociaux de la Garde nationale ukrainienne (Nouvelle fenêtre) ▻https://www.facebook.com/ngutrainingcentr/posts/2178291778970663 le 20 novembre 2020, on aperçoit deux militaires qui portent sur leur uniforme un écusson fourni par le régiment Azov au moment où ils participent à un entraînement auprès des Forces armées canadiennes. Il s’agit de l’emblème du test Spartan, un tournoi avec des épreuves de force. L’écusson est aussi frappé du logo du régiment Azov, qui évoque la Wolfsangel, un symbole qui a été utilisé par plusieurs unités nazies.
Selon Oleksiy Kuzmenko, un journaliste spécialiste de l’extrême droite ukrainienne, la présence de ces écussons suggère fortement que le régiment Azov a eu accès à l’entraînement militaire canadien.
“L’écusson en question est fermement et exclusivement associé au régiment Azov”, dit-il. “Ces éléments de preuve démontrent que les militaires canadiens n’ont pas mis en place les mécanismes qui empêcheraient cette unité militaire d’extrême droite d’accéder à l’aide occidentale fournie aux forces militaires et de sécurité”, dit le reporter, qui collabore notamment avec le média d’investigation en ligne Bellingcat (Nouvelle fenêtre). ►https://www.bellingcat.com
Chercheur à l’Institut national des langues et civilisations orientales (INALCO), spécialiste de l’Ukraine, de l’extrême droite et du nationalisme ukrainien, Adrien Nonjon reconnaît lui aussi ce symbole sur les photos.
“Je peux vous assurer avec une certitude absolue que c’est un écusson d’Azov”, fait-il observer. “Ce régiment se présente comme une formation d’élite et essaie d’inculquer ce modèle de dépassement de soi à ses combattants. Cela dit, on peut aussi imaginer que l’individu qui porte cet écusson est un ancien membre du régiment.”
Sur une autre image (Nouvelle fenêtre) ▻https://www.flickr.com/photos/cfcombatcamera/50562875068/in/photostream prise lors du même entraînement, cette fois-ci par une photographe des Forces armées canadiennes, on aperçoit un soldat ukrainien qui porte un écusson aux couleurs de la 14e division de la Waffen-SS, créée en 1943 par le régime nazi d’Adolf Hitler pour combattre l’Union des républiques socialistes soviétiques avec des volontaires ukrainiens. Une cérémonie destinée à rendre hommage à cette division a d’ailleurs été condamnée en 2021 (Nouvelle fenêtre) ▻https://www.president.gov.ua/news/shodo-akciyi-u-kiyevi-do-richnici-stvorennya-diviziyi-ss-gal-68225 par le président Volodymyr Zelensky.

Sur cette photo prise par les Forces armées canadiennes, on aperçoit un militaire ukrainien qui porte un écusson de la 14e division de la Waffen-SS.
Si, historiquement, cette division de la Waffen-SS n’a pas participé aux massacres de Juifs en Ukraine durant la Seconde Guerre mondiale, il n’en reste pas moins que l’image du lion doré et des trois couronnes est très controversée.
“On ne s’en sort pas : [la Waffen-SS], c’est une bande de nazis”, affirme le professeur et titulaire de la Chaire en études ukrainiennes de l’Université d’Ottawa, Dominique Arel. “En tant que division, ils ont été créés trop tard pour participer à l’Holocauste et ont été utilisés comme de la chair à canon par les Allemands.
Mais il n’en demeure pas moins que la symbolique est forte. Les SS, c’est le groupe le plus criminel du 20e siècle.”
Opération Unifier
Depuis 2015, le Canada a contribué à former 33 346 candidats des Forces de sécurité de l’Ukraine, dont 1951 éléments de la garde nationale ukrainienne , dans le cadre de l’opération Unifier, selon le ministère de la Défense nationale (Nouvelle fenêtre). ▻https://www.canada.ca/fr/ministere-defense-nationale/services/operations/operations-militaires/operations-en-cours/operation-unifier.html Le coût de ce programme s’élève à plus de 890 millions de dollars. Tous les six mois, environ 200 membres des Forces armées canadiennes se relaient pour offrir de l’aide en matière d’instruction sur la force de sécurité. Tout ce personnel a été temporairement déplacé en Pologne jusqu’à ce que les conditions permettent une reprise de l’entraînement.
Les militaires canadiens ont travaillé en collaboration avec le Centre de formation de la Garde nationale ukrainienne à Zolochiv du 20 février 2019 au 13 février 2022, selon les Forces armées canadiennes.
Interrogé sur la présence de ces écussons sur l’uniforme de militaires ukrainiens durant un entraînement mené par les Forces armées canadiennes, le ministère de la Défense nationale a formellement nié avoir formé des membres du régiment Azov.
“Les Forces armées canadiennes n’ont jamais donné quelque formation que ce soit aux membres du bataillon Azov”, assure par courriel le ministère de la Défense nationale. “Les militaires participant à l’op Unifier ont toujours reçu l’ordre de ne pas s’entraîner avec les membres du bataillon Azov et de n’avoir aucun contact avec eux.”
Le porte-parole du ministère convient cependant que “les membres de l’op Unifier n’exercent aucune surveillance sur les personnes choisies pour assister aux cours ou aux séances de formation”.

Des membres de la Garde nationale ukrainienne suivent une séance de formation de la part de militaires canadiens de l’opération Unifier le 22 janvier 2021.
Selon le ministère, il incombe à l’Ukraine d’effectuer les vérifications requises en ce qui concerne les militaires en formation.
“Les Forces armées canadiennes n’ont ni le pouvoir ni le mandat de faire enquête sur les militaires d’autres pays. Toutefois, le personnel de l’op Unifier a toujours eu l’obligation et le droit de demander au personnel de commandement des installations d’entraînement ou des académies militaires ukrainiennes de retirer des cours donnés ou supervisés par des membres des Forces armées canadiennes tout soldat ukrainien qu’ils soupçonnent d’être inadéquat du point de vue des valeurs canadiennes ou du droit international.”
Contacté par courriel, un représentant de la garde nationale ukrainienne a réfuté que des éléments du régiment Azov aient pu participer à une formation auprès de militaires canadiens, malgré les écussons particuliers du régiment observés sur leurs propres photos. “Quant à la période que vous mentionnez [novembre 2020], cette unité n’y a pas fait d’exercice”, écrit un porte-parole. “Et cette pièce ne fait pas partie de leur uniforme.”
Les membres du régiment Azov n’ont pas répondu à nos requêtes par courriel ni sur le réseau Telegram.

Des membres du régiment Azov de la Garde nationale ukrainienne ainsi que des activistes du parti d’extrême droite Corps national et du groupe radical Secteur droit ont participé à un rassemblement pour marquer la Journée des défenseurs de l’Ukraine, à Kiev, en octobre 2016.
Former Azov par la bande
Le 18 août 2021, un communiqué publié sur le site web de la garde nationale ukrainienne avançait par ailleurs que des éléments du régiment Azov (aussi connu sous le nom “de détachement spécial de l’unité militaire 3057”) avaient reçu un entraînement auprès d’instructeurs formés selon un programme élaboré avec la participation de représentants de l’opération Unifier, appelé “PR-1”.
“Le premier groupe de chasseurs de l’unité militaire 3057 a commencé à s’entraîner dans le cadre du programme de formation de base des soldats selon les normes de l’Organisation du traité de l’Atlantique nord [...]”, peut-on y lire. “Un tel cours en Ukraine n’a lieu qu’au Centre de formation de la Garde nationale ukrainienne à Zolochiv [...]. Le programme de formation de base des soldats est la première étape de la croissance du système de formation professionnelle de la Garde nationale d’Ukraine. Il a été élaboré conjointement avec des représentants de l’opération Unifier selon les normes de l’Organisation du traité de l’Atlantique nord.”
Un communiqué publié sur le site web du régiment Azov au mois d’août 2021 précise que 35 combattants ont participé à cette formation.
Au mois d’octobre, Azov se targuait de former 33 cadets selon le programme PR-1, mais cette fois-ci dans ses propres installations, grâce aux entraînements reçus à Zolochiv. On y mentionne aussi que, “pour le prochain cours, les instructeurs sont prêts à accepter deux fois plus de militaires et à dispenser régulièrement une telle formation”.
Questionné sur cette formation offerte par des instructeurs d’Azov, “élaborée avec des représentants de l’opération Unifier selon les normes de l’Organisation du traité de l’Atlantique nord”, le ministère canadien de la Défense nationale affirme “ne pas être au courant”.
La garde nationale ukrainienne et toutes ses sous-organisations, comme le Centre de formation de Zolochiv – où les membres des Forces armées canadiennes opéraient –, “ont toujours été pleinement conscients et ont convenu que le ministère de la Défense nationale et les FAC ne formeraient pas les membres du régiment Azov et n’auraient pas de contacts avec eux”, indique un porte-parole par courriel. “De plus, la [garde nationale ukrainienne ] a toujours accepté de prendre des mesures pour éviter des interactions.”
La garde nationale ukrainienne n’a pas donné suite à notre demande à ce sujet.
Dépolitisé ou néofasciste ?
Le régiment Azov, qui participe à la défense de la ville de Marioupol, dévastée par l’armée russe, est une unité très controversée en Ukraine, comme ailleurs.
Les autorités russes utilisent le spectre d’Azov pour justifier l’invasion de l’Ukraine. Dans un discours diffusé quelques minutes avant le début de l’invasion, le 24 février, Vladimir Poutine avait déclaré chercher “à démilitariser et à dénazifier l’Ukraine”, alors que le président du pays, Volodymyr Zelensky, est juif. Le 10 mars, le ministre russe des Affaires étrangères, Sergueï Lavrov, a justifié le bombardement d’une maternité à Marioupol par la présence du “bataillon Azov et d’autres radicaux” sur place.

Créé par le néonazi Andriy Biletsky, le régiment Azov compterait aujourd’hui 10 000 combattants sur les quelque 200 000 soldats de l’armée ukrainienne, selon son fondateur.
Il s’agit donc d’une entité minoritaire, bien loin de ce que laisse supposer la propagande de Vladimir Poutine.
Les quelque 800 combattants qui le composaient à l’origine, durant la guerre du Donbass, ont contribué à reprendre la ville de Marioupol aux séparatistes prorusses en 2014. De nombreux volontaires étaient issus de la formation ultranationaliste Patriote d’Ukraine et de l’Assemblée sociale nationale, d’allégeance néofasciste.
Andriy Biletsky a siégé au Parlement de 2014 à 2019. Si son discours s’est affiné depuis, il a mentionné en 2008 que la mission de l’Ukraine consiste à “ mener les races blanches du monde dans une croisade finale… contre les Untermenschen [les sous-humains] dirigés par les Sémites”.
En juin 2015, le Canada a annoncé qu’il ne soutiendrait pas et n’entraînerait pas ce régiment. En visite à Kiev, le ministre de la Défense nationale de l’époque, Jason Kenney, l’avait alors qualifié (Nouvelle fenêtre) ▻https://www.theglobeandmail.com/news/national/kenney-says-nationalist-azov-group-shouldnt-tarnish-ukraines-image/article25157369 d’un “petit nombre de pommes pourries”.
Toutefois, en 2018, une délégation de militaires et de diplomates canadiens a rencontré des membres du régiment en Ukraine (Nouvelle fenêtre) ▻https://ottawacitizen.com/news/national/defence-watch/canadian-officials-who-met-with-ukrainian-unit-linked-to-neo-nazis-fe malgré les mises en garde formulées un an plus tôt par les Forces armées canadiennes.
Un rapport de 2016 du Haut-Commissariat aux droits de l’homme (Nouvelle fenêtre)des Nations unies (Nouvelle fenêtre) ▻https://www.ohchr.org/sites/default/files/Documents/Countries/UA/Ukraine_13th_HRMMU_Report_3March2016.pdf accuse par ailleurs le régiment Azov d’avoir enfreint le droit international humanitaire. On l’accuse notamment d’avoir violé et torturé des détenus dans la région du Donbass et d’avoir déplacé des résidents après avoir pillé des propriétés civiles.
Le bataillon Azov a été intégré à la garde nationale ukrainienne en 2014 à la suite des premiers accords de Minsk. Il serait donc “dépolitisé”, selon le chercheur à l’INALCO Adrien Nonjon. Il n’aurait alors plus de liens avec le Corps national, le parti du fondateur du régiment Azov, Andriy Biletsky.
Des volontaires ukrainiens du bataillon Azov avec leurs drapeaux ont fait une démonstration de force lors de la Journée des volontaires ukrainiens à Kiev, en Ukraine, le samedi 14 mars 2020.
“Tant les séparatistes que l’Ukraine se sont engagés dans une volonté de désescalade”, fait-il observer. “Ils ont intégré ces éléments subversifs pour pouvoir les surveiller et les contrôler. C’est un corps militaire comme un autre et je dirais même que c’est une unité d’élite au sein de la Garde nationale ukrainienne. On pourra toujours dire qu’il y a des liens qui existent, mais ils sont plutôt informels, basés sur une camaraderie, parce qu’ils ont tous été au front.”
Toutefois, pour Oleksiy Kuzmenko, qui est aussi l’auteur d’un rapport pour l’université George Washington (Nouvelle fenêtre) ▻https://www.illiberalism.org/wp-content/uploads/2021/09/IERES-Papers-no-11-September-2021-FINAL.pdf sur les contacts entre les militaires occidentaux et des membres du groupe d’extrême droite ukrainien Ordre militaire Centuria, il ne fait aucun doute que le régiment Azov entretient toujours des liens avec le parti d’extrême droite Corps national, malgré un vernis politiquement correct.
“Pour commencer, jusqu’au début de la nouvelle agression de la Russie, le centre de recrutement du régiment à Kiev partageait un emplacement avec les bureaux du parti au centre ATEK d’Azov. Il est aussi important de souligner que le chef actuel du régiment, Denis Prokopenko, et son adjoint, Svyatoslav Palamar, sont tous deux membres depuis 2014 et ont servi sous Biletsky. Le fondateur du régiment Azov et d’autres leaders du Corps national ont d’ailleurs continué à visiter le régiment avant la guerre. J’ajouterais aussi qu’en 2019, le régiment s’est rangé du côté du mouvement civil lorsqu’il a perturbé la campagne de réélection du président Petro Porochenko. Finalement, la faction armée d’Azov a accueilli l’aile jeunesse du Corps national en août 2021 dans le cadre d’un entraînement.”
Dans de récents communiqués publiés sur la plateforme Telegram, un porte-parole du régiment dénonce le manque d’implication de l’Occident dans le conflit qui oppose l’Ukraine à la Russie. “Une des unités les plus motivées de notre pays, le régiment Azov, est qualifiée de fasciste et de nazie [...]. On nous interdit d’obtenir des armes et de nous entraîner avec des instructeurs de l’Organisation du traité de l’Atlantique nord, nos réseaux sociaux ont été bloqués, etc. Les vrais fascistes sont non pas les combattants du régiment Azov mais bien les dirigeants russes et l’armée russe, qui ont eu l’audace d’appeler la guerre en Ukraine une "opération spéciale de "dénazification.”
Il reste que, selon le chercheur Dominique Arel, le régiment Azov “n’est pas dépolitisé du tout”. Par contre, il s’interroge quant à la pertinence d’aborder cette question alors que l’Ukraine subit l’invasion russe.
Des milliers de civils sont toujours coincés à Marioupol, qui est bombardée quotidiennement par les forces russes.
Photo : afp via getty images / ARIS MESSINIS
“C’est une branche qui est dangereuse”, admet-il. “Mais en ce moment, ils ne tabassent pas de Roms dans la rue : ils défendent leur pays. Les fascistes, ce sont les Russes qui terrorisent les populations civiles. Après la guerre, ça pourrait poser problème que l’extrême droite se retrouve armée. Mais actuellement, au-delà du régiment Azov, c’est une très bonne chose que l’Armée canadienne ait formé les forces ukrainiennes. On voit les résultats exceptionnels sur le terrain. Sur le sol, à Marioupol, l’armée, dont le régiment Azov, résiste toujours.”
#Canada #azof #régiment_azof #ukraine #waffen-ss #armée #armée_canadienne #néonazi #ukronazi #zelinsky #pologne #Donbass #Marioupol #facisme #nazisme #dénazification #dominique_arel #otan
]]>Tu as besoin de savoir ? Paye tes allocs ! - Association nationale des assistants de service social
▻https://www.anas.fr/Paye-tes-allocs-_a1880.html
DÉCLARATION DE L’ANAS DU 4 AVRIL 2022
Paris, le 4 avril 2022,
Depuis plus de trois ans, le site « mes-allocs.fr » prospère illégalement sur le dos des personnes les plus fragiles.
Ce site se présente comme un simulateur de droits et propose aux internautes d’estimer leur éligibilité à certaines prestations en espèces à l’instar du site gouvernemental gratuit ▻https://www.mesdroitssociaux.gouv.fr.
Pourtant, derrière la vitrine d’une louable ambition énoncée sur son site internet, le fonctionnement de cette plateforme vient montrer une réalité bien plus mercantile en totale violation de la loi.
En effet, il est proposé aux internautes de renseigner une multitude de données personnelles pour estimer un potentiel droit à une ou plusieurs prestations sociales. Dans un second temps, le site propose à l’utilisateur que ses « experts » réalisent le remplissage et l’envoi de formulaires d’accès à ces mêmes prestations en contrepartie de frais d’inscription et d’un abonnement de 29,90 euros par trimestre.
Or, par un travail de collecte, d’analyse et de recherche, notre association, l’Association Nationale des Assistants de Service Social (ANAS), a établi le caractère illégal de l’activité de ce site internet (voir documents ci-dessous). Elle a par conséquent déposé plainte auprès de la procureure de la République d’Evry. Les principales institutions de sécurité sociale ont également été alertées.
Pour l’ANAS, l’accès au système de protection sociale est gratuit et doit le demeurer au nom du principe de solidarité nationale.
ben oui, on sait jamais à quelle sauce on va être mangé (ou trashé). le service public est ainsi fait que toute entreprise qui vient remédier à l’absence d’information sur les droits peut espérer prospérer. 30 balles c’est 10% de l’APL individuelle au montant le plus élevée possible. un RSA pour personne isolée, c’est 506 euros (max, car 12% de "forfait logement est ôté au montant théorique partout rabâche par la presse toujours plus ministérielle). le pire c’est de se faire une idée des montants de prime d’activité, ou de cumul alloc chômage, salaire de la chômeuse en activité à temps réduit...
#opacité #allocataires #droits_sociaux #données_personnelles #mes-allocs.fr #racket #abus_de_faiblesse #CAF #simulateur_de_droits #Pôle_emploi #précarité
]]>Contrôles discriminatoires : « Nous demandons le démantèlement des pratiques illégales des CAF » - Basta !
►https://basta.media/CAF-controles-abusifs-des-allocataires-CNAF-score-de-risque-fraude-tribune-
Contrôles abusifs des allocataires, suspension des versements, harcèlement des plus précaires… La CAF oublie ses missions initiales de protection et de soutien pour devenir un outil de police numérique. Une tribune du collectif « Changer de cap ».
La numérisation à marche forcée des services publics contribue à faire des Caisses d’allocations familiales (CAF) un instrument de la mise en place d’une société de surveillance et de pénalisation des plus pauvres. Alors que la protection sociale est un droit universel depuis le Conseil national de la Résistance, les CAF développent une politique de plus en plus dure de contrôle des personnes en situation de précarité.
Tous fichés...
Plus de 1 000 données par personne sont collectées pour 13 millions de foyers [1], grâce à l’interconnexion de dizaines de fichiers administratifs (impôts, éducation, police, justice…) Les contrôleurs ont en outre le pouvoir de consulter nos comptes bancaires, nos factures de téléphone et d’énergie… Toutes ces données sont traitées à notre insu.
Repère :
Le collectif « Changer de cap »
Lire l’encadré
Chaque allocataire fait l’objet d’un profilage établi par un logiciel, mais selon des variables définies par des décisions humaines. Des algorithmes déterminent des « scores de risque » de fraude, qui débouchent sur un véritable harcèlement des personnes en difficulté. Sont qualifiés de « risque » les variations de revenus, les situations familiales atypiques, la naissance hors de France… Il en résulte un ciblage des contrôles sur les personnes précaires, handicapées ou vulnérables.
Plus de 32 millions de contrôles automatisés ont été réalisés par les CAF en 2020. Les témoignages collectés confirment la concentration de ces contrôles sur les femmes seules avec enfants, les chômeurs, des personnes handicapées, d’origine étrangère…
[...]
Vous pouvez vous joindre à cet #appel. Voici le lien pour le signer : ►https://changerdecap.net/petition-caf
Voir les témoignages et le dossier complet ▻https://changerdecap.net/caf-controle-social
#allocataires #minima_sociaux #APL #RSA #CAF #CNAF #arbitraire #illégalité #contrôles #contrôleurs #visites_domiciliaires #indus #numérisation #reste_à_vivre #protection_sociale #droits_sociaux #précarité #précarisation #données_personnelles #données #pétition #chasse_aux_pauvres
]]>Contrôles discriminatoires : « Nous demandons le démantèlement des pratiques illégales des CAF »
▻https://www.laquadrature.net/2022/04/06/controles-discriminatoires-nous-demandons-le-demantelement-des-pratiqu
Nous republions ici une tribune initiée par le collectif Changer de Cap et que nous avons signée. Elle est parue le 5 avril dans Basta !. Nous appelons à signer et faire circuler l’appel correspondant. Contrôles abusifs…
#Données_personnelles #Surveillance #Vie_privée_-_Données_personnelles
]]>Pourquoi s’opposer à la création de Mon Espace Santé ?
►https://www.laquadrature.net/2022/03/25/pourquoi-sopposer-a-la-creation-de-mon-espace-sante
Expérimenté depuis le mois d’août 2021 dans trois départements de Métropole, le service Mon Espace Santé (qui prend la suite du Dossier Médical Partagé) a été généralisé à l’ensemble de la population depuis février 2022.…
]]>2 fils sur #Elize, l’#application numéro 1 des stores en France cette semaine
François Malaussena sur Twitter
Je lis des articles sur Elyze. Pour l’instant, pas un seul pour souligner le risque à ce que 2 inconnus sans encadrement aient en leurs mains l’une des bases de données probablement les plus puissantes de l’histoire #politique française. Que des partis payeraient cher pour avoir.
▻https://twitter.com/malopedia/status/1482405960555577344
et une faille de sécu découverte et corrigée
Mathis Hammel sur Twitter
Hier soir, j’ai découvert un problème de sécurité sur l’app Elyze (numéro 1 des stores en France cette semaine) qui m’a permis d’apparaître comme candidat à la présidentielle sur le téléphone de plusieurs centaines de milliers de français.
Je vous explique ce qui s’est passé
▻https://twitter.com/MathisHammel/status/1482393799456436228
]]>Alors, je vous explique. Vous pouvez être :
#Humour #pandémie #journalisme #médias #merdias #presse #_journaliste #propagandistes #propagande #journullistes #médiacrates #mass_merdias #enfumage
#santé #surveillance #coronavirus #covid-19 #secret_médical #données #données_personnelles #bigdata #médecine #test_pcr #pcr #tests
Enquête sur une fuite de résultats de tests Covid en Autriche
▻https://www.rts.ch/info/monde/12458791-pionnier-du-pass-sanitaire-le-danemark-en-tourne-la-page-le-suivi-du-co
Les autorités autrichiennes ont annoncé mercredi l’ouverture d’une enquête après la fuite de dizaines de milliers de résultats de tests positifs au Covid-19 dans la province du Tyrol. Au total, 24’000 documents, incluant les noms, adresses et autres données personnelles, dont ceux de plusieurs responsables politiques connus, ont été divulgués à des médias, selon la Commission de protection des données.
D’après la chaîne publique ORF et le quotidien Der Standard, qui ont accédé à la liste, c’est l’ancien directeur de la compagnie HG Lab Truck (filiale de HG Pharma), chargée d’effectuer les tests dans le Tyrol, qui est responsable de cette fuite. Il a expliqué avoir envoyé les données dans un courriel le 11 août à un technicien extérieur à l’entreprise, sous forme de tableaux Excel cryptés, mais a nié toute faute, assurant avoir été victime d’un piratage informatique.
Dans un communiqué, le gouvernement du Tyrol a condamné ce nouvel épisode, se disant attaché à « des normes de sécurité élevées pour la protection des données », et annoncé une action en justice « s’il s’avère que les données ont bien été transmises à des tiers contrairement aux engagements pris ».
#santé #surveillance #coronavirus #covid-19 #secret_médical #données #données_personnelles #bigdata #médecine #test_pcr #pcr #tests #Autriche
]]>Covid : une fuite massive de résultats de tests antigéniques 31 août 2021 Par Jérôme Hourdeaux
Plus de 700 000 résultats de tests, et les données personnelles des patients, ont été durant des mois accessibles en quelques clics en raison de failles béantes sur le site de Francetest, un logiciel transférant les données des pharmaciens vers le fichier SI-DEP et pourtant non homologué.
Les données personnelles et les résultats des tests Covid de plusieurs centaines de milliers de personnes ont été durant plusieurs mois accessibles à tous en quelques clics en raison de plusieurs failles de sécurité sur la plateforme Francetest, une société transférant les données des pharmaciens au fichier SI-DEP, le fichier centralisant l’ensemble des données des tests. . . . . . .
La suite, payante : ►https://www.mediapart.fr/journal/france/310821/covid-une-fuite-massive-de-resultats-de-tests-antigeniques
#santé #surveillance #coronavirus #covid-19 #secret_médical #données #données_personnelles #bigdata #médecine
]]>Amende de 746 millions d’euros contre Amazon suite à nos plaintes collectives
▻https://www.laquadrature.net/2021/07/30/amende-de-746-millions-deuros-contre-amazon-suite-a-nos-plaintes-colle
Le 16 juillet 2021, l’autorité luxembourgeoise de protection des #Données_personnelles s’est enfin prononcée sur notre plainte collective déposée par 10 000 personnes contre Amazon en mai 2018. Cette décision intervient après trois années de…
]]>Contrainte numérique : des sénateurs lâchent le morceau
▻https://www.piecesetmaindoeuvre.com/spip.php?article1525
Il ne s’agit pas d’un complot, mais d’un rapport sénatorial. De ces intenses cogitations à huis-clos qui tôt ou tard se transforment en lois et changent nos vies. Les auteurs : Véronique Guillotin, médecin et sénatrice de Meurthe-et-Moselle (Mouvement radical), Christine Lavarde, ingénieur et sénatrice des Hauts-de-France (Les Républicains), René-Paul Savary, médecin et sénateur de la Marne (Les Républicains). Le titre de ce rapport du 3 juin 2021 : « Sur les crises sanitaires et outils numériques : répondre avec efficacité pour retrouver nos libertés ». Vous n’avez jamais rêvé d’être une petite souris dans les réunions internes des puissants, pour entendre ce qu’ils disent de nous et de leurs projets ? Ou bien d’avoir un logiciel espion Pegasus, puisqu’il paraît que "la technologie est neutre et tout (...)
#Nécrotechnologies
▻https://www.piecesetmaindoeuvre.com/IMG/pdf/rapport_se_nat_sante_et_contrainte-2.pdf
Des dizaines de voitures d’Apple filmeront la Suisse Anouch Seydtaghia
 
Dès le 21 juillet, Apple fera circuler pour la première fois des dizaines de voitures équipées de caméras sur les routes helvétiques. Son objectif : améliorer son service Maps. Coïncidence, les voitures de Google filmeront en même temps la Suisse.
Dès le 21 juillet, plusieurs dizaines de voitures d’Apple circuleront sur les routes suisses. Leur objectif sera de filmer et photographier des milliers de kilomètres de routes, ainsi que leurs alentours. Plus de dix ans après Google, son rival californien veut lui aussi enregistrer avec précision l’espace public helvétique grâce à des véhicules truffés de capteurs. Avec, en arrière-plan, plusieurs objectifs commerciaux.
. . . . . . . .
La suite payante : ▻https://www.letemps.ch/economie/dizaines-voitures-dapple-filmeront-suisse
#vie_privée #surveillance #apple #facebook #google #données #internet #algorithme #bigdata #données_personnelles #profiling
#vie_privée_-_données_personnelles
Dysfonctionnements systémiques des autorités de protection des données : le cas belge
▻https://www.laquadrature.net/2021/07/08/dysfonctionnements-systemiques-des-autorites-de-protection-des-donnees
Nous dénonçons depuis un bon moment le fonctionnement de la CNIL française et son manque de volonté politique de protéger nos libertés. Depuis 2018 et le dépôt de nos plaintes collectives contre les GAFAM nous…
]]>Mineurs étrangers : le fichier antifraude bientôt imposé à tous les départements
Le projet de #loi « #protection_des_enfants » prévoit de rendre obligatoires à tous les départements le recours au #fichier_anti-fraude concernant les #mineurs_non_accompagnés, ainsi que la transmission de #données_personnelles aux autorités préfectorales. Les associations y voient un « outil de lutte contre l’immigration irrégulière ».
Il avait été instauré en 2019, officiellement pour lutter contre le « #nomadisme » des #jeunes_migrants, soupçonnés de tenter leur chance d’un département à l’autre pour être reconnus #mineurs et pris en charge par l’#Aide_sociale_à_l’enfance. Le fichier « antifraude » (dit « #AEM », pour aide à l’#évaluation_de_la_minorité) revient, en force, sur le devant de la scène dans le cadre du projet de loi relatif à la « protection des enfants », examiné cette semaine à l’Assemblée nationale.
Le texte prévoit en effet de le rendre obligatoire à tous les départements, alors qu’une poignée de récalcitrants – dont #Paris, la #Seine-Saint-Denis et le #Val-de-Marne – résistaient jusqu’alors, malgré les #sanctions_financières établies par un décret datant de juin 2020, venant réduire le montant de la contribution forfaitaire de l’État versée pour l’évaluation de la #minorité et la #prise_en_charge des jeunes. La somme passait, pour les départements refusant d’y avoir recours, de 500 à 100 euros.
Depuis 2019, le gouvernement invite les #départements, sur la base du volontariat, à renvoyer les jeunes se présentant comme mineurs vers la préfecture, où un certain nombre de #données_personnelles (prise d’#empreintes_digitales, photos, #adresse_de_domiciliation, #numéro_de_téléphone...) sont alors collectées et enregistrées. Ces dernières sont ensuite comparées au fichier dit « #Visabio », qui répertorie les demandes de #visa formulées depuis l’étranger et peut biaiser les déclarations des jeunes se présentant comme mineurs, puisque certains d’entre eux tentent d’abord une demande de visa en se déclarant majeurs, dans le but de s’éviter la traversée par la mer.
« Certains départements ne prennent même plus la peine de faire l’évaluation pour un jeune si la préfecture dit qu’il se trouve dans Visabio », souligne Jean-François Martini, juriste au Gisti. Selon le Groupe d’information et de soutien des immigrés, 77 départements ainsi que la métropole de Lyon auraient déjà recours au fichier AEM permettant la collecte d’informations. Pourtant, jusqu’à présent, impossible de mesurer l’éventuelle « fraude » à laquelle pourraient s’adonner les jeunes migrants en recherche de protection en France.
« Rien ne justifie l’utilisation de ce fichier »
Aucun chiffre, aucun bilan, rappelle Camille Boittiaux, référente MNA chez Médecins du monde, ne permettent d’« objectiver le phénomène de “nomadisme” ». « Rien ne justifie l’utilisation de ce fichier. Les arguments avancés par le gouvernement ne sont pas convaincants. Les MNA sont encore une fois considérés comme des migrants, de potentiels fraudeurs, avant d’être vus comme des #enfants. »
Pourquoi donc vouloir rendre obligatoire un #fichier_biométrique controversé, auquel même la Défenseure des droits a manifesté son opposition, dans un avis critique adressé à la commission des affaires sociales de l’Assemblée nationale fin juin, pointant un texte « pas à la hauteur des besoins que l’on note en #protection_de_l’enfance », rappelant, au passage, que le droit des MNA de refuser de transmettre leurs #informations_personnelles « n’est plus considéré ni prévu » ?
Pour les associations d’aide aux migrants et aux MNA, comme pour le député Guillaume Chiche, la réponse est simple : il s’agit de faire de la protection de l’enfance un « outil de #lutte_contre_l’immigration_irrégulière ». « On passe du champ de la protection de l’enfance à un système policier, et le fichier AEM en est le premier pont », prévient Jean-François Martini. Dans un communiqué interassociatif (https://www.gisti.org/spip.php?article6614) rassemblant le Gisti, La Cimade, Infomie, Médecins du monde et le Secours catholique, ces organisations dénoncent un « #fichage policier systématique » et la « nocivité » de ce fichier. « Depuis sa mise en œuvre par la plupart des départements métropolitains, c’est une catastrophe pour les jeunes à tous points de vue », poursuit le juriste auprès de Mediapart.
La référente MNA de Médecins du monde pointe, elle aussi, les « effets délétères » du fichier dans les départements où il a déjà été mis en place : « On a constaté que certains mineurs craignaient le passage en préfecture et décidaient de ne pas intégrer le système de la protection de l’enfance. D’autres sont laissés sans mise à l’abri en attendant le passage à la préfecture. D’autres encore n’ont ni mise à l’abri ni évaluation après consultation du fichier par le département. » Une sorte de #tri faisant fi du principe de #présomption_de_minorité, qui doit normalement garantir une protection aux jeunes se déclarant mineurs durant toute la durée de leurs démarches.
« L’article 15 relève exclusivement de la gestion de flux migratoires, relève le député Guillaume Chiche, membre de la commission des affaires sociales. On organise la délivrance de renseignements sur les MNA aux autorités préfectorales. Pire, on oblige les départements à leur présenter les MNA ! » Avec le risque, aux yeux du député ex-LREM, de « reléguer les travailleurs sociaux au rang d’enquêteurs et de supplétifs des forces de l’ordre ». « Il n’y a plus de #secret_professionnel, cela rompt le lien de #confiance avec les jeunes », déplore-t-il.
Mélange des genres
Dans son avis, la Défenseure des droits exprime « ses profondes inquiétudes » quant à l’article 15, qui tend « davantage à traiter du #contrôle_migratoire qu’à une réelle amélioration de la protection des mineurs non accompagnés ». MNA qui relèvent, rappelle-t-elle, uniquement des dispositifs de la protection de l’enfance « jusqu’à l’établissement de leur âge par une décision judiciaire », et qui devraient être exclus de procédures relevant « d’un contrôle et d’une gestion des flux migratoires ».
Un mélange des genres « intolérable » pour le Gisti. « On ne peut pas à la fois faire de la protection de l’enfance et mettre en œuvre des mesures elles-mêmes affichées comme de la lutte contre l’immigration irrégulière, estime Jean-François Martini. Le résultat de l’évaluation finit entre les mains d’une préfecture qui peut en tirer un argument pour prononcer une mesure d’éloignement, on organise une collaboration objective entre professionnels de la protection de l’enfance et services des préfectures. »
Contacté, le département du Val-de-Marne n’a pas donné suite à l’heure où nous publions cet article. Désormais passé à droite, celui qui faisait partie des derniers « résistants » au fichier AEM et avait même déposé un recours auprès du Conseil d’État avec la Seine-Saint-Denis pour contester le décret du 23 juin 2020, risque de changer de cap. En Seine-Saint-Denis, le fichier est jugé « inacceptable » et reste à ce jour inutilisé.
« Ce n’est pas notre rôle, tranche Stéphane Troussel, président du Conseil départemental. Les départements ne sont pas des supplétifs du ministère de l’intérieur. C’est à ce titre qu’on a refusé d’appliquer le décret jusqu’ici. Avec le recours obligatoire au fichier, on va fouler au pied la libre administration des collectivités territoriales. L’État devrait aller au bout de sa logique : s’il considère que cela relève de la question migratoire, à lui de prendre en charge la mise à l’abri et l’évaluation ! »
Difficile, pour Dominique Versini, adjointe en charge de la protection de l’enfance à Paris, de dire si le département pourra continuer de « résister » bien longtemps : « Avec la Seine-Saint-Denis et la #Gironde, on n’a pas cessé de subir des #pressions. On a été pointés du doigt par le gouvernement comme des “gauchistes” qui voudraient favoriser l’appel d’air. On a essayé de nous attaquer par le porte-monnaie avec le décret réduisant la contribution forfaitaire. On a admis le fait de ne pas recevoir l’argent de l’État, qui représente une perte de 2,2 millions d’euros de recettes par an pour Paris, parce que nos valeurs l’emportaient. Mais là, le problème, c’est que le recours au fichier va être rendu obligatoire par la loi... », appréhende l’élue.
Alors que le gouvernement mène déjà une politique de lutte contre l’immigration illégale « très dure », il « passe » désormais par les départements, selon elle, pour récupérer des jeunes à expulser. « C’est une façon d’utiliser la protection de l’enfance au profit d’une politique de lutte contre l’immigration illégale et cela me choque profondément », dénonce l’ancienne ministre, qui souligne une violation de la Convention internationale des droits de l’enfant et de la présomption de minorité, les jeunes étant contraints de se rendre en préfecture avant même d’avoir fait l’objet d’une évaluation. « La puissance du ministère de l’intérieur l’emporte sur le secrétariat en charge de la protection de l’enfance et je le déplore », poursuit Dominique Versini.
Rien pour améliorer le quotidien des mineurs étrangers
Le projet de loi prévoit par ailleurs d’interdire le placement des mineurs à l’#hôtel, mais introduit tout de même un caractère d’urgence, avec une durée maximale de deux mois, qui laisse planer le doute : « Deux mois, c’est déjà énorme ! Il y a entre 7 500 et 10 000 enfants placés à l’hôtel, et cela répond quasiment tout le temps à des situations d’#urgence et de #mise_à_l’abri. Donc cela ne va rien changer », alerte Guillaume Chiche, ajoutant qu’une majorité des enfants placés à l’hôtel sont des MNA. « Quand j’ai interpellé le ministre [Adrien Taquet] en commission, il a répondu que la durée de deux mois correspondait au temps qu’il fallait aux départements pour évaluer la minorité. Il y a donc un #droit_d’exception pour les MNA, et il est criminel d’organiser le tri entre les enfants. »
En 2020, 4 750 jeunes se sont présentés à Paris pour une évaluation (contre 1 500 en 2015). Les MNA représentent un tiers des enfants confiés à l’#ASE. Paris et la Seine-Saint-Denis comptabilisent, à eux seuls, 50 % des évaluations réalisées en France (et 70 % pour l’Île-de-France). Ces deux départements restent ceux qui accueillent le plus de mineurs isolés. Pour mieux prendre en compte les spécificités socio-économiques des départements, et notamment le niveau de pauvreté, le projet de loi prévoit de modifier les critères du système de #répartition des MNA sur le territoire français - créé en 2016 pour soulager les départements les plus sollicités.
S’il ambitionne d’apporter une « réponse précise », guidée par « l’intérêt supérieur de l’enfant et la pérennisation de notre système de protection de l’enfance », force est de constater que le projet de loi reste à mille lieues des enjeux (lire notre analyse : https://www.mediapart.fr/journal/france/160621/enfants-en-danger-un-projet-de-loi-mille-lieues-des-enjeux), et que rien ou presque ne vise à améliorer la prise en charge et le quotidien des MNA, dont l’histoire et le parcours migratoire sont souvent traumatisants.
Rien concernant ces jeunes voyant d’abord leur minorité contestée, exclus du dispositif de protection et laissés à la #rue durant la durée de leur recours, puis reconnus majeurs par le juge des enfants [un jeune sur deux à saisir le juge serait reconnu mineur - ndlr]. Rien concernant ces jeunes reconnus mineurs par un département, puis réévalués majeurs dans un second département en raison du système de répartition imposé. Rien, enfin, concernant ces ex-MNA qui, à leur majorité et malgré une formation en apprentissage, parfois avec le soutien d’un employeur, sont menacés d’expulsion, révélant toutes les incohérences de l’État (lire ici ou là le récit de ces gâchis).
Un projet de loi « de #maltraitance », juge Jean-François Martini. « Il n’y a rien sur la protection des enfants ! Qu’il s’agisse de l’évaluation, des #tests_osseux qu’on ne veut pas interdire ou de la possibilité de placement à l’hôtel dans des cas d’urgence, on les met en situation de #fragilité extrême, et on ose dire que la République fait le job », tacle Guillaume Chiche. Et Camille Boittiaux de conclure : « Il aurait pu y avoir des dispositions protectrices pour une vraie prise en charge de ce public. Mais ils sont uniquement sur le volet sécuritaire et le contrôle des enfants. C’est une occasion manquée. »
https://www.mediapart.fr/journal/france/070721/mineurs-etrangers-le-fichier-antifraude-bientot-impose-tous-les-departemen
#France #mineurs_étrangers #MNA #fraude #anti-fraude #antifraude #amende #préfecture #biométrie #chantage #résistance
Google to use patient data to develop healthcare algorithms for hospital chain - The Verge
▻https://www.theverge.com/2021/5/26/22454817/google-hca-patient-data-healthcare-algorithms
Google has made a deal for access to patient records from HCA, which which operates 181 hospitals and more than 2,000 healthcare sites in 21 states, so the tech company can develop healthcare algorithms, The Wall Street Journal reports.
Google will store anonymized data from patient health records and internet-connected medical devices. That data will be used to build programs that could inform medical decisions made by doctors. The deal is described as “multiyear” by the WSJ, without specifying how many years.
As health records moved online over the past few years, hospitals and tech companies jumped at opportunities to take advantage of the glut of digitized medical information collected at each doctor’s visit. Microsoft and Amazon also have deals with hospitals to analyze their patient information. Google previously partnered with healthcare system Ascension to gather patient records in a secretive project called “Project Nightingale.” The company was criticized for starting in on the project without disclosing the work to patients and doctors. HCA is a major win for Google, since its facilities handle 5 percent of the hospital services provided in the US — around 30 million patient interactions each year.
““We want to push the boundaries of what the clinician can do in real time with data””
Along with using that data to develop algorithms, Google could also build healthcare tools independently and then pass them off to HCA to test on its own. “We want to push the boundaries of what the clinician can do in real time with data,” Chris Sakalosky, managing director of healthcare and life sciences at Google Cloud, told The Wall Street Journal.
Healthcare privacy laws in the US allow hospitals to share information with contractors and allow researchers to analyze patient data without express permission from those patients. Healthcare companies can use that information in any way they see fit, including to boost profits.
HCA made $3.75 billion in profits during 2020, despite the COVID-19 pandemic. National Nurses United said in February that the company prioritized income over patient and staff safety. Nurses reported staff shortages and cutbacks on personal protective equipment.
#Données_personnelles #Médecine #Big_data #Santé #Données_médicales #Vectorialisme
]]>Filtrage des #publicités et traqueurs sur #Android : Installation de #DNSFilter par #Seb_Sauvage
Vous connaissez peut-être déjà la liste de blocage #DNS que je propose. Elle permet de bloquer la quasi-totalité des publicités et #traqueurs dans les #applications et sur le #web. Voici une procédure pas à pas pour l’installer sur votre téléphone Android. L’installation prend moins de 5 minutes.
▻https://sebsauvage.net/wiki/doku.php?id=dnsfilter
Repéré par benny b sut Twitter
#filtrage_DNS #vie_privee #surveillance #Données_personnelles
]]>Les GAFAM échappent au RGPD, la CNIL complice
▻https://www.laquadrature.net/2021/05/25/les-gafam-echappent-au-rgpd-avec-la-complicite-de-la-cnil
Le 25 mai 2018, le RGPD entrait en application. Nous célébrions l’espoir qu’il renverse le modèle économique des GAFAM, qui font de nos #Données_personnelles une vulgaire monnaie d’échange. Porté·es par notre enthousiasme, nous déposions…
]]>En ce moment, c’est la multiplication des écrans sur le thème « Soit tu nous refiles tes données personnelles, soit tu n’accèdes pas à notre site ». Comme en plus j’ai activé un bloquer de pubs, c’est la fête du slip en permanence.
Évidemment, c’est la multiplication des design maléfiques, où le lien « Ne pas accepter » est planqué (désormais en petit en haut à droite du popup), et le lien « Oui, fliquez-moi » est un beau gros bouton bien visible. Ou le classique choix entre « Oui pour tout, z’y va » et « Non, je ne veux pas, mais je vais devoir passer les 5 prochaines minutes de ma vie dans un formulaire à la con pour régler le truc. »
Mais le pompon, ces derniers jours, c’est :
– {{Alternatives économiques}}, qui veut bien que je lise son article, mais à condition que je file mon adresse email.
– {{Jeuxvideo.com}}, soit j’accepte les cookies intrusifs, soit je paie 2€ :
Je me demande si toutes ces conneries sont vaguement légales…
]]>Business des données personnelles : les étudiants sont-ils conscients du danger ? | LCI
▻https://www.lci.fr/societe/business-des-donnees-personnelles-les-etudiants-sont-ils-conscients-du-danger-da
Au placard le baby-sitting ou la livraison de repas : pour arrondir leur fin de mois, certains étudiants préfèrent désormais monnayer leurs données personnelles. Situation amoureuse, centres d’intérêt ou encore goûts musicaux, ces data qui sont souvent collectées à notre insu sur internet valent en effet de l’or. Mais à quelle fin sont-elles utilisées et à qui profite ce business ?
Pour Olivier Ertzscheid, chercheur en sciences de l’information, le danger pour les jeunes, c’est de faire de leur vie privée une marchandise comme une autre. « Derrière ce marché des données personnelles, on fabrique non pas un moyen d’émancipation avec un moyen facile de gagner de l’argent, mais on fabrique plutôt des logiques d’aliénation où sur votre smartphone vous allez avoir en permanence cette application qui va vous inciter à en donner toujours davantage », met-il en garde.
En France, seules les données médicales sont interdites à la vente. Pour les autres, aucune réglementation n’encadre leur prix. Certains fichiers pourraient ainsi se vendre jusqu’à 500 euros. Mais l’activité est légale, bien que controversée. « Ça peut poser des questions éthiques parce qu’en vendant vos données vous perdez en quelque sorte un peu de votre anonymat. Mais il y a peut-être des internautes, des citoyens ou des consommateurs qui auront les moyens de garder cet anonymat en ne souscrivant pas à des programmes de fidélité », alerte Thomas Dautieu, directeur de la conformité à la Commission nationale de l’informatique et des libertés (Cnil) qui craint que la vie privée soit mieux protégée pour les plus riches au détriment des plus jeunes. Le débat sur la vente des données ne fait donc que commencer.
]]>