• Où l’on t’annonce par email non-sollicité que nous allons enfin pouvoir partager des données personnelles sans risque de devoir prendre des précautions (la formulation crétine est volontaire).

    1. 📉Vers un #RGPD simplifié ? – Ce qui pourrait changer pour les PME et ETI

    Le 21 mai 2025, la Commission européenne a dévoilé un projet très attendu : une simplification ciblée du RGPD pour alléger les contraintes des petites et moyennes structures.

    Certains y voyaient déjà un tournant, voire la fin d’une ère réglementaire. Un “coup de tonnerre” dans l’écosystème de la conformité. Mais… que nenni.

    🎯 Ce que la réforme propose (si elle aboutit) :

    – Les entreprises jusqu’à 750 salariés (au lieu de 250 aujourd’hui) seraient exemptées de registre, sauf en cas de traitements à risque élevé.
    – Même les traitements sensibles (RH, santé, social) n’impliqueraient plus automatiquement cette obligation.
    – Des codes de conduite spécifiques aux PME/ETI seraient introduits

    L’aveu en creux : L’UE reconnaît que le registre des traitements est une formalité lourde, à faible valeur ajoutée pour les structures agiles. (Autrement dit : inutile.)

    Pour les pros du RGPD ou les insomniaques : Voici le projet complet en format PDF (48 pages seulement).

    https://single-market-economy.ec.europa.eu/document/download/d88a75de-b620-4d8b-b85b-1656a9ba6b8a_en

  • Big Brother in der Luft : Flugdaten-Riese verkauft Milliarden Passagierprofile
    https://www.heise.de/news/Big-Brother-in-der-Luft-Flugdaten-Riese-verkauft-Milliarden-Passagierprofile-1

    Tu prends l’avion, tu es fiché. L’intermédiaire derrière ton agence de voyage fournit tes données en realtime aux trumpistes au pouvoir.

    15.5.2025 von Stefan Krempl - Airlines Reporting Corp., an der Lufthansa beteiligt ist, sammelt Milliarden Daten über Flugreisende und verscherbelt sie etwa an Trumps Einwanderungsbehörde.

    Eine öffentlich bislang weitgehend unbekannte Clearingstelle der Luftfahrtindustrie sammelt und verarbeitet Daten über zwölf Milliarden Passagierflüge pro Jahr und verkauft diese Informationen an die US-Regierung. Dafür bietet die Airlines Reporting Corporation (ARC) Lizenzen für ein Reiseinformationsprogramm in Form des Travel Intelligence Program (TIP) für Behörden an, um die Datenberge zentral durchsuchbar zu machen. Das geht aus jetzt veröffentlichten Beschaffungsunterlagen der US-Einwanderungs- und Zollbehörde (ICE) hervor, die unter US-Präsident Donald Trump besonders hart gegen Migranten vorgeht und die Analysemöglichkeiten der ARC nutzt.

    „ARC hat innerhalb der Luftfahrtbranche eine einzigartige Position als zentraler Knotenpunkt für die finanzielle Abwicklung und den Datenaustausch zwischen Fluggesellschaften und Reisebüros und gewährleistet sichere und effiziente Transaktionen“, begründet die ICE den Lizenzkauf. Mit ihren umfassenden Branchendaten biete die ARC „unübertroffene Einblicke und Analysen“ und unterstützt so das Umsatzmanagement, die Betrugsprävention und die Betriebseffizienz der Fluggesellschaften. Die Hauptaufgabe bestehe darin, Reisebüros zu akkreditieren und die finanzielle Abwicklung zu verwalten, wodurch eine „umfangreiche Echtzeit-Datenbank der verkauften Flugtickets“ entstehe.

    „Reisebüros müssen täglich Ticketverkäufe und Gelder für über 240 Fluggesellschaften weltweit an die ARC übermitteln“, führt die ICE aus. TIP ermögliche autorisiertem Personal der Strafverfolgungs- und Sicherheitsbehörden, die Flugticketdatenbank von der ARC zu durchsuchen, „um die Reisemuster von Personen von Interesse zu verfolgen und zu analysieren“. Nutzer könnten Suchvorgänge anhand von Schlüsselkennungen wie Passagiername, Reiseroute, Tarifdetails und Zahlungsmethoden durchführen. Das umfangreiche Register enthält über eine Milliarde Datensätze und uumfasst 39 Monate vergangener und zukünftiger Reisedaten, was „eine beispiellose Informationsquelle“ darstelle.
    Kopie ausgestellter Tickets

    Die ARC fungiert als Clearinghouse, über das Reisebüros in den USA – von kleinen Familienunternehmen bis hin zu großen Online-Agenturen wie Expedia oder Booking.com – Fluggesellschaften für die von ihnen verkauften Tickets bezahlen. Seine Rolle ähnele der von Visa oder MasterCard bei Kreditkartentransaktionen, erläutert der US-Bürgerrechtler Edward Hasbrouck vom kalifornischen Identity Project. Im Gegensatz zu den beiden Finanzdienstleistern habe die ARC in den USA aber keinen Konkurrenten.

    Ticketverkäufe melden die US-Reisebüros der ARC täglich über Links zu computergestützten Reservierungssystemen. Jede Woche reichen sie zudem einen Bericht dort ein, der eine Kopie aller ausgestellten Tickets, den gezahlten Betrag, die Tarifberechnung und Steueraufschlüsselung sowie die Zahlungsweise enthält. ARC zieht den Gesamtbetrag der wöchentlichen Verkäufe aller Fluggesellschaften vom Bankkonto des Partners ab und zahlt jeder Airline einen wöchentlichen Gesamtbetrag für die ausgestellten Tickets aus.

    Das Unternehmen ist im gemeinsamen Besitz von neun großen Fluggesellschaften. Dazu zählen neben Delta, Southwest, United, American Airlines, Alaska Airlines, JetBlue und Air Canada aus Nordamerika auch Lufthansa und Air France aus der EU. Hasbrouck zufolge wickelt die ARC nur Zahlungen von Reisebüros in den USA ab. Tilgungen und Gutschriften anderer Reisevermittler würden über regionale Clearinghäuser, etwa der Dachgesellschaft International Air Transport Association (IATA) abgewickelt.

    Wie steht es mit der DSGVO?

    Neben der ICE und dem übergeordneten Department of Homeland Security (DHS) gehören auch das Verteidigungs- sowie das Finanzministerium zu den TIP-Nutzern. Nicht nur deswegen geben sich Daten- und Verbraucherschützer sehr besorgt über das massive Register und die darauf ermöglichten Zugriffe. „Das ist wahrscheinlich die bedeutendste aggregierte Datenbank über amerikanische Flugreisende“, erklärte Hasbrouck gegenüber dem Magazin The Lever. Dass die US-Regierung sich daran bedienen könne, sei eine große Nummer.

    Die Firma habe seit langem „ein Quasi-Monopol bei der Bearbeitung von Flugbuchungen“, moniert Bill McGee von der Verbraucherschutzorganisation American Economic Liberties Project. Dass die ARC die umfangreichen persönlichen Informationen an die US-Regierung verkaufe, sei „erschreckend“. Ein ARC-Sprecher sagte The Lever, TIP sei nach den Terroranschlägen vom 11. September eingerichtet worden, um Ermittler zu unterstützen. Verträge etwa mit dem Pentagon sollen mindestens bis 2017 zurückreichen. Parallel stehen Strafverfolgern über umstrittene Abkommen und Richtlinien seit vielen Jahren etwa Passenger Name Records (PNR) zur Verfügung. Die ARC-Informationen gehen aber darüber hinaus und sind einfacher zu durchforsten.

    Die bisherigen Erkenntnisse über TIP lassen noch viele Fragen offen. Unklar ist etwa, ob auch Regierungen anderer Länder davon Gebrauch machen. Würden Ticketkäufe von EU-Bürgern erfasst, dürfte zudem zweifelhaft sein, ob das mit der Datenschutz-Grundverordnung (DSGVO) vereinbar ist. Fluglinien oder Reisebüros informieren ihre Kunden bislang in der Regel nicht explizit über diese Praktiken, sodass etwa eine bewusste Einwilligung in die Datenverarbeitung kaum möglich sein dürfte.

    #aviation #tourisme #voyage #vie_privée #RGPD #wtf

  • Ubisoft : une ONG attaque l’éditeur en justice pour violation du RGPD - Actu - Gamekult
    https://www.gamekult.com/actualite/ubisoft-une-ong-attaque-l-editeur-en-justice-pour-violation-du-rgpd-305086

    En Autriche, l’ONG NOYB - European Center for Digital Rights a choisi d’attaquer Ubisoft en justice pour défendre un utilisateur qui estime que l’éditeur français récolte ses données personnelles à l’encontre de la réglementation européenne. Il dénonce notamment la connexion en ligne obligatoire pour certains titres qui n’en ont pas besoin sur le papier.

    #jeux_vidéo #jeu_vidéo #ubisoft #noyb #justice #rgpd #vie_privée #jeu_vidéo_far_cry_primal

  • #Données_personnelles : l’#Europe va assouplir sa réglementation dans “les semaines à venir”
    https://www.politico.eu/article/donnees-personnelles-leurope-va-assouplir-sa-reglementation-dans-les-semain

    Longtemps considéré comme intouchable à #Bruxelles, le #RGPD est le prochain sur la liste de la croisade de l’#UE contre la surréglementation.

    Quand tu es journaliste ds un journal de droite, tu as le droit de ne pas être tout à fait sans idéologie dans tes papiers.

  • En Europe, les migrants premières victimes de l’intelligence artificielle

    Alors que se tient à Paris cette semaine le Sommet pour l’action sur l’intelligence artificielle (IA), chefs d’État, chefs d’entreprise, chercheurs et société civile sont appelés à se prononcer sur les #risques et les #limites de ses usages. Des #biais_discriminatoires et des #pratiques_abusives ont déjà été observés, en particulier dans la gestion européenne de l’immigration.

    Un #détecteur_d’émotions pour identifier les #mensonges dans un #récit, un #détecteur_d’accent pour trouver la provenance d’un ressortissant étranger, une analyse des #messages, des #photos, des #géolocalisations d’un #smartphone pour vérifier une #identité… voici quelques exemples de systèmes intelligents expérimentés dans l’Union européenne pour contrôler les corps et les mouvements.

    « Ici, les migrations sont un #laboratoire_humain d’#expérimentation_technologique grandeur nature », résume Chloé Berthélémy, conseillère politique à l’EDRi (European Digital Rights), un réseau d’une cinquantaine d’ONG et d’experts sur les droits et libertés numériques. « Les gouvernements et les entreprises utilisent les environnements migratoires comme une phase de #test pour leurs produits, pour leurs nouveaux systèmes de contrôle. »

    Des détecteurs de mensonges à la frontière

    L’un des plus marquants a été le projet #iBorderCtrl. Financé partiellement par des fonds européens, le dispositif prévoyait le déploiement de détecteurs de mensonges, basés sur l’analyse des #émotions d’un individu qui entrerait sur le sol européen. « Les #visages des personnes, en particulier des demandeurs d’asile, étaient analysés pour détecter si, oui ou non, ils mentaient. Si le système considérait que la personne était un peu suspecte, les questions devenaient de plus en plus compliquées. Puis, éventuellement, on arrivait à un contrôle plus approfondi par un agent humain », explique-t-elle.

    Expérimenté dans les #aéroports de Grèce, de Hongrie et de Lettonie, il ne serait officiellement plus utilisé, mais l’EDRi émet quelques doutes. « Dans ce milieu-là, on est souvent face à une #opacité complète et il est très dur d’obtenir des informations. Difficile de dire à l’heure actuelle si cette technologie est encore utilisée, mais dans tous les cas, c’est une volonté européenne que d’avoir ce genre de systèmes aux frontières. »

    Drones de surveillance, caméras thermiques, capteurs divers, les technologies de surveillance sont la partie émergée de l’iceberg, la face visible de l’intelligence artificielle. Pour que ces systèmes puissent fonctionner, il leur faut un carburant : les #données.

    Les bases de données se multiplient

    L’Europe en a plusieurs en matière d’immigration. La plus connue, #Eurodac – le fichier des #empreintes_digitales – vise à ficher les demandeurs et demandeuses d’asile appréhendés lors d’un passage de frontière de manière irrégulière. Créée en 2002, la nouvelle réforme européenne sur l’asile étend considérablement son pouvoir. En plus des empreintes, on y trouve aujourd’hui des photos pour alimenter les systèmes de #reconnaissance_faciale. Les conditions d’accès à Eurodac pour les autorités policières ont également été assouplies. « Elles pourront le consulter pour des objectifs d’enquêtes criminelles, on retrouve donc cette idée que de facto, on traite les demandeurs d’asile, les réfugiés, avec une présomption d’illégalité », conclut Chloé Berthélémy.

    Or, ces collectes d’informations mettent de côté un principe clef : celui du #consentement, condition sine qua non dans l’UE du traitement des données personnelles, et clairement encadré par le Règlement général de protection des données (#RGPD). Les politiques migratoires et de contrôles aux frontières semblent donc faire figures d’#exception. Lorsqu’une personne pose le pied sur le sol européen, ses empreintes seront collectées, qu’il soit d’accord ou non. Selon l’EDRi, « l’Union européenne est en train de construire deux standards différents. Un pour ceux qui ont les bons papiers, le bon statut migratoire, et un autre pour ceux qui ne les ont pas ».

    Un nouveau cadre juridique qui a d’ailleurs été attaqué en justice. En 2021, en Allemagne, la GFF, la Société des droits civils (qui fait partie du réseau de l’EDRi) triomphe de l’Office allemand de l’immigration, condamné pour pratiques disproportionnées. Textos, données de géolocalisation, contacts, historique des appels et autres #fichiers_personnels étaient extraits des #smartphones des demandeurs d’asile à la recherche de preuve d’identité.

    Automatisation des décisions

    Une fois les frontières passées, l’intelligence artificielle continue à prendre pour cible des étrangers, à travers sa manifestation la plus concrète : les #algorithmes. Examiner les demandes de #visa ou de #naturalisation, attribuer un #hébergement, faciliter l’organisation des #expulsions, prédire les flux migratoires… la multiplication des usages fait craindre aux chercheurs une administration sans guichet, sans visage humain, entièrement automatisée. Problème : ces systèmes intelligents commettent encore beaucoup trop d’#erreurs, et leur prise de décisions est loin d’être objective.

    En 2023, l’association La Quadrature du Net révèle que le code source de la Caisse nationale d’allocations familiales (Cnaf) attribue un « score de risque » à chaque allocataire. La valeur de ce score est ensuite utilisée pour sélectionner ceux qui feront l’objet d’un contrôle. Parmi les critères de calcul : avoir de faibles revenus, être au chômage, ou encore être né en dehors de l’Union européenne. « En assimilant la précarité et le soupçon de fraude, l’algorithme participe à une politique de #stigmatisation et de #maltraitance institutionnelle des plus défavorisés », estime Anna Sibley, chargée d’étude au Gisti. Quinze ONG ont d’ailleurs attaqué cet algorithme devant le Conseil d’État en octobre 2024 au nom du droit à la protection des données personnelles et du principe de non-discrimination.

    Autre exemple : l’IA a déjà été utilisée par le passé pour soutenir une prise de décision administrative. En 2023, le ministère de l’Intérieur a « appelé à la rescousse » le logiciel #Google_Bard, un outil d’aide à la prise de décision, pour traiter la demande d’asile d’une jeune Afghane. « Ce n’est pas tant le fait que l’intelligence artificielle ait donné une réponse négative qui est choquant. C’est plutôt le fait qu’un employé du ministère de l’Intérieur appuie sa réponse sur celle de l’IA, comme si cette dernière était un argument valable dans le cadre d’une décision de justice », analyse la chercheuse.

    #Dématérialisation à marche forcée

    En 2024, un rapport du Défenseur des droits pointait du doigt les atteintes massives aux droits des usagers de l’ANEF, l’administration numérique des étrangers en France. Conçue pour simplifier les démarches, l’interface permet le dépôt des demandes de titres de séjour en ligne.

    Pourtant, les #dysfonctionnements sont criants et rendent la vie impossible à des milliers de ressortissants étrangers. Leurs réclamations auprès du Défenseur des droits ont augmenté de 400% en quatre ans. Des #plaintes allant du simple problème de connexion aux erreurs de décisions de la plateforme. Un casse-tête numérique contre lequel il est difficile de se prémunir. « Les services d’accompagnement déployés sont trop limités », constate Gabrielle de Boucher, chargée de mission numérique droits et libertés auprès du Défenseur des droits. Selon elle, il est important que la France reconnaisse aux étrangers le droit de réaliser toute démarche par un canal humain, non dématérialisé, un accueil physique.

    Le biais discriminatoire

    Autre écueil de la dématérialisation croissante des administrations : le biais discriminatoire. Puisque les systèmes intelligents sont entraînés par des êtres humains, ces derniers reproduisent leurs biais et les transmettent involontairement à l’IA. Illustration la plus concrète : les erreurs d’#identification.

    En 2023, un homme a été arrêté aux États-Unis après que les logiciels de reconnaissance faciale l’ont désigné par erreur comme l’auteur de vols. « On peut légitimement avoir des craintes sur le respect des droits, puisqu’on sait, par exemple, que le taux d’erreur est plus élevé pour les personnes non blanches », s’inquiète Gabrielle du Boucher. Comme elles sont sous représentées dans les #bases_de_données qui nourrissent l’apprentissage de l’IA, celle-ci sera moins fiable que lorsqu’elle devra, par exemple, se concentrer sur les personnes blanches.

    https://www.infomigrants.net/fr/post/62762/en-europe-les-migrants-premieres-victimes-de-lintelligence-artificiell
    #IA #AI #intelligence_artificielle #migrations #réfugiés #victimes #frontières #technologie #contrôle #surveillance #accent #langue #discrimination

  • Fin de partie pour #23andMe, en passe d’être vendue - Next
    https://next.ink/brief_article/fin-de-partie-pour-23andme-en-passe-detre-vendue

    (...)

    Pour les usagers installés dans des zones où la loi protège les données personnelles, il est encore possible de supprimer ses informations et données #génétiques pour éviter qu’elles ne soient transmises à un futur acheteur. 


    C’est en tout cas ce que recommande le procureur général Bonta aux clients installés en Californie – l’État américain a passé une loi similaire au Règlement européen sur la protection des données (#RGPD).

    #ADN

  • Hardware #crash Analysis with AMD Radeon™ GPU Detective
    https://gpuopen.com/learn/hardware-crash-analysis-with-radeon-gpu-detective

    AMD GPUOpen - Graphics and game developer resources Unlock deeper insights into GPU crashes with #Radeon_GPU_Detective v1.4’s new Hardware Crash Analysis feature. Identify in-flight shaders and pinpoint crash culprits faster, streamlining your debugging process.

    #News #Product_blogs #Release #RGD #Single_Blog #Radeon_GPU_Detective_RGD_1.0_tutorial

  • AMD Radeon™ GPU Profiler 2.4 adds support for AMD Radeon™ RX 9000 Series, pure-compute applications, #DirectML applications (and more!)
    https://gpuopen.com/learn/radeon_gpu_profiler_2-4_support_rx9000_series_pure-compute_applications

    AMD GPUOpen - Graphics and game developer resources Discover the latest Radeon GPU Profiler v2.4, now supporting Radeon RX 9000 Series GPUs and profiling for pure #compute and DirectML applications. Enhance your optimization with improved ISA views and Work Graphs support.

    #News #Product_blogs #Release #RGP #Single_Blog #Tools #WorkGraphs #rdna_4 #workgraphs

  • Reading AMD RDNA™ and #CDNA™ Architecture Disassembly is a Breeze with AMD Radeon™ GPU Analyzer v2.12
    https://gpuopen.com/learn/rdna-cdna-architecture-disassembly-radeon-gpu-analyzer-2-12

    AMD GPUOpen - Graphics and game developer resources Explore #Radeon_GPU_Analyzer v2.12’s enhanced ISA disassembly view, making shader and kernel analysis easier with new tooltips and automatic highlighting. Optimize your GPU workflows effortlessly!

    #News #Product_blogs #Release #RGA #Single_Blog #Tools #rdna_4

  • À #France_Travail, l’essor du #contrôle_algorithmique

    « #Score_de_suspicion » visant à évaluer l’honnêteté des chômeur·ses, « #score_d’employabilité » visant à mesurer leur « #attractivité », algorithmes de #détection des demandeur·ses d’emploi en situation de « perte de confiance », en « besoin de redynamisation » ou encore à « risque de dispersion »… France Travail multiplie les #expérimentations de #profilage_algorithmique des personnes sans emploi.

    Mise à jour du 12 juillet 2024 : le directeur général de France Travail a souhaité utiliser son droit de réponse. Vous la trouverez à la suite de l’article.

    Après avoir traité de l’utilisation par la #CAF d’un algorithme de notation des allocataires, nous montrons ici que cette pratique est aussi partagée par France Travail, ex-#Pôle_Emploi. À France Travail, elle s’inscrit plus largement dans le cadre d’un processus de #numérisation_forcée du #service_public de l’#emploi.

    –-> Retrouvez l’ensemble de nos publications sur l’utilisation par les organismes sociaux d’algorithmes à des fins de contrôle social sur notre page dédiée et notre Gitlab : https://git.laquadrature.net/la-quadrature-du-net/algo-et-controle.

    Au nom de la « #rationalisation » de l’action publique et d’une promesse « d’#accompagnement_personnalisé » et de « #relation_augmentée », se dessine ainsi l’horizon d’un service public de l’emploi largement automatisé. Cette #automatisation est rendue possible par le recours à une myriade d’algorithmes qui, de l’inscription au suivi régulier, se voient chargés d’analyser nos données afin de mieux nous évaluer, nous trier et nous classer. Soit une extension des logiques de #surveillance_de_masse visant à un #contrôle_social toujours plus fin et contribuant à une #déshumanisation de l’accompagnement social.

    De la CAF à France Travail : vers la multiplication des « scores de suspicion

    C’est, ici encore, au nom de la « #lutte_contre_la_fraude » que fut développé le premier algorithme de #profilage au sein de France Travail. Les premiers travaux visant à évaluer algorithmiquement l’#honnêteté des personnes sans emploi furent lancés dès 2013 dans la foulée de l’officialisation par la CAF de son algorithme de notation des allocataires. Après des premiers essais en interne jugés « frustrants » [1], France Travail – à l’époque Pôle Emploi – se tourne vers le secteur privé. C’est ainsi que le développement d’un outil de détermination de la probité des demandeur·ses d’emploi fut confié à #Cap_Gemini, une multinationale du CAC40 [2].

    La #notation des chômeur·ses est généralisée en 2018. La présentation qui en est faite par France Travail donne à voir, comme à la CAF, l’imaginaire d’une institution assiégée par des chômeur·ses présumé·es malhonnêtes. Ses dirigeant·es expliquent que l’algorithme assigne un « score de suspicion » – dans le texte – visant à détecter les chômeur·ses les plus susceptibles « d’#escroquerie » grâce à l’exploitation de « #signaux_faibles » [3]. Une fois l’ensemble des personnes sans emploi notées, un système d’« #alertes » déclenche ainsi des #contrôles lorsque l’algorithme détecte des situations « suspectes » (emploi fictif, usurpation d’identité, reprise d’emploi non déclarée) [4].

    Pour l’heure, France Travail s’est refusé à nous communiquer le code source de l’algorithme. Au passage, notons que ses dirigeants ont par ailleurs refusé, en violation flagrante du droit français, de fournir la moindre information aux demandeur·ses d’emploi que nous avions accompagné·es pour exercer leur droit d’accès au titre du #RGPD [5]. Nous avons cependant obtenu, via l’accès à certains documents techniques, la liste des variables utilisées.

    On y retrouve une grande partie des données détenues par France Travail. Aux variables personnelles comme la nationalité, l’âge ou les modalités de contact (mails, téléphone…) s’ajoutent les données relatives à notre vie professionnelle (employeur·se, dates de début et de fin de contrat, cause de rupture, emploi dans la fonction publique, secteur d’activité…) ainsi que nos #données financières (RIB, droits au chômage…). À ceci s’ajoute l’utilisation des données récupérées par France Travail lors de la connexion à l’espace personnel (adresse IP, cookies, user-agent). La liste complète permet d’entrevoir l’ampleur de la #surveillance_numérique à l’œuvre, tout comme les risques de #discriminations que ce système comporte [6].

    #Profilage_psychologique et gestion de masse

    Fort de ce premier « succès », France Travail décide d’accroître l’usage d’algorithmes de profilage. C’est ainsi que, dès 2018, ses dirigeant·es lancent le programme #Intelligence_Emploi [7]. Son ambition affichée est de mettre l’#intelligence_artificielle « au service de l’emploi » pour « révéler à chaque demandeur d’emploi son #potentiel_de_recrutement » [8].

    Un des axes de travail retient notre attention : « Accélérer l’accès et le retour à l’emploi [via un] #diagnostic “augmenté” pour un accompagnement plus personnalisé ». Ici, l’#IA doit permettre de d’« augmenter la capacité de diagnostic » relative aux « traitements des aspects motivationnels » via la « détection de signaux psychologiques » [9]. En son sein, deux cas d’usage retenus sont particulièrement frappants.

    Le premier est le développement d’algorithmes visant à « anticiper les éventuels #décrochages », prévenir les « #risques_de_rupture » [10] ou encore « détecter les moments où ils [les personnes au chômage] peuvent se sentir découragés ou en situation de fragilité » [11].

    Ces travaux ont trouvé, au moins en partie [12], un premier aboutissement dans l’outil du #Journal_de_la_Recherche_d’Emploi (#JRE) actuellement expérimenté dans plusieurs régions de France [13]. Le JRE assigne à chaque incrit·e quatre scores de « profilage psychologique » visant respectivement à évaluer la « dynamique de recherche » d’emploi, les « signes de perte de confiance », le « besoin de #redynamisation » ou les « risques de dispersion » [14].

    Ces informations sont synthétisées et présentées aux conseiller·es sous la forme d’un tableau de bord. « Parcours à analyser », « Situations à examiner », « Dynamique de recherche faible » : des alertes sont remontées concernant les chômeur·ses jugé·es déficient·es par tel ou tel algorithme. Le ou la conseiller·e doit alors faire un « #diagnostic_de_situation » – via l’interface numérique – afin d’« adapter l’intensité » des « actions d’accompagnement ». Et là encore, ils et elles peuvent s’appuyer sur des « #conseils_personnalisés » générés par un dernier algorithme [15].

    Contrôle, #mécanisation et déshumanisation de l’accompagnement : voilà la réalité de ce que le directeur de France Travail appelle « l’accompagnement sur mesure de masse » [16].

    Diagnostic et score d’#employabilité

    Le second cas d’usage est tout aussi inquiétant. Il s’agit de déterminer la « qualité » d’un·e demandeur·se d’emploi. Ou, pour reprendre les termes officiels, son « employabilité » [17]. Ce projet n’est pas encore déployé à grande échelle, mais nous savons qu’une première version – basée, elle, sur des techniques d’intelligence artificielle [18] – a été développée en 2021 [19].

    L’algorithme alloue à chaque inscrit·e un score prédisant ses « chances de retour à l’emploi ». Véritable outil automatique de #tri des chômeur·ses, il vise à organiser la « #priorisation des actions d’accompagnement » [20] en fonction d’un supposé #degré_d’autonomie de la personne sans emploi.

    Si les informations disponibles sur ce projet sont limitées, on peut imaginer que ce score permettra le contrôle en temps réel de la « progression de la #recherche_d’emploi » via les actions entreprises pour améliorer « l’attractivité [de leur] profil » [21]. Il serait alors un indicateur d’évaluation en continu de la bonne volonté des chômeur·ses.

    Mais on peut aussi penser qu’il sera utilisé pour inciter les personnes sans emploi à se diriger vers les « #métiers_en_tension », dont une majorité concentre les conditions de travail les plus difficiles. En demandant aux chômeur·ses d’améliorer leur score, via une #réorientation, ils et elles seraient encouragé·es à accepter un emploi au rabais.

    Agenda partagé & agences virtuelles

    Mais l’étendue du processus de numérisation à l’oeuvre à France Travail va bien au-delà de ces exemples. Côté contrôle numérique, citons l’interface « #XP_RSA » [22], l’outil numérique déployé dans le cadre de la récente réforme du #RSA. Cette interface n’est rien d’autre qu’un agenda partagé permettant de déclarer, et de contrôler, les quinze à vingt « #heures_d’activité » hebdomadaires dont vont devoir s’acquitter les bénéficiaires du minima social. Son remplissage forcé est un pas supplémentaire vers le #flicage des plus précaires.

    Côté IA, France Travail a lancé en 2024 le programme « #Data_IA » [23], successeur d’Intelligence Emploi mentionné plus haut. Présenté avec fracas au salon de l’« innovation technologique » VivaTech – organisé par le groupe Publicis –, on retrouve parmi les projets en développement une #IA_générative visant à numériser l’accompagnement et la #recherche_d’emploi (« #Match_FT ») [24]. France Travail s’intéresse aussi aux « #maraudes_numériques » pour « remobiliser les jeunes les plus éloignés de l’emploi » [25] et au développement d’« #agences_virtuelles » [26].

    #Austérité, automatisation et #précarisation

    La numérisation de France Travail signe la naissance d’un modèle de gestion de masse où coexistent une multitude d’algorithmes ayant chacun la tâche de nous classifier selon une dimension donnée. Risque de « fraude », de « dispersion », de « perte de confiance », suivi des diverses obligations : les capacités de collecte et de traitements de données sont mises au service de la détection, en temps réel, des moindres écarts à des normes et règles toujours plus complexes [27]. Cette numérisation à marche forcée sert avant tout à contrôler les personnes sans emploi [28].

    À l’heure où Gabriel Attal annonce une énième réforme de l’assurance-chômage passée en force alors que l’Assemblée nationale est dissoute, ce contrôle ne cache plus son but : forcer les plus précaires à accepter des #conditions_de_travail toujours plus dégradées [29].

    Loin des promesses de « libérer du temps pour les conseillers » ou d’offrir un accompagnement « plus réactif et plus personnalisé » [30] aux personnes sans emploi, cette numérisation contribue à la déshumanisation d’un service essentiel et à l’#exclusion des plus précaires, voire tend à une généralisation du #non-recours_aux_droits. Il ne s’agit pas d’idéaliser le traitement « au guichet », mais de rappeler que la numérisation forcée accentue les écueils de ce dernier. En accompagnant la fermeture des points d’accueil, elle transfère une partie du travail administratif aux personnes usagères du service public, participant à l’éloignement de celles et ceux qui ne sont pas en mesure de le prendre en charge [31].

    En standardisant les processus d’accompagnement, via la #quantification de chaque action et le profilage de toute une population, elle restreint les possibilités d’échange et supprime toute possibilité d’accompagnement réellement personnalisé [32].

    En facilitant le contrôle généralisé, elle accentue enfin la #stigmatisation des plus précaires et participe activement à leur #paupérisation.

    –-

    Mise à jour du 12 juillet 2024

    À la suite de notre article, France Travail, via son directeur général Thibaut Guilly, a souhaité exercer son droit de réponse que nous publions ci-dessous in extenso.

    « Madame, Monsieur,

    Je reviens vers vous suite à mon précédent courrier du 2 juillet.

    Bien que le délai de 3 jours prévu à l’article 1.1-III de la loi n°2004-575 du 21 juin 2004 pour la confiance dans l’économie numérique soit aujourd’hui expiré, je constate que le droit de réponse qui vous a été adressé n’a pas été publié. Pour rappel, le non-respect de cette obligation est passible d’une amende de 3 750 €.

    Aussi, je réitère par la présente ma demande de publication d’un droit de réponse suite à la parution le 25 juin 2024 de l’article intitulé « A France Travail, l’essor du contrôle algorithmique » (librement accessible à l’adresse : https://www.laquadrature.net/2024/06/25/a-france-travail-lessor-du-controle-algorithmique).

    Dans cet article, vous évoquez un « service public de l’emploi largement automatisé », ainsi qu’une utilisation des algorithmes qui « contribue à la déshumanisation d’un service essentiel », favorise « la stigmatisation des plus précaires et participe activement à leur paupérisation » et constitue « un pas supplémentaire vers le flicage des plus précaires ». Il s’agirait d’une « extension des logiques de surveillance de masse visant à un contrôle social toujours plus fin et contribuant à une déshumanisation de l’accompagnement social », cette « numérisation à marche forcée ser[van]t avant tout à contrôler les personnes sans emploi ». Vous faites également état de « la fermeture des points d’accueil ».

    Nous nous inscrivons en faux contre ces propos erronés qui conduisent à jeter un discrédit sur le travail des plus de 55 000 collaborateurs qui accompagnent chaque jour les demandeurs d’emploi et les entreprises et à travestir la réalité concernant l’usage que nous faisons de ces algorithmes.

    L’utilisation des algorithmes au sein de France Travail ne vise en aucun cas à remplacer le travail des conseillers. L’intelligence artificielle (IA) vient en complément et ne se substitue jamais à une intervention humaine. Au contraire, nous concevons les algorithmes et l’IA comme des outils d’aide à la décision pour les conseillers ou un moyen de leur libérer du temps administratif afin de leur permettre de se consacrer pleinement à l’accompagnement des demandeurs d’emploi.

    Toute utilisation d’algorithmes est en outre encadrée par une charte éthique (https://www.francetravail.org/accueil/communiques/pole-emploi-se-dote-dune-charte-pour-une-utilisation-ethique-de-linte) qui décrit nos engagements pour garantir un cadre de confiance respectueux des valeurs de France Travail, à l’opposé de toute « notation de chômeurs » que vous pointez dans votre article. Un comité d’éthique externe composé de personnalités qualifiées garantit le respect de ce cadre. En aucun cas, les algorithmes ne sont utilisés pour « encourager les demandeurs d’emploi à accepter des emplois au rabais ».

    Concernant la « mécanisation » ou la « déshumanisation » de l’accompagnement que vous avancez, c’est méconnaitre le travail que réalisent les conseillers quotidiennement dans plus de 900 agences ou par téléphone. Aucun projet de fermeture d’agence n’est d’ailleurs envisagé contrairement à ce que vous dites et France Travail est un des rares services publics à être ouvert tous les jours, sur flux le matin et sur rendez-vous l’après-midi. Plus de 8,8 millions de personnes sont venues dans nos agences l’année dernière. Cet accueil en agence reflète justement notre politique de proximité et d’accompagnement notamment des plus précaires. L’ambition de la loi pour le plein emploi est en outre de renforcer l’accompagnement humain des plus éloignés, en particulier des bénéficiaires du RSA.

    Vous parlez enfin de « flicage des plus précaires » à travers l’utilisation d’algorithmes concernant le contrôle de la recherche d’emploi et la lutte contre la fraude. Il convient tout d’abord de souligner que ce sont deux activités distinctes, le contrôle de la recherche d’emploi ne saurait être assimilé à de la lutte contre de la fraude, qui est, par définition, une activité illégale et susceptible de poursuites pénales. Sur ce dernier point, l’utilisation des données dans la lutte contre la fraude vise avant tout à protéger nos usagers. En effet, la majorité des situations recherchées par les équipes de France Travail ne concerne pas des demandeurs d’emploi mais des individus qui détournent les services d’indemnisation du chômage, bien souvent au préjudice de nos usagers : usurpation d’identité des demandeurs d’emploi pour s’approprier leurs droits à l’assurance chômage ou détourner leurs paiements, individus se fabricant un faux passé professionnel ou une fausse résidence en France pour ouvrir des droits indus. Concernant le contrôle de la recherche d’emploi, là encore nous réfutons vivement l’idée selon laquelle nous mènerions une chasse aux plus précaires. Tout demandeur d’emploi inscrit à France Travail bénéficie de droits mais a également des devoirs qui lui sont présentés dès son inscription, dont celui de rechercher activement un emploi. 600 conseillers sont dédiés à ce contrôle et là encore, l’IA est un outil d’aide et en aucun la pierre angulaire des contrôles réalisés par ces conseillers en contact avec les demandeurs d’emploi tout au long de ce processus de contrôle. Là encore votre article méconnaît le travail de nos conseillers et constitue une atteinte à leur engagement et à leur intégrité.

    Je vous remercie de publier sans délai ce droit de réponse. A défaut, je me réserve la possibilité de saisir les juridictions à cet effet.

    Je vous prie d’agréer, Madame, Monsieur, l’expression de mes sincères salutations.

    Thibaut Guilluy »

    Notre réponse :

    À la suite de notre article, France Travail, via son directeur général Thibaut Guilly, nous a initialement écrit pour faire des remarques d’ordre général sur notre article. Puis, dans une nouvelle lettre reçue aujourd’hui, il est subitement passé aux menaces : nous n’aurions, selon lui, pas fait droit à sa prétendue « demande de publication d’un droit de réponse ». Ces menaces sont particulièrement malvenues et, au demeurant, totalement vaines, puisque rien dans son courrier initial n’indiquait qu’il s’agissait d’une demande de droit de réponse…

    Le directeur général de France Travail s’en tient à une poignée d’éléments de langage sans jamais répondre sur le fond. Pas un mot sur la multiplication des algorithmes de profilage à des fins de contrôle. Tout au plus y apprend-on que des algorithmes d’IA sont aussi utilisés à des fins de « contrôle de la recherche d’emploi », ce que nous ignorions.

    Cette lettre se borne ainsi à un simple exercice, maladroit et malvenu, de communication. Elle s’essaye vainement à réfuter l’expression de « flicage des plus précaires » pour décrire les outils de surveillance des allocataires du RSA. La mise en place d’un agenda partagé pour le contrôle des 15 à 20 heures d’activité de ces dernier·ès serait ainsi – il faut savoir apprécier l’humour – une mesure visant à « renforcer l’accompagnement humain ».

    Quant à l’impact de la numérisation sur l’accueil des plus précaires, le directeur général de France Travail nie la réalité, tout comme son homologue de la CNAF, afin de minimiser l’étendue de la surveillance et le projet politique sous-jacent. Qu’a-t-il donc à répondre à la Défenseure des droits qui, en 2022 dans son deuxième rapportsur la dématérialisation des services publics, rappelait la hausse des inégalités et des réclamations en raison de cette dématérialisation « à marche forcée » ?

    Enfin, opposer, comme le fait cette lettre, le travail des salarié·es de France Travail et notre action de documentation et d’alerte sur les abus de l’administration est stérile : la déshumanisation et le changement de nature du service public se font non seulement au détriment des personnes au chômage mais également des agent·es de France Travail, comme l’ont dénoncé syndicats et associations au moment de la réforme de l’assurance chômage et la transformation de Pôle Emploi en France Travail [33].

    Ce que cette lettre souligne avant tout c’est donc l’absence de recul, de capacité de remise en cause et d’esprit critique du directeur général de France Travail quant à l’extension des logiques de contrôle numérique au sein de son institution. Ou sa pleine adhésion à ce projet.
    Notes

    [1] Voir cette note de synthèsenote de synthèse revenant sur les premières expérimentation faites par Pôle Emploi.

    [2] Voir cet article sur l’implication de Cap Gemini dans la réalisation de l’outil de scoring.

    [3] L’expression « score de suspicion » est extraite de l’analyse d’impact disponible ici, celle de « signaux faibles » d’une note de suivi des travaux OCAPI 2018 disponible ici, celle d’« indices » de l’ article présentant la collaboration de France Travail avec Cap Gemini. Quant au terme d’« escroquerie », il est issu d’un échange de mails avec un·e responsable de France Travail.

    [4] L’algorithme utilisé semble se baser sur des arbres de décisions, sélectionnés via XGBoost. Les principaux cas d’entraînement semblent être la détection de périodes d’activité dites « fictives » – soit des périodes de travail déclarées mais non travaillées – d’usurpation d’identité et de reprise d’emploi non déclarée. Voir ce document.

    [5] Nous accompagnons différentes personnes dans des demandes d’accès à leurs données personnelles. Pour l’instant, France Travail s’est systématiquement opposé à leur donner toute information, en violation du droit.

    [6] Voir notamment nos articles sur l’algorithme de la CAF, en tout point similaire à cette page.

    [7] Ce programme, financé à hauteur de 20 millions d’euros par le Fond de Transformation de l’Action Publique a été construit autour de 3 axes et s’est déroulé de 2018 à 2022. Voir notamment la note de 2020 envoyée à la DINUM par France Travail, disponible ici.

    [8] Rapport annuel 2018 de Pôle Emploi disponible ici.

    [9] Voir cette note envoyée par Pôle Emploi à la DINUM.

    [10] voir note 9

    [11] Voir ce support de webinaire.

    [12] En partie puisqu’au cœur des algorithmes du JRE, nulle trace de machine learning ou de traitements statistiques complexes. Chaque score résulte de l’application de règles simples, bien loin des ambitions initiales de recours à l’intelligence artificielle. Les dirigeant·es de France Travail semblent ici avoir éprouvé les limites d’un techno-solutionnisme béat. Voir ce document. À noter aussi que ce document évoque une « brique IA Mire » portant sur la détection de « situations de décrochage ». Il se pourrait donc que des algorithmes plus avancés soient en développement.

    [13] Le JRE est une refonte de l’interface numérique. Voir à ce sujet l’excellent article de Basta disponible ici. Si le JRE ne semble pas avoir été créé dans le cadre du programme Intelligence Emploi, il semble avoir été le cadre d’expérimentations de plusieurs des solutions produites. Voir ici.

    [14] Voir le document « Fiches pratiques à destination des conseillers » portant sur le JRE disponible ici.

    [15] Les documents les plus parlants sur la mécanisation de l’accompagnement via le JRE sont ce support et ce document à destination des conseiller·es. Voir aussi les documents que nous mettons en ligne sur l’utilisation d’IA pour générer des conseils automatisés, consultables par les personnes sans emploi et les conseiller·es.

    [16] Voir cette interview du directeur actuel de France Travail.

    [17] Pour un aperçu historique de la notion d’employabilité, voir le chapitre 5 de France Travail : Gérer le chômage de massse de J.-M Pillon.

    [18] Voir cette note envoyée par Pôle Emploi à la DINUM en 2020.

    [19] Voir cette autre note envoyée par Pôle Emploi à la DINUM en 2021.

    [20] voir note 18

    [21] Voir ce document sur l’utilisation de l’IA à Pôle Emploi.

    [22] Voir ce document de présentation de XP RSA.

    [23] Voir ce document de présentation du programme Data IA.

    [24] Pour Match FT, voir cet entretien, ce tweet et cet article de la Banque des Territoires. Voir aussi Chat FT, l’IA générative pour l’instant dédiée aux conseillers·es, dans ce document.

    [25] Voir ce tweet.

    [26] Voir ce tweet.

    [27] Sur la réforme à venir, voir notamment cet article du Monde. Sur le triplement des contrôles, voir cet articledu même journal.

    [28] Sur l’histoire du contrôle à France Travail, voir le livre Chômeurs, vos papiers de C. Vivès, L. Sigalo Santos, J.-M. Pillon, V. Dubois et H. Clouet, le rapport Le contrôle des chômeurs de J.-M. Méon, E. Pierru et V. Dubois disponible Sur le triplement des contrôles, voir ici et le livre France Travail : gérer le chômage de masse de Jean-Marie Pillon.

    [29] voir note 27

    [30] Voir, entre autres, cette vidéo du responsable du programme Data IA.

    [31] Voir le livre L’Etat social à distance de Clara Deville.

    [32] Voir le texte Déshumaniser le travail social de Keltoum Brahan et Muriel Bombardi, publié dans le numéro de février 2017 de CQFD.

    [33] La CGT a dénoncé une réforme qui n’« est pas favorable » aux personnes sans emploi. La CGT Pôle Emploi y voit une numérisation du service public qui « détruira les nécessaires relations humaines, et accentuera la fracture numérique et donc la précarité » et une réforme qui va « renforcer les devoirs au détriment des droits », ou encore « accroître les tensions entre les agents et les demandeurs d’emploi ». Solidaires a dénoncé le caractère « trompeur » de l’accompagnement. Côté personnes sans emploi, le constat est le même : cette transformation rend les personnes « Coupable[s] d’être au chômage » d’après le comité National CGT des Travailleurs Privés d’Emploi et Précaires. Enfin, les associations de solidarité et des syndicats ont ensemble dénoncé dans le Monde le « risque des contrôles abusifs de la situation globale des ménages ».

    https://lagrappe.info/?A-France-Travail-l-essor-du-controle-algorithmique-1132
    #algorithme #chômage #profilage

    • Le réseau social X utilise par défaut les données de ses utilisateurs pour entraîner son IA, Grok

      En vigueur au moins depuis le mois de mai, cette politique de données a été repérée par des internautes dans les paramètres de la plate-forme d’Elon Musk. La manœuvre pour refuser que ses données soient utilisées n’est pas accessible sur l’application mobile.

      Grok, l’outil d’intelligence artificielle (IA) d’Elon Musk arrivé en France il y a à peine trois mois, pose déjà de sérieuses questions de légalité sur le sol européen. (...)

  • David Libeau - LinkedIn La RATP profite des concerts de Taylor Swift à Paris pour tester ses outils de surveillance généralisée dopée à l’IA, d’après un arrêté de la PP
    https://www.linkedin.com/posts/davidlibeau_vidaezosurveillance-tayloswift-cnil-activity-71933437082373160

    La Préfecture de Police de Paris vient de publier un nouvel arrêté pour autoriser l’usage de hashtag#vidéosurveillance algorithmique lors du concert de #TayloSwift de ce week-end.

    https://lnkd.in/e3_xbFyY

    Depuis le 30 avril, la RATPgroup avait modifié sa page Politique générale de confidentialité pour informer d’une nouvelle expérimentation qui devait être faite du 9 au 12 mai.

    Finalement le préfet autorise l’usage de la VSA du 7 au 14 mai, en publiant l’arrêté ce 6 mai, soit la veille, ne permettant pas un recours juridictionnel.

    Les stations Nanterre Préfecture et La Défense Grande Arche sont concernées.

    #CNIL #RGPD #videoprotection #Paris #JO2024 #Paris2024

    David Libeau
    Ingénieur d’études @Arcom (direction des plateformes en ligne)

    via @paniersalade

  • #DirectX®12 single shader compilation with Radeon™ GPU Analyzer (RGA) v2.9.1
    https://gpuopen.com/learn/rga-2-9-1-single-d3d12-shader-compilation

    AMD GPUOpen - Graphics and game developer resources Radeon™ GPU Analyzer v2.9.1 now supports D3D12 shader compilation without requiring a completely defined pipeline state. #RGA v2.9.1 is available now.

    #Article #Documentation #Single_Blog #DirectX_12 #Radeon_GPU_Analyzer #tools

  • The Hellenic Data Protection Authority fines the Ministry of Migration and Asylum for the “Centaurus” and “Hyperion” systems with the largest penalty ever imposed to a Greek public body

    Two years ago, in February 2022, Homo Digitalis had filed (https://homodigitalis.gr/en/posts/10874) a complaint against the Ministry of Immigration and Asylum for the “#Centaurus” and “#Hyperion” systems deployed in the reception and accommodation facilities for asylum seekers, in cooperation with the civil society organizations Hellenic League for Human Rights and HIAS Greece, as well as the academic Niovi Vavoula.

    Today, the Hellenic Data Protection Authority identified significant GDPR violations in this case by the Ministry of Immigration and Asylum and decided to impose a fine of €175.000 euro – the highest ever imposed against a public body in the country.

    The detailed analysis of the GDPR highlights the significant shortcomings that the Ministry of Immigration and Asylum had fallen into in the context of preparing a comprehensive and coherent Data Protection Impact Assessment, and demonstrates the significant violations of the GDPR that have been identified and relate to a large number of subjects who have a real hardship in being able to exercise their rights.

    Despite the fact that the DPA remains understaffed, with a reduced budget, facing even the the risk of eviction from its premises, it manages to fulfil its mission and maintain citizens’ trust in the Independent Authorities. It remains to be seen how long the DPA will last if the state does not stand by its side.

    Of course, nothing ends here. A high fine does not in itself mean anything. The Ministry of Immigration and Asylum must comply within 3 months with its obligations. However, the decision gives us the strength to continue our actions in the field of border protection in order to protect the rights of vulnerable social groups who are targeted by highly intrusive technologies.

    You can read our press release here: https://homodigitalis.gr/wp-content/uploads/2024/04/PressRelease_%CE%97omoDigitalis_Fine-175.000-euro_Hellenic_Data_Protec

    You can read Decision 13/2024 on the Authority’s website here: https://www.dpa.gr/el/enimerwtiko/prakseisArxis/aytepaggelti-ereyna-gia-tin-anaptyxi-kai-egkatastasi-ton-programmaton

    https://homodigitalis.gr/en/posts/132195

    #Grèce #surveillance #migrations #réfugiés #justice #amende #RGDP #données #protection_des_données #camps_de_réfugiés #technologie

    • Griechenland soll Strafe für Überwachung in Grenzcamps zahlen

      Wie weit darf die EU bei der Überwachung von Asylsuchenden an ihren Grenzen gehen? Griechenland testet das in neuen Lagern auf den Ägäischen Inseln. Nun hat die griechische Datenschutzbehörde dafür eine Strafe verhängt. Bürgerrechtler:innen hoffen auf eine Entscheidung mit Signalwirkung.

      Doppelter „Nato-Sicherheitszaun“ mit Stacheldraht. Kameras, die selbst den Basketballplatz und die Gemeinschaftsräume rund um die Uhr im Blick haben. Drohnen sorgen für Überwachung aus der Luft. Das Lager auf Samos, das die griechische Regierung 2021 mit viel Getöse eröffnet hat, gleicht eher einem Gefängnis als einer Erstaufnahme für Asylsuchende, die gerade in Europa gelandet sind.

      Das Überwachungssystem, das in diesem und vier weiteren Lagern auf den griechischen Inseln für „Sicherheit“ sorgen soll, heißt Centaurus. Die Bilder aus den Sicherheitskameras und Drohnen laufen in einem Kontrollzentrum im Ministerium in Athen zusammen. Bei besonderen Situationen sollen auch Polizeibehörden oder die Feuerwehr direkten Zugang zu den Aufnahmen bekommen. Mit dem System Hyperion wird der Zugang zum Lager kontrolliert: biometrischen Eingangstore, die sich nur mit Fingerabdrücken öffnen lassen.

      Für den Einsatz dieser Technologien ohne vorherige Grundrechtsprüfung hat das Ministerium nun eine Strafe kassiert. Die griechische Datenschutzaufsicht sieht einen Verstoß gegen Datenschutzgesetze in der EU (DSGVO). In einem lang erwarteten Beschluss belegte sie vergangene Woche das Ministerium für Migration und Asyl mit einem Bußgeld von 175.000 Euro.
      Erst eingesetzt, dann Folgen abgeschätzt

      Zwei konkrete Punkte führten laut Datenschutzbehörde zu der Entscheidung: Das Ministerium hat es versäumt, rechtzeitig eine Datenschutz-Folgenabschätzung zu erstellen. Gemeint ist damit eine Bewertung, welche Auswirkungen der Einsatz der Überwachung auf die Grundrechte der betroffenen Personen hat. Es geht um die Asylsuchenden, die in den Lagern festgehalten werden, aber auch Angestellte, Mitarbeitende von NGOs oder Gäste, die das Lager betreten.

      Eine solche Abschätzung hätte bereits vor der Anschaffung und dem Einsatz der Technologien vollständig vorliegen müssen, schreibt die Aufsichtsbehörde in ihrer Entscheidung. Stattdessen ist sie bis heute unvollständig: Ein Verstoß gegen die Artikel 25 und 35 der Datenschutzgrundverordnung, für die die Behörde eine Geldbuße in Höhe von 100.000 Euro verhängt.

      Zusätzlich wirft die Behörde dem Ministerium Intransparenz vor. Dokumente hätten beispielsweise verwirrende und widersprüchliche Angaben enthalten. Verträge mit den Unternehmen, die die Überwachungssysteme betreiben, hätte das Ministerium mit Verweis auf Geheimhaltung gar nicht herausgegeben, und damit auch keine Details zu den Bedingungen, zu denen die Daten verarbeitet werden. Wie diese Systeme mit anderen Datenbanken etwa zur Strafverfolgung verknüpft sind, ob also Aufnahmen und biometrische Daten auch bei der Polizei landen könnten, das wollte das Ministerium ebenfalls nicht mitteilen. Dafür verhängte die Aufsichtsbehörde weitere 75.000 Euro Strafe.
      Ministerium: Systeme noch in der Testphase

      Das Ministerium rechtfertigt sich: Centaurus und Hyperion seien noch nicht vollständig in Betrieb, man befinde sich noch in der Testphase. Die Aufsichtsbehörde habe nicht bedacht, dass „die Verarbeitung personenbezogener Daten nicht bewertet werden konnte, bevor die Systeme in Betrieb genommen wurden“. Hinzu kämen Pflichten zur Geheimhaltung, die sich aus den Verträgen mit den Unternehmen hinter den beiden Systemen ergeben.

      Die Behörde hat das nicht durchgehen lassen: Rein rechtlich mache es keinen Unterschied, ob ein System noch getestet wird oder im Regelbetrieb sei, schriebt sie in ihrer Entscheidung. Die Abschätzung hätte weit vorher, nämlich bereits bei Abschluss der Verträge, vorliegen müssen. Noch dazu würden diese Verstöße eine große Zahl an Menschen betreffen, die sich in einer besonders schutzlosen Lage befänden.

      Abschalten muss das Ministerium die Überwachungssysteme allerdings nicht, sie bleiben in Betrieb. Es muss lediglich binnen drei Monaten den Forderungen nachkommen und fehlende Unterlagen liefern. Das Ministerium kündigt an, die Entscheidung rechtlich überprüfen und möglicherweise anfechten zu wollen.
      Geheimhaltungspflicht keine Ausrede

      „Die Entscheidung ist sehr wichtig, weil sie einen sehr hohen Standard dafür setzt, wann und wie eine Datenschutz-Folgenabschätzung erfolgreich durchgeführt werden muss, sogar vor der Auftragsvergabe“, sagt Eleftherios Helioudakis. Er ist Anwalt bei der griechischen Organisation Homo Digitalis und beschäftigt sich mit den Auswirkungen von Technologien auf Menschenrechte. Eine Beschwerde von Homo Digitalis und weiteren Vereinen aus dem Jahr 2022 hatte die Untersuchung angestoßen.

      Helioudakis sagt, die Entscheidung mache deutlich, dass mangelnde Kommunikation mit der Datenschutzbehörde zu hohen Geldstrafen führen kann. Außerdem sei nun klar: Das Ministerium kann Vertragsklauseln zum Datenschutz nicht aus Gründen der Geheimhaltung vor der Datenschutzbehörde verbergen, denn für deren Untersuchungen ist die Geheimhaltungspflicht aufgehoben – wie es die DSGVO vorsieht. Das Urteil der Behörde beziehe sich zudem erst mal nur auf die Mängel bei der Einführung der Systeme, so der Bürgerrechtler. Es könnten also neue Fälle bei der Datenschutzbehörde anhängig gemacht werden.

      Die Sanktionen sind laut der Hilfsorganisation Hias die höchsten, die die Datenschutzbehörde je gegen den griechischen Staat verhängt hat. In der Summe fallen die Strafzahlungen allerdings gering aus. Sind die Datenschutzregeln der EU wirklich das geeignete Instrument, um die Rechte von Asylsuchenden zu schützen? Eleftherios Helioudakis sagt ja. „Die gesetzlichen Bestimmungen der Datenschutz-Grundverordnung sind Instrumente, mit denen wir die Bestimmungen zum Schutz personenbezogener Daten praktisch durchsetzen können.“ Es gebe keine richtigen und falschen Ansätze. „Wir können die uns zur Verfügung stehenden juristischen Instrumente nutzen, um unsere Strategie zu bündeln und uns gegen übergriffige Praktiken zu wehren.“

      Die Lager auf den Ägäischen Inseln werden vollständig von der EU finanziert und gelten als „Modell“. Nach ihrem Vorbild plant die EU in den kommenden Jahren weitere Lager an ihren Außengrenzen zu errichten. Die Entscheidung der griechischen Datenschutzaufsicht wird von der Kommission vermutlich mit Interesse verfolgt. Sie macht deutlich, unter welchen Voraussetzungen Überwachungstechnologien in diesen Camps eingesetzt werden können.

      https://netzpolitik.org/2024/panopticon-fuer-gefluechtete-griechenland-soll-strafe-fuer-ueberwachung

  • #GDC_2024: We reveal incredible Work Graphs perf, #AMD_FSR 3.1, GI with #Brixelizer, and so much more
    https://gpuopen.com/events/amd-at-gdc-2024

    AMD GPUOpen - Graphics and game developer resources Learn about our GDC 2024 activities, including #AMD_FSR_3.1, AMD FidelityFX Brixelizer, work graphs, #Mesh_shaders, #Tools, CPU, and more.

    #DirectX® #Event #Events #GPU_Reshape #Optimization #RGD #DirectSR #event #FSR_3 #FSR_3.1 #GDC2024 #global_illumination #news #Performance #presentation #ray_tracing #Ryzen

  • #GDC 2024 : #work_graphs, #Mesh_shaders, #fidelityfx™, dev #tools, #CPU optimization, and more.
    https://gpuopen.com/gdc-2024-announce

    AMD GPUOpen - Graphics and game developer resources Our #GDC_2024 presentations this year include work graphs, mesh shaders, AMD #FSR 3, #GI with #AMD_FidelityFX #Brixelizer, #AMD_Ryzen optimization, #RGD, RDTS, and #GPU_Reshape!

    #Event #Brix #FidelityFX_Brixelizer #FidelityFX_SDK #FSR_2 #FSR_3 #GDC24 #global_illumination #Radeon_Developer_Tool_Suite #Radeon_GPU_Detective #Ryzen

  • Maisons fissurées : réhydrater le sol pour faire face au retrait-gonflement des argiles
    https://theconversation.com/maisons-fissurees-rehydrater-le-sol-pour-faire-face-au-retrait-gonf

    Des fissuromètres posés sur quelques fissures existantes ont permis d’analyser l’apport de la réhumidification du sol dans la stabilisation de leur ouverture pendant la sécheresse. Les résultats observés durant les 4 années de sécheresse intense de 2017 à 2020 sont satisfaisants tant en termes de stabilisation d’ouverture des fissures existantes que d’absence d’apparition de nouvelles fissures sur les façades confortées.

    Cette solution est à la fois écologique, peu coûteuse et durable. À titre indicatif, le procédé expérimental MACH a été mis en place pour un coût total de 15 000 euros HT, soit un coût nettement inférieur à celui d’un confortement en sous-œuvre traditionnel en moyenne supérieur à 100 000 euros HT.


    Procédé MACH (Maison Confortée par Humidification)
    https://www.ifsttar.fr/collections/ActesInteractifs/AII3/pdfs/163686.pdf

    Un dispositif robuste et manuel a été choisi. Le propriétaire de la MACH ouvre la valve d’injection située à la sortie du dispositif de collecte et l’eau pénètre dans le dispositif d’injection. Celui-ci est constitué d’un réseau de points d’injection alimentés par une nourrice. Les points d’injection sont répartis autour du pignon de l’extension (un point tous les 1.5 m). Il s’agit d’un tube PVC (5 cm de diamètre) qui a été foncé dans un trou de tarière descendu à 1 mètre de profondeur (soit 15 cm sous le niveau des fondations).
    Ainsi, lorsque le propriétaire ouvre la valve d’injection, l’eau s’écoule gravitairement dans le sol.

    #RGA #retrait_gonflement_des_argiles

  • RGPD -L’effacement de son nom sur les registres de baptême peut être refusé par l’Église | Service-Public.fr
    https://www.service-public.fr/particuliers/actualites/A17177

    L’intérêt qui s’attache, pour l’Église, à la conservation des données personnelles relatives au baptême figurant dans le registre, doit être regardé comme un motif légitime impérieux, prévalant sur l’intérêt moral du demandeur à demander l’effacement définitif de ses données.

    Et ce alors même que la personne n’a, en général vu son jeune age, pas donné son consentement pour une telle inscription.
    #baptême #apostasie #RGPD

  • Gilets Jaunes : « c’est le plus gros corpus d’expression citoyenne qu’on ait analysé en France et peut-être dans le monde », que sont devenus les cahiers de doléances ?
    https://france3-regions.francetvinfo.fr/paris-ile-de-france/paris/gilets-jaunes-c-est-le-plus-gros-corpus-d-expression-ci

    (...)

    La mission du grand débat national a par la suite disparu et le gouvernement a demandé à l’entreprise chargée de traiter les cahiers de doléances de supprimer purement et simplement toutes les données récupérées jusqu’alors sur les ordinateurs. Des centaines de milliers de doléances perdues à jamais.

    • Marie Ranquet
      https://mastodon.zaclys.com/@Marie_Ranquet/112019267160958568

      Ce que je vois passer sur la soit-disant « destruction » des « cahiers de #doléance » (leur vrai petit nom est « cahiers citoyens ») de 2019 me rend furieuse à un point qu’on ne peut pas imaginer. 🤬

      Je suppose qu’il faut tout reprendre dans l’ordre. Je vais essayer 🧵

      1) Des données perdues à jamais ? c’est ce que certains articles alarmistes claironnent. Déjà rappelons que les cahiers papier sont archivés aux Archives départementales ; et que leur version numérisée est conservée aux Archives nationales.

      Ce qui déjà devrait rassurer un peu. Ce qui a « disparu à jamais », si je comprends bien, c’est la version qui avait été confiée à des prestataires informatiques.

      Et je ne sais pas, mais moi ça me rassure plutôt de savoir que les prestataires qui traitent des données à caractère personnel confiées par le secteur public aient l’obligation de les effacer une fois la prestation terminée 🙄 (à moins qu’on préfère qu’elles aillent nourrir l’IA ou soient vendues au plus offrant, ou stockées sur du cloud quelque part ?) #RGPD
      #CahiersCitoyens

      2) Des données inaccessibles ? on entend tout et n’importe quoi sur ça. Les informations sont accessibles dans les services publics d’archives qui les conservent : Archives départementales pour les cahiers originaux, Archives nationales pour la version numérisée.

      (...)

    • Marie Ranquet, le simple fait qu’un travail ait été commandé, réalisé, payé (avec nos impôts) mais jamais restitué par le prestataire, ni utilisé par le gouvernement (ou alors faut m’expliquer au regard des decisions prises depuis) ni rendu public est en soi un énorme problème.
      Que la matière brute existe encore, disséminée dans des dizaines d’endroits, soit, mais qui va la récupérer et l’analyser maintenant ? Est-ce à la portée d’un citoyen ? Faut-il attendre un thésard ou un Piquety de 2050 ?
      Comme la convention climat, tout cela est le vent que le gouvernement met dans sa comm pour donner l’illusion que le peuple a son mot à dire

  • Pourquoi la #promesse de « vidéogérer » les #villes avec des caméras couplées à une #intelligence_artificielle séduit et inquiète

    Sécurité, stationnement, déchets… #Nîmes a inauguré, à l’automne 2023, son « #hyperviseur_urbain ». Alors que la collecte et la circulation des #données sont au cœur de ce système, l’antenne locale de la Ligue des droits de l’homme s’inquiète. D’autres villes, comme #Dijon, ont déjà fait ce choix.

    La salle a des allures de centre spatial : un mur de plus de 20 mètres de long totalement recouvert d’écrans, 76 au total, chacun pouvant se diviser en neuf. Ici parviennent les images des 1 300 #caméras disposées dans la ville de Nîmes et dans certaines communes de son agglomération.

    A la pointe depuis 2001 sur le thème des #caméras_urbaines, se classant sur le podium des villes les plus vidéosurveillées du pays, Nîmes a inauguré, le 13 novembre 2023, son « #hyperviseur ». Ce plateau technique et confidentiel de 600 mètres carrés est entièrement consacré à une « nouvelle démarche de #territoire_intelligent », indique le maire (Les Républicains), Jean-Paul Fournier, réélu pour un quatrième mandat en 2020.

    Avec cet outil dernier cri, sur lequel se relaient nuit et jour une cinquantaine de personnes, la ville fait un grand pas de plus vers la #smart_city (la « #ville_connectée »), une tendance en plein développement pour la gestion des collectivités.

    Ce matin-là, les agents en poste peuvent facilement repérer, à partir d’images de très haute qualité, un stationnement gênant, un véhicule qui circule trop vite, un dépotoir sauvage, un comportement étrange… L’hyperviseur concentre toutes les informations en lien avec la gestion de l’#espace_public (sécurité, circulation, stationnement, environnement…), permet de gérer d’un simple clic l’éclairage public d’un quartier, de mettre une amende à distance (leur nombre a augmenté de 23 % en un an avec la #vidéoverbalisation) ou de repérer une intrusion dans un des 375 bâtiments municipaux connectés.

    La collecte et la circulation des données en temps réel sont au cœur du programme. Le système s’appuie sur des caméras dotées, et c’est la nouveauté, de logiciels d’intelligence artificielle dont les #algorithmes fournissent de nouvelles informations. Car il ne s’agit plus seulement de filmer et de surveiller. « Nous utilisons des caméras qui permettent de gérer en temps réel la ville et apportent des analyses pour optimiser la consommation d’énergie, par exemple, ou gérer un flux de circulation grâce à un logiciel capable de faire du comptage et de la statistique », explique Christelle Michalot, responsable de ce centre opérationnel d’#hypervision_urbaine.

    #Reconnaissance_faciale

    Si la municipalité n’hésite pas à présenter, sur ses réseaux sociaux, ce nouveau dispositif, elle est en revanche beaucoup plus discrète lorsqu’il s’agit d’évoquer les #logiciels utilisés. Selon nos informations, la ville travaille avec #Ineo, une entreprise française spécialisée dans le domaine de la #ville_intelligente. Le centre de police municipale est également équipé du logiciel de #surveillance_automatisée #Syndex, et d’un logiciel d’analyse pour images de vidéosurveillance très performant, #Briefcam.

    Ce dernier logiciel, de plus en plus répandu dans les collectivités françaises, a été mis au point par une société israélienne rachetée par le japonais #Canon, en 2018. Il est surtout au cœur de plusieurs polémiques et d’autant d’actions en justice intentées par des syndicats, des associations et des collectifs qui lui reprochent, notamment, de permettre la reconnaissance faciale de n’importe quel individu en activant une fonctionnalité spécifique.

    Le 22 novembre 2023, le tribunal administratif de Caen a condamné la communauté de communes normande #Cœur-Côte-Fleurie, ardente promotrice de cette solution technologique, « à l’effacement des données à caractère personnel contenues dans le fichier », en estimant que l’utilisation de ce type de caméras dites « intelligentes » était susceptible de constituer « une atteinte grave et manifestement illégale au #respect_de_la_vie_privée ». D’autres décisions de la #justice administrative, comme à #Nice et à #Lille, n’ont pas condamné l’usage en soi du #logiciel, dès lors que la possibilité de procéder à la reconnaissance faciale n’était pas activée.

    A Nîmes, le développement de cette « surveillance de masse » inquiète la Ligue des droits de l’homme (LDH), la seule association locale à avoir soulevé la question de l’utilisation des #données_personnelles au moment de la campagne municipale, et qui, aujourd’hui encore, s’interroge. « Nous avons le sentiment qu’on nous raconte des choses partielles quant à l’utilisation de ces données personnelles », explique le vice-président de l’antenne nîmoise, Jean Launay.

    « Nous ne sommes pas vraiment informés, et cela pose la question des #libertés_individuelles, estime celui qui craint une escalade sans fin. Nous avons décortiqué les logiciels : ils sont prévus pour éventuellement faire de la reconnaissance faciale. C’est juste une affaire de #paramétrage. » Reconnaissance faciale officiellement interdite par la loi. Il n’empêche, la LDH estime que « le #droit_à_la_vie_privée passe par l’existence d’une sphère intime. Et force est de constater que cette sphère, à Nîmes, se réduit comme peau de chagrin », résume M. Launay.

    « Des progrès dans de nombreux domaines »

    L’élu à la ville et à Nîmes Métropole Frédéric Escojido s’en défend : « Nous ne sommes pas Big Brother ! Et nous ne pouvons pas faire n’importe quoi. L’hyperviseur fonctionne en respectant la loi, le #RGPD [règlement général sur la protection des données] et selon un cahier des charges très précis. » Pour moderniser son infrastructure et la transformer en hyperviseur, Nîmes, qui consacre 8 % de son budget annuel à la #sécurité et dépense 300 000 euros pour installer entre vingt-cinq et trente nouvelles caméras par an, a déboursé 1 million d’euros.

    La métropole s’est inspirée de Dijon, qui a mis en place un poste de commandement partagé avec les vingt-trois communes de son territoire il y a cinq ans. En 2018, elle est arrivée deuxième aux World Smart City Awards, le prix mondial de la ville intelligente.

    Dans l’agglomération, de grands panneaux lumineux indiquent en temps réel des situations précises. Un accident, et les automobilistes en sont informés dans les secondes qui suivent par le biais de ces mâts citadins ou sur leur smartphone, ce qui leur permet d’éviter le secteur. Baptisé « #OnDijon », ce projet, qui mise aussi sur l’open data, a nécessité un investissement de 105 millions d’euros. La ville s’est associée à des entreprises privées (#Bouygues_Telecom, #Citelum, #Suez et #Capgemini).

    A Dijon, un #comité_d’éthique et de gouvernance de la donnée a été mis en place. Il réunit des habitants, des représentants de la collectivité, des associations et des entreprises pour établir une #charte « de la #donnée_numérique et des usages, explique Denis Hameau, adjoint au maire (socialiste) François Rebsamen et élu communautaire. La technique permet de faire des progrès dans de nombreux domaines, il faut s’assurer qu’elle produit des choses justes dans un cadre fixe. Les données ne sont pas là pour opprimer les gens, ni les fliquer ».

    Des « systèmes susceptibles de modifier votre #comportement »

    Nice, Angers, Lyon, Deauville (Calvados), Orléans… Les villes vidéogérées, de toutes tailles, se multiplient, et avec elles les questions éthiques concernant l’usage, pour le moment assez flou, des données personnelles et la #surveillance_individuelle, même si peu de citoyens semblent s’en emparer.

    La Commission nationale de l’informatique et des libertés (CNIL), elle, veille. « Les systèmes deviennent de plus en plus performants, avec des #caméras_numériques capables de faire du 360 degrés et de zoomer, observe Thomas Dautieu, directeur de l’accompagnement juridique de la CNIL. Et il y a un nouveau phénomène : certaines d’entre elles sont augmentées, c’est-à-dire capables d’analyser, et ne se contentent pas de filmer. Elles intègrent un logiciel capable de faire parler les images, et ces images vont dire des choses. »

    Cette nouveauté est au cœur de nouveaux enjeux : « On passe d’une situation où on était filmé dans la rue à une situation où nous sommes analysés, reprend Thomas Dautieu. Avec l’éventuel développement des #caméras_augmentées, quand vous mettrez un pied dans la rue, si vous restez trop longtemps sur un banc, si vous prenez un sens interdit, vous pourrez être filmé et analysé. Ces systèmes sont susceptibles de modifier votre comportement dans l’espace public. Si l’individu sait qu’il va déclencher une alerte s’il se met à courir, peut-être qu’il ne va pas courir. Et cela doit tous nous interpeller. »

    Actuellement, juridiquement, ces caméras augmentées ne peuvent analyser que des objets (camions, voitures, vélos) à des fins statistiques. « Celles capables d’analyser des comportements individuels ne peuvent être déployées », assure le directeur à la CNIL. Mais c’est une question de temps. « Ce sera prochainement possible, sous réserve qu’elles soient déployées à l’occasion d’événements particuliers. » Comme les Jeux olympiques.

    Le 19 mai 2023, le Parlement a adopté une loi pour mieux encadrer l’usage de la #vidéoprotection dite « intelligente ». « Le texte permet une expérimentation de ces dispositifs, et impose que ces algorithmes ne soient mis en place, avec autorisation préfectorale, dans le temps et l’espace, que pour une durée limitée, par exemple pour un grand événement comme un concert. Ce qui veut dire que, en dehors de ces cas, ce type de dispositif ne peut pas être déployé », insiste Thomas Dautieu. La CNIL, qui a déjà entamé des contrôles de centres d’hypervision urbains en 2023, en fait l’une de ses priorités pour 2024.

    https://www.lemonde.fr/societe/article/2024/01/02/pourquoi-la-promesse-de-videogerer-les-villes-avec-des-cameras-couplees-a-un
    #vidéosurveillance #AI #IA #caméras_de_vidéosurveillance