• Home Depot a partagé avec Meta des renseignements personnels de clients à leur insu La Presse canadienne
    Les consommateurs donnaient leur adresse électronique au quincaillier pour recevoir leur facture par courriel.

    L’entreprise américaine Home Depot est montrée du doigt par le commissaire à la protection de la vie privée du Canada.

    Le magasin de rénovation Home Depot a partagé les détails de reçus électroniques avec Meta, la société mère de Facebook, à l’insu des clients ou sans leur consentement, conclut le commissaire à la protection de la vie privée du Canada.

    Dans un rapport publié jeudi, Philippe Dufresne indique que les données partagées par Home Depot comprenaient notamment des adresses électroniques chiffrées de clients et des renseignements sur leurs achats en magasin.

    L’enquête du commissaire a révélé que les informations transmises à Meta étaient utilisées pour déterminer si un client avait un compte Facebook. Si c’était le cas, Meta comparait ce que le client avait acheté chez Home Depot aux publicités sur Facebook, afin de mesurer leur efficacité.

    Meta a également pu utiliser les informations sur les clients à ses propres fins commerciales, “y compris le profilage des utilisateurs et le ciblage publicitaire, sans lien avec Home Depot”, a constaté le commissaire.

    L’enquête a ainsi permis d’apprendre que “depuis au moins 2018”, Home Depot recueillait les adresses électroniques de clients, lors de leur passage à la caisse, afin de leur envoyer un reçu électronique.

    Avoir su, des clients auraient peut-être dit non
    Dans un communiqué, le commissaire Dufresne estime qu’il est peu probable que les clients de Home Depot s’attendaient à ce que leur information personnelle soit ainsi communiquée à une plateforme de médias sociaux tiers, simplement parce qu’ils avaient opté à la caisse pour un reçu électronique.

    “Lorsqu’on demandait aux clients de fournir leur adresse électronique à la caisse, on ne leur disait jamais que leurs renseignements seraient communiqués à Meta et on ne leur fournissait pas d’information sur la façon dont Meta ou Home Depot utiliserait leurs renseignements”, a résumé le commissaire Dufresne. “Cette information aurait été d’une grande importance dans la décision des clients de demander ou non un reçu électronique.”

    M. Dufresne rappelle aux entreprises qu’elles doivent obtenir le consentement valide des clients au moment de la vente avant de s’adonner à ce type d’activité commerciale.

    “Les entreprises qui cherchent de plus en plus à offrir des services en ligne doivent porter une attention particulière à toute utilisation des renseignements personnels qu’elles recueillent, car il pourrait être nécessaire d’obtenir un consentement supplémentaire”, a expliqué le commissaire Dufresne.

    Le commissaire à la protection de la vie privée du Canada, Philippe Dufresne, a présenté à la presse son plus récent rapport, jeudi. Photo : La Presse canadienne / Spencer Colby

    Pour sa défense, Home Depot a déclaré au commissaire qu’il s’appuyait sur le “consentement tacite” et que sa déclaration de confidentialité, disponible sur son site web et en version imprimée sur demande dans les points de vente au détail, expliquait de manière adéquate l’utilisation des informations par l’entreprise. Le détaillant a également cité la politique de confidentialité de Facebook.

    Le commissaire a rejeté les arguments de Home Depot, affirmant que les documents invoqués relativement au consentement n’étaient pas accessibles sur-le-champ au passage à la caisse – et que les clients n’avaient aucune raison de chercher à en prendre connaissance.

    “Les explications offertes dans les politiques de l’entreprise étaient insuffisantes pour obtenir un consentement valable”, conclut le commissaire Dufresne.

    Il a recommandé que jusqu’à ce que Home Depot soit en mesure de mettre en place des mesures pour assurer un consentement valide, le détaillant devrait cesser de divulguer à Meta les renseignements personnels des clients qui demandent un reçu électronique à la caisse.

    Le commissaire indique que Home Depot a pleinement collaboré à l’enquête, a accepté de donner suite aux recommandations du Commissariat. Home Depot a par ailleurs cessé en octobre de partager avec Meta des informations sur les clients, ajoute le commissaire.

    Source : https://ici.radio-canada.ca/nouvelle/1951213/protection-vie-privee-facebook-quincailler-home-depot

    #meta #facebook #publicité #surveillance #google #surveillance #algorithme #publicité #bigdata #internet #manipulation #domination #profiling #amazon #données #réseaux_sociaux #gafam

  • “Quand on voit le niveau de dysfonctionnement de l’automatisation actuelle, on n’a pas envie de voir ce que donnera plus d’automatisation encore !” “Mais pourquoi font-ils ça ?” C’est la grande question ou le cri du coeur qui vient naturellement à qui comprend le délire du contrôle social automatisé que pratique la CAF. C’est la question à laquelle ont tenté de répondre la Quadrature, Changer de Cap et le sociologue Vincent Dubois à l’invitation du Mouton Numérique pour la 3e édition du cycle de rencontres Dématérialiser pour mieux régner. C’est à lire par ici : https://hubertguillaud.wordpress.com/2023/01/20/le-controle-social-automatise-dans-la-plus-grande-opacite #dematerialisation #caf #quadrature #controlesocial

    • L’efficacité de ces échanges [de #données] a considérablement progressé avec la possibilité de croiser les NIR, le numéro de sécurité sociale des usagers (et Dubois de rappeler pour l’anecdote que la possibilité de ce croisement a été rendue possible par un amendement du député du parti communiste, Jean-Pierre Brard en 1995, qui voulait que l’administration l’utilise pour lutter contre la fraude fiscale). A la fin des années 70, lors du scandale Safari, la menace était que toutes les données soient concentrées en un seul endroit. Mais cela ne s’est pas passé ainsi. “C’est le croisement de données qui s’est imposé, avec des données qui sont bien plus importantes, volumineuses et précises qu’elles ne l’étaient en 1978”. Le second type de contrôle qui existe, c’est le contrôle sur pièces, à la demande des agents. Le 3e, c’est le contrôle sur place, l’enquête à domicile, qui mobilise des techniques quasi policières, voir plus intrusives que les enquêtes policières, puisque les agents de la CAF ont le droit de s’introduire au domicile, de procéder à des enquêtes de voisinage, procèdent à un interrogatoire des administrés…

      .... les aides sociales sont de plus en plus conditionnées. Dans les années 90, une volonté de restriction des droits pour limiter les dépenses publiques s’est mise en place, qui est allée de pair avec la diabolisation des personnes qui perçoivent des aides. Les algorithmes sont le reflet de ces politiques.

      .... La CAF procède à 31,6 millions de contrôles automatisés par an pour 13 millions d’allocataires !

      ... Le contrôle automatisé est donc massif et induit une suspension des droits qui peut durer des mois. [oui, oui, et oui, je sors d’en prendre, avec rétablissement des droits coupés. on ne s’en sort que si on n’est pas désocialisé, avec capacité d’emprunt, voir l’article !]

      .... le #non_recours risque surtout d’être la pilule pour faire accepter le scoring.

      par ailleurs dire

      l’allocataire n’est pas au courant du passage d’un contrôleur et si l’allocataire n’était pas à son domicile, la CAF considère que le contrôle a été refusé !

      me parait faux, en théorie (loi) les allocataires doivent être prévenus (en général un mot dans la boite aux lettres physique annonçant le passage de l’agent de contrôle)

      merci pour ce(s) cr @hubertguillaud !

      #toctoc

      #visites_domiciliaires #allocataires #RSA #APL #CSS #santé #revenu #datamining #statisitiques_préventives #score_de_risques #scoring #guerre_aux_pauvres

  • Déjà, le coup du scanner biométrique de l’US army sur eBay (cadeau de Noël recyclé ?), là j’avoue que même dans une série à deux balles j’aurais du mal à y croire mais en plus le truc n’est même pas nettoyé.

    https://www.zdnet.fr/actualites/des-scans-militaires-sur-ebay-et-des-donnees-biometriques-dans-la-nature-39951

    Technologie : Un dispositif de scan biométrique de l’armée américaine vendu pour 68 dollars à un chercheur allemand sur eBay révèle des informations surprenantes.

    Un scanner biométrique de l’armée américaine mis en vente sur eBay s’est retrouvé entre les mains d’un chercheur en sécurité allemand.

    Le New York Times rapporte que Matthias Marx, membre du Chas Computer Club, s’est procuré ce dispositif de capture biométrique portatif pour la modique somme de 68 dollars sur le site de vente en ligne. Quelle ne fut pas sa surprise quand le chercheur allemand en sécurité a découvert qu’il contenait les empreintes digitales et les scans de l’iris de 2 632 personnes originaires d’Afghanistan et d’Irak, parmi lesquels des terroristes et des criminels recherchés.

    Des empreintes digitales, des scans d’iris, des noms et des photos non chiffrés ont été retrouvés sur la carte mémoire de l’appareil. L’appareil militaire, construit par le Pentagone, a été utilisé à des fins d’identification. Il aurait été utilisé pour la dernière fois en 2012 en Afghanistan, peut-on lire dans les colonnes du New York Times.

    Failles de sécurité

    Cette machine, le Secure Electronic Enrollment Kit (ou Seek II), possède un lecteur d’empreinte de pouce ainsi qu’un écran et un clavier miniatures.

    Au moment de sa découverte, le chercheur allemand a tenté de réaliser un scan sur lui-même. Une fois ses données biométriques récoltées, un message est apparu lui demandant de se connecter à un serveur du commandement des opérations spéciales américaines afin de télécharger les nouvelles données.

    Un porte-parole du ministère de la Défense américain a indiqué au New York Times que « le ministère demande que tous les appareils dont on pense qu’ils contiennent des informations personnelles identifiables soient renvoyés pour une analyse plus approfondie ». Le chercheur n’a quant à lui pas dévoilé publiquement les informations récupérées sur l’appareil pour ne pas mettre en danger les personnes concernées.

    L’association de hackers Chaos Computer Club, dont fait partie Matthias Marx, s’est procuré au total six dispositifs de capture biométrique sur eBay, dans le but de repérer d’éventuelles failles de sécurité.

    #données_biométriques #technologies_militaires #commerce_en_ligne

  • Covid-19 : les Etats-Unis envisagent des restrictions pour les personnes arrivant de Chine par crainte d’apparition de nouveaux variants
    https://www.lemonde.fr/international/article/2022/12/28/covid-19-les-etats-unis-envisagent-des-restrictions-d-entree-aux-voyageurs-a

    Covid-19 : les Etats-Unis envisagent des restrictions pour les personnes arrivant de Chine par crainte d’apparition de nouveaux variants
    Depuis l’abandon de l’essentiel des restrictions sanitaires, la Chine ne publie plus de données sur l’épidémie, suscitant l’inquiétude à l’étranger.
    Le Monde avec AFP
    La décision des autorités chinoises de relâcher subitement leurs mesures de lutte contre le Covid-19 suscite quelques inquiétudes dans le monde quant au risque d’apparition de nouveaux variants du virus. Des responsables américains ont déclaré, mardi 27 décembre, que les Etats-Unis envisageaient d’imposer des restrictions d’entrée sur leur territoire aux voyageurs en provenance de Chine. « La communauté internationale est de plus en plus préoccupée par les poussées actuelles de Covid-19 en Chine et par le manque de données transparentes, notamment de données sur les séquences génomiques virales, communiquées par la RPC », ont déclaré, sous le couvert de l’anonymat, ces sources, mardi, en référence à la République populaire de Chine. Les Etats-Unis « suivent les données scientifiques et les conseils des experts en santé publique, consultent leurs partenaires et envisagent de prendre des mesures similaires (…) pour protéger le peuple américain », ont-elles ajouté, citant des préoccupations exprimées par l’Organisation mondiale de la santé (OMS) ainsi que des mesures adoptées par le Japon, l’Inde et la Malaisie. Tokyo va ainsi rétablir à partir de vendredi 30 décembre les tests PCR obligatoires pour les voyageurs en provenance de Chine continentale. Pékin a reconnu qu’il était « impossible » de suivre l’évolution de l’épidémie et a même cessé, depuis dimanche, de publier des données quotidiennes sur la situation sanitaire. Les chiffres officiels étaient de plus en plus critiqués tant la sous-estimation des cas d’infection et des morts était devenue flagrante. Mais c’est le manque de données génomiques qui soulève le plus de craintes à l’étranger, rendant « de plus en plus difficile pour les responsables de la santé publique de s’assurer qu’ils seront en mesure d’identifier tout nouveau variant potentiel et de prendre des mesures rapides pour réduire la propagation », ont déclaré les responsables américains. Les autorités chinoises ont décidé de mettre fin, à partir du 8 janvier 2023, aux quarantaines obligatoires à l’arrivée dans le pays, dernier vestige de la stricte politique sanitaire du zéro Covid qui isolait le pays du reste du monde depuis près de trois ans.

    #Covid-19#migrant#migration#chine#etatsunis#japon#inde#malaisie#postzerocovid#frontiere#mobilite#donneeepidemiologique#politiquesanitaire#restrictionsanitaire

  • Un appel au numéro 09 69 39 99 98 de La Banque Postale, qui me demande avant d’accéder à un interlocuteur de taper le numéro de mon compte suivi de mon code secret. Quand on me répond (par mon nom et prénom), je glisse quand même que cela s’appelle une faille de sécurité monstre. La réponse vaut de l’or : « Oui mais ici on accède pas à votre compte, c’est juste pour donner des informations ». Uhuh, et comme je demande à parler à une personne responsable, on me raccroche au nez.

    #Labanquepostale #france #sécurité_informatique #données_personnelles #incurie_informatique #idiocratie

  • Sorvegliare in nome della sicurezza: le Agenzie Ue vogliono carta bianca

    Il nuovo regolamento di #Europol mette a rischio la #privacy di milioni di persone mentre #Frontex, chiamata a controllare le frontiere, punta sull’intelligenza artificiale e la biometria per fermare i migranti. Provando a eludere la legge.

    C’è una lotta interna nel cuore delle istituzioni europee il cui esito toccherà da vicino il destino di milioni di persone. Lo scontro è sul nuovo regolamento di Europol, l’Agenzia europea di contrasto al crimine, entrato in vigore a fine giugno 2022 con la “benedizione” del Consiglio europeo ma che il Garante per la protezione dei dati (Gepd) definisce un “colpo allo Stato di diritto”. “La principale controversia riguarda la possibilità per l’Agenzia di aggirare le proprie regole quando ha ‘bisogno’ di trattare categorie di dati al di fuori di quelli che può raccogliere -spiega Chloé Berthélémy, policy advisor dell’European digital rights (Edri), un’organizzazione che difende i diritti digitali nel continente-. Uno scandalo pari a quanto rivelato, quasi un decennio fa, da Edward Snowden sulle agenzie statunitensi che dimostra una tendenza generale, a livello europeo, verso un modello di sorveglianza indiscriminata”.

    Con l’obiettivo di porre un freno a questa tendenza, il 22 settembre di quest’anno il presidente del Gepd, Wojciech Wiewiórowski, ha comunicato di aver intentato un’azione legale di fronte alla Corte di giustizia dell’Unione europea per contestare la legittimità dei nuovi poteri attribuiti a Europol. Un momento chiave di questa vicenda è il gennaio 2022 quando l’ufficio del Gepd scopre che proprio l’Agenzia aveva conservato illegalmente un vasto archivio di dati sensibili di oltre 250mila persone, tra cui presunti terroristi o autori di reati, ma soprattutto di persone che erano entrate in contatto con loro. Secondo quanto ricostruito dal Guardian esisteva un’area di memoria (cache) detenuta dall’Agenzia contenente “almeno quattro petabyte, equivalenti a tre milioni di cd-rom” con dati raccolti nei sei anni precedenti dalle singole autorità di polizia nazionali. Il Garante ordina così di cancellare, entro un anno, tutti i dati più “vecchi” di sei mesi ma con un “colpo di mano” questa previsione viene spazzata via proprio con l’entrata in vigore del nuovo regolamento. “In particolare, due disposizioni della riforma rendono retroattivamente legali attività illegali svolte dall’Agenzia in passato -continua Berthélémy-. Ma se Europol può essere semplicemente esentata dai legislatori ogni volta che viene colta in flagrante, il sistema di controlli ed equilibri è intrinsecamente compromesso”.

    L’azione legale del Gepd ha però un ulteriore obiettivo. In gioco c’è infatti anche il “modello” che l’Europa adotterà in merito alla protezione dei dati: da un lato quello americano, basato sulla sorveglianza pressoché senza limiti, dall’altro il diritto alla protezione dei dati che può essere limitato solo per legge e con misure proporzionate, compatibili con una società democratica. Ma proprio su questo aspetto le istituzioni europee vacillano. “Il nuovo regolamento esplicita l’obiettivo generale della comunità delle forze dell’ordine: quello di poter utilizzare metodi di ‘polizia predittiva’ che hanno come finalità l’identificazione di individui che potranno potenzialmente essere coinvolti nella commissione di reati”, sottolinea ancora la ricercatrice. Significa, in altri termini, l’analisi di grandi quantità di dati predeterminati (come sesso e nazionalità) mediante algoritmi e tecniche basate sull’intelligenza artificiale che permetterebbero, secondo i promotori del modello, di stabilire preventivamente la pericolosità sociale di un individuo.

    “Questo approccio di polizia predittiva si sviluppa negli Stati Uniti a seguito degli attentati del 2001 -spiega Emilio De Capitani, già segretario della Commissione libertà civili (Libe) del Parlamento europeo dal 1998 al 2011 che da tempo si occupa dei temi legati alla raccolta dei dati-. Parallelamente, in quegli anni, inizia la pressione da parte della Commissione europea per sviluppare strumenti di raccolta dati e costruzione di database”.

    “Il nuovo regolamento esplicita l’obiettivo generale della comunità delle forze dell’ordine: quello di poter utilizzare metodi di ‘polizia predittiva’” – Chloé Berthélémy

    Fra i primi testi legislativi europei che si fondano sulla raccolta pressoché indiscriminata di informazioni c’è la Direttiva 681 del 2016 sulla raccolta dei dati dei passeggeri aerei (Pnr) come strumento “predittivo” per prevenire i reati di terrorismo e altri reati definiti come gravi. “Quando ognuno di noi prende un aereo alimenta due archivi: l’Advanced passenger information (Api), che raccoglie i dati risultanti dai documenti ufficiali come la carta di identità o il passaporto permettendo così di costruire la lista dei passeggeri imbarcati, e un secondo database in cui vengono versate anche tutte le informazioni raccolte dalla compagnia aerea per il contratto di trasporto (carta di credito, e-mail, esigenze alimentari, tipologia dei cibi, annotazioni relative a esigenze personali, etc.) -spiega De Capitani-. Su questi dati legati al contratto di trasporto viene fatto un controllo indiretto di sicurezza filtrando le informazioni in relazione a indicatori che potrebbero essere indizi di pericolosità e che permetterebbero di ‘sventare’ attacchi terroristici, possibili dirottamenti ma anche reati minori come la frode o la stessa violazione delle regole in materia di migrazione. Questo perché il testo della Direttiva ha formulazioni a dir poco ambigue e permette una raccolta spropositata di informazioni”. Tanto da costringere la Corte di giustizia dell’Ue, con una sentenza del giugno 2022 a reinterpretare in modo particolarmente restrittivo il testo legislativo specificando che “l’utilizzo di tali dati è permesso esclusivamente per lo stretto necessario”.

    L’esempio della raccolta dati legata ai Pnr è esemplificativo di un meccanismo che sempre di più caratterizza l’operato delle Agenzie europee: raccogliere un elevato numero di dati per finalità genericamente collegate alla sicurezza e con scarse informazioni sulla reale utilità di queste misure indiscriminatamente intrusive. “Alle nostre richieste parlamentari in cui chiedevamo quanti terroristi o criminali fossero stati intercettati grazie a questo sistema, che raccoglie miliardi di dati personali, la risposta è sempre stata evasiva -continua De Capitani-. È come aggiungere paglia mentre si cerca un ago. Il cittadino ci rimette due volte: non ha maggior sicurezza ma perde in termini di rispetto dei suoi diritti. E a perderci sono soprattutto le categorie meno protette, e gli stessi stranieri che vengono o transitano sul territorio europeo”.

    “Il cittadino ci rimette due volte: non ha maggior sicurezza ma perde in termini di rispetto dei suoi diritti. Soprattutto le categorie meno protette” – Emilio De Capitani

    I migranti in particolare diventano sempre più il “banco di prova” delle misure distopiche di sorveglianza messe in atto dalle istituzioni europee europee attraverso anche altri sistemi che si appoggiano anch’essi sempre più su algoritmi intesi a individuare comportamenti e caratteristiche “pericolose”. E in questo quadro Frontex, l’Agenzia che sorveglia le frontiere esterne europee gioca un ruolo di primo piano. Nel giugno 2022 ancora il Garante europeo ha emesso nei suoi confronti due pareri di vigilanza che sottolineano la presenza di regole “non sufficientemente chiare” sul trattamento dei dati personali dei soggetti interessati dalla sua attività e soprattutto “norme interne che sembrano ampliare il ruolo e la portata dell’Agenzia come autorità di contrasto”.

    Il Garante si riferisce a quelle categorie speciali come “i dati sanitari delle persone, i dati che rivelano l’origine razziale o etnica, i dati genetici” che vengono raccolti in seguito all’identificazione di persone potenzialmente coinvolte in reati transfrontalieri. Ma quel tipo di attività di contrasto non rientra nel mandato di Frontex come guardia di frontiera ma ricade eventualmente nelle competenze di un corpo di polizia i cui possibili abusi sarebbero comunque impugnabili davanti a un giudice nazionale o europeo. Quindi, conclude il Garante, il trattamento di questi dati dovrebbe essere protetto con “specifiche garanzie per evitare pratiche discriminatorie”.

    Ma secondo Chris Jones, direttore esecutivo del gruppo di ricerca indipendente Statewatch, il problema è a monte. Sono le stesse istituzioni europee a incaricare queste due agenzie di svolgere attività di sorveglianza. “Frontex ed Europol hanno sempre più poteri e maggior peso nella definizione delle priorità per lo sviluppo di nuove tecnologie di sicurezza e sorveglianza”, spiega. Un peso che ha portato, per esempio, a finanziare all’interno del piano strategico Horizon Europe 2020, che delinea il programma dell’Ue per la ricerca e l’innovazione dal 2021 al 2024, il progetto “Secure societies”. Grazie a un portafoglio di quasi 1,7 miliardi di euro è stata commissionata, tra gli altri, la ricerca “ITFlows” che ha come obiettivo quello di prevedere, attraverso l’utilizzo di strumenti di intelligenza artificiale, i flussi migratori. Il sistema predittivo, simile a quello descritto da Berthélémy, è basato su un modello per il quale, con una serie di informazioni storiche raccolte su un certo fenomeno, sarebbe possibile anticipare sugli eventi futuri.

    “Se i dati sono cattivi, la decisione sarà cattiva. Se la raccolta dei dati è viziata dal pregiudizio e dal razzismo, lo sarà anche il risultato finale” – Chris Jones

    “Se le mie previsioni mi dicono che arriveranno molte persone in un determinato confine, concentrerò maggiormente la mia sorveglianza su quella frontiera e potrò più facilmente respingerli”, osserva Yasha Maccanico, ricercatore di Statewatch. Sempre nell’ambito di “Secure societies” il progetto “iBorderCtrl” riguarda invece famigerati “rilevatori di bugie” pseudoscientifici che dedurrebbe lo stato emotivo, le intenzioni o lo stato mentale di una persona in base ai suoi dati biometrici. L’obiettivo è utilizzare questi strumenti per valutare la credibilità dei racconti dei richiedenti asilo nelle procedure di valutazione delle loro richieste di protezione. E in questo quadro sono fondamentali i dati su cui si basano queste predizioni: “Se i dati sono cattivi, la decisione sarà cattiva -continua Jones-. Se la raccolta dei dati è viziata dal pregiudizio e dal razzismo, lo sarà anche il risultato finale”. Per questi motivi AccessNow, che si occupa di tutela dei diritti umani nella sfera digitale, ha scritto una lettera (firmata anche da Edri e Statewatch) a fine settembre 2022 ai membri del consorzio ITFlows per chiedere di terminare lo sviluppo di questi sistemi.

    Anche sul tema dei migranti il legislatore europeo tenta di creare, come per Europol, una scappatoia per attuare politiche di per sé illegali. Nell’aprile 2021 la Commissione europea ha proposto un testo per regolamentare l’utilizzo dell’intelligenza artificiale e degli strumenti basati su di essa (sistemi di videosorveglianza, identificazione biometrica e così via) escludendo però l’applicazione delle tutele previste nei confronti dei cittadini che provengono da Paesi terzi. “Rispetto ai sistemi di intelligenza artificiale quello che conta è il contesto e il fine con cui vengono utilizzati. Individuare la presenza di un essere umano al buio può essere positivo ma se questo sistema è applicato a un confine per ‘respingere’ la persona diventa uno strumento che favorisce la lesione di un diritto fondamentale -spiega Caterina Rodelli analista politica di AccessNow-. Si punta a creare due regimi differenti in cui i diritti dei cittadini di Paesi terzi non sono tutelati come quelli degli europei: non per motivi ‘tecnici’ ma politici”. Gli effetti di scarse tutele per gli uni, i migranti, ricadono però su tutti. “Per un motivo molto semplice. L’Ue, a differenza degli Usa, prevede espressamente il diritto alla tutela della vita privata nelle sue Carte fondamentali -conclude De Capitani-. Protezione che nasce dalle più o meno recenti dittature che hanno vissuto gli Stati membri: l’assunto è che chi è o si ‘sente’ controllato non è libero. Basta questo per capire perché sottende l’adozione di politiche ‘predittive’ e la riforma di Europol o lo strapotere di Frontex, stiano diventando un problema di tutti perché rischiano di violare la Carta dei diritti fondamentali”.

    https://altreconomia.it/sorvegliare-in-nome-della-sicurezza-le-agenzie-ue-vogliono-carta-bianca
    #surveillance #biométrie #AI #intelligence_artificielle #migrations #réfugiés #Etat_de_droit #données #protection_des_données #règlement #identification #police_prédictive #algorythme #base_de_données #Advanced_passenger_information (#Api) #avion #transport_aérien #Secure_societies #ITFlows #iBorderCtrl #asile #

    • New Europol rules massively expand police powers and reduce rights protections

      The new rules governing Europol, which came into force at the end of June, massively expand the tasks and powers of the EU’s policing agency whilst reducing external scrutiny of its data processing operations and rights protections for individuals, says a report published today by Statewatch.

      Given Europol’s role as a ‘hub’ for information processing and exchange between EU member states and other entities, the new rules thus increase the powers of all police forces and other agencies that cooperate with Europol, argues the report, Empowering the police, removing protections (https://www.statewatch.org/publications/reports-and-books/empowering-the-police-removing-protections-the-new-europol-regulation).

      New tasks granted to Europol include supporting the EU’s network of police “special intervention units” and managing a cooperation platform for coordinating joint police operations, known as EMPACT. However, it is the rules governing the processing and exchange of data that have seen the most significant changes.

      Europol is now allowed to process vast quantities of data transferred to it by member states on people who may be entirely innocent and have no link whatsoever to any criminal activity, a move that legalises a previously-illegal activity for which Europol was admonished by the European Data Protection Supervisor.

      The agency can now process “investigative data” which, as long it relates to “a specific criminal investigation”, could cover anyone, anywhere, and has been granted the power to conduct “research and innovation” projects. These will be geared towards the use of big data, machine learning and ‘artificial intelligence’ techniques, for which it can process sensitive data such as genetic data or ethnic background.

      Europol can now also use data received from non-EU states to enter “information alerts” in the Schengen Information System database and provide “third-country sourced biometric data” to national police forces, increasing the likelihood of data obtained in violation of human rights being ‘laundered’ in European policing and raising the possibility of third states using Europol as a conduit to harass political opponents and dissidents.

      The new rules substantially loosen restrictions on international data transfers, allowing the agency’s management board to authorise transfers of personal data to third states and international organisations without a legal agreement in place – whilst priority states for international cooperation include dictatorships and authoritarian states such as Algeria, Egypt, Turkey and Morocco.

      At the same time, independent external oversight of the agency’s data processing has been substantially reduced. The threshold for referring new data processing activities to the European Data Protection Supervisor (EDPS) for external scrutiny has been raised, and if Europol decides that new data processing operations “are particularly urgent and necessary to prevent and combat an immediate threat,” it can simply consult the EDPS and then start processing data without waiting for a response.

      The agency is now required to employ a Fundamental Rights Officer (FRO), but the role clearly lacks independence: the FRO will be appointed by the Management Board “upon a proposal of the Executive Director,” and “shall report directly to the Executive Director”.

      Chris Jones, Director of Statewatch, said:

      “The proposals to increase Europol’s powers were published six months after the Black Lives Matter movement erupted across the world, calling for new ways to ensure public safety that looked beyond the failed, traditional model of policing.

      With the new rules agreed in June, the EU has decided to reinforce that model, encouraging Europol and the member states to hoover up vast quantities of data, develop ‘artificial intelligence’ technologies to examine it, and increase cooperation with states with appalling human rights records.”

      Yasha Maccanico, a Researcher at Statewatch, said:

      “Europol has landed itself in hot water with the European Data Protection Supervisor three times in the last year for breaking data protection rules – yet the EU’s legislators have decided to reduce the EDPS’ supervisory powers. Independent, critical scrutiny and oversight of the EU’s policing agency has never been more needed.”

      The report (https://www.statewatch.org/publications/reports-and-books/empowering-the-police-removing-protections-the-new-europol-regulation) has been published alongside an interactive ’map’ of EU agencies and ’interoperable’ policing and migration databases (https://www.statewatch.org/eu-agencies-and-interoperable-databases), designed to aid understanding and further research on the data architecture in the EU’s area of freedom, security and justice.

      https://www.statewatch.org/news/2022/november/new-europol-rules-massively-expand-police-powers-and-reduce-rights-prote
      #interopérabilité #carte #visualisation

    • EU agencies and interoperable databases

      This map provides a visual representation of, and information on, the data architecture in the European Union’s “area of freedom, security and justice”. It shows the EU’s large-scale databases, networked information systems (those that are part of the ’Prüm’ network), EU agencies, national authorities and international organisations (namely Interpol) that have a role in that architecture. It is intended to facilitate understanding and further investigation into that architecture and the agencies and activities associated with it.

      https://www.statewatch.org/eu-agencies-and-interoperable-databases
      #réseau #prüm_II

  • Quand l’État et la Cnil censurent l’information sur notre système de santé - Le Point
    https://www.lepoint.fr/editos-du-point/etienne-gernelle/quand-l-etat-et-la-cnil-censurent-l-information-sur-notre-systeme-de-sante-1

    Si je comprends bien, Le Point veut bien accepter les critiques pour faire évoluer sa méthodologie, mais refuse de s’en emparer, et donc râle ensuite parce que sa méthodologie entraîne un interdiction d’accès aux données de santé.
    « les critiques du Cesrees sont les bienvenues, comme celles de tout le monde, c’est ainsi que notre savoir-faire s’affine au fil des années. »... mais les critiques posées depuis des années ne sont pas suivies. A un moment donné, ça craque. Scientifiquement normal.

    ÉDITO. « Le Point » s’est vu couper l’accès à une base de données cruciale pour notre palmarès annuel des hôpitaux et des cliniques. Cela s’appelle censure.
    Par Étienne Gernelle

    Publié le 10/11/2022 à 07h00

    Temps de lecture : 4 min

    Nous ne publierons pas notre palmarès des hôpitaux et des cliniques de sitôt. Il existe pourtant depuis plus de vingt ans, des centaines de milliers de lecteurs lui font confiance, des dizaines d’établissements hospitaliers prestigieux l’arborent fièrement sur leurs murs. Que s’est-il passé ? Un quarteron de bureaucrates, allergiques à l’évaluation indépendante de notre système de santé et visiblement atteints par l’ivresse de leur pouvoir, a décidé de l’interdire. Une censure : il n’y a pas d’autre mot pour décrire ce qui vient de se passer. Une censure d’État pour briser un thermomètre qui en dérange certains.

    Le procédé est simple : nous empêcher d’accéder à la base de données appelée PMSI, qui mesure l’activité des établissements de santé. Or cette base constitue, depuis plus de vingt ans, le socle de notre évaluation. Tout le monde comprend aisément que la pose d’une prothèse de hanche, par exemple, a plus de chance d’être réussie, et dans de bonnes conditions, par un service qui en réalise plusieurs par jour que par un autre qui ne s’y essaie que quelques fois par an… Eh bien, c’est terminé !

    Opération omerta. Le public ne saura donc plus où il est préférable de se faire soigner. Nul doute que les apparatchiks qui ont réalisé cette censure sauront, eux, dans quel hôpital aller : ils ont des relations. Mais les autres ne méritent pas d’être renseignés. Qu’importe, en outre, que notre système de santé soit essentiellement financé sur fonds publics : les gens n’ont pas à être informés de ce que l’on fait de leur argent. Rideau !

    À l’origine de cette opération omerta, un obscur organisme nommé Cesrees. Cet acronyme désigne le Comité éthique et scientifique pour les recherches, les études et les évaluations dans le domaine de la santé, qui dépend des ministères de la Santé et de la Recherche. En réalité, un petit club qui confond éthique et opacité, et auquel l’évaluation donne de l’eczéma. Le Cesrees, donc, a émis un avis négatif pour la délivrance des données, parce qu’il n’aime pas la méthodologie d’une enquête pourtant reconnue pour son sérieux par les plus grands professionnels depuis des décennies.

    Qu’on ne s’y trompe pas : les critiques du Cesrees sont les bienvenues, comme celles de tout le monde, c’est ainsi que notre savoir-faire s’affine au fil des années. Nous sommes donc ravis de les entendre. Et puis, s’ils pensent détenir une meilleure méthodologie, qu’ils produisent leur propre évaluation ! Cela fait longtemps que l’État et la Sécurité sociale auraient dû le faire pour guider les patients, au moindre risque, dans le maquis de l’offre médicale. Mais au nom de quoi se sentent-ils autorisés à interdire une évaluation indépendante ?

    L comme « libertés ». L’hubris du Cesrees a en l’espèce trouvé un allié, disons un supplétif : la Cnil. La Commission nationale de l’informatique et des libertés nous autorise depuis vingt ans à accéder à la base. Et n’y a jusqu’ici rien trouvé à redire. Sauf cette année, alors que rien n’a changé dans notre méthode. Dans sa décision, ahurissante, la Cnil « invite » notre journal à modifier sa méthodologie en fonction des remarques du Cesrees afin que soient « corrigés de façon substantielle » les « biais » que celui-ci croit y voir. On se pince : un journal est sommé de faire valider son travail par l’administration. On croyait, bêtement, que ce genre de procédures n’avait cours qu’à Cuba, en Corée du Nord ou en Iran. Erreur.

    Quelles conclusions tirer de tout cela ? Que la culture de la liberté d’expression est en singulier recul chez les hauts fonctionnaires français, qui se pensent habilités à dire ce qui peut être publié ou pas. « Tout en prenant en compte la liberté éditoriale » de notre journal, écrit la Cnil, celle-ci nous censure… Sans le savoir, elle a ainsi pastiché ce traité d’humour signé Francis Blanche : « Tout en vous laissant le libre choix de vos opinions, je n’admettrai jamais qu’elles s’opposent aux miennes. » Le « l » de « Cnil », qui correspond au mot « libertés », est donc désormais superfétatoire. Par ailleurs, on notera que cette « autorité administrative indépendante » a prouvé qu’elle était tout sauf indépendante. Sinon pourquoi ce revirement soudain ? Alors qu’allons-nous faire ? Nous battre. Nous enquêterons sur les dessous de cette censure, sur ce parti de l’omerta à l’hôpital, sans oublier bien sûr les responsables politiques. Du point de vue juridique, aussi, nous nous battrons jusqu’au bout et, s’il le faut, jusqu’à la Cour européenne des droits de l’homme. Notre liberté ne se négocie pas. Nous ne lâcherons rien.

    #Données_santé #Le_Point #CNIL

  • L’algorithme de TikTok peut-il prédire votre avenir ?
    https://www.ladn.eu/media-mutants/reseaux-sociaux/algorithme-tiktok-predire-avenir

    ❝Dans la partie de TikTok réservée aux adeptes du New Age, cette idée selon laquelle l’algorithme serait une force spirituelle qui délivre des messages aux utilisateurs aux bons moments est devenue une sorte d’évidence. Beaucoup d’influenceurs démarrent leur vidéo en déclarant : « Si tu es tombé sur cette vidéo, c’est qu’elle t’était destinée. Arrête de scroller et écoute ce que j’ai à te dire ». Pour les adeptes des lois de l’attraction, cette idéologie selon laquelle l’univers se plie à nos pensées, alors il existe une certaine logique : l’algorithme de TikTok reflétant notre personnalité pourrait répondre à nos envies ou à nos interrogations. De manière plus prosaïque, l’application aurait tout un tas d’outils pour viser juste et vous donner la bonne info au bon moment.

    La chose est connue : tous les utilisateurs débutants commencent avec la même expérience sur TikTok. Les premières vidéos qui apparaissent sont issues de comptes possédant énormément d’abonnés et présentant toujours un contenu semblable. Il faut passer les vidéos de jeunes femmes qui se dandinent ou de pranks filmés en accéléré pour que TikTok commence à proposer du contenu plus spécifique. C’est notamment le watch time (le fait de regarder la vidéo jusqu’au bout) et notre engagement (le fait de liker, partager ou commenter la vidéo) qui va donner des indices à l’algorithme. Il va pouvoir déterminer ce qui nous fait rester ou partir d’une vidéo. Si vous êtes un utilisateur de longue date, il est d’ailleurs facile de repérer les moments où la plateforme vous propose un nouveau type de contenu susceptible de vous plaire.

    Le reste tient aussi d’une part de suggestions et d’interprétation. Comme dans les arts divinatoires, chacun peut interpréter les hasards et autres coïncidences comme des messages de l’univers.

    Reste à convenir que TikTok est une application littéralement à votre écoute. Depuis 2020, on sait que la plateforme peut activer le microphone des smartphones même quand vous n’êtes pas en train de scroller les vidéos. Les utilisateurs d’iPhone sont protégés, mais ceux qui sont sur Android sont donc susceptibles d’être enregistrés à leur insu. Et ce n’est pas tout. TikTok utilise aussi ce qu’on appelle des traqueurs tiers qui renseignent l’entreprise sur votre activité en ligne hors de son application. D’après un rapport du site URL Genius, 13 traqueurs sur les 14 que compte TikTok enregistrent vos recherches Google, votre localisation, etc. Quand on comprend à quel point chaque utilisateur est espionné par l’application, alors la magie tend légèrement à disparaître. "

    #RéseauxSociaux #TikTok #Algorithme #DonnéesPersonnelles #Numérique

  • L’état ne peut plus utiliser le terme « Health data hub »
    https://www.nextinpact.com/lebrief/70225/letat-ne-peut-plus-utiliser-terme-health-data-hub

    Hi, hi hi...
    La nouvelle méthode des pouvoirs est de ne plus répondre, silence radio... donc la nouvelle méthode des opposants est de faire appel à la justice.
    Bien fait.

    Le tribunal administratif de Paris a enjoint au ministre de la santé de procéder au retrait de l’expression « Health Data Hub » et du sigle « HDH ». Fin avril, l’association Francophonie Avenir avait déposé une requête auprès de ce tribunal demandant à ce que les services de l’État n’utilisent plus le terme anglophone « Health data hub ».

    Elle s’appuyait sur l’article 14 de la loi du 4 août 1994 sur la langue française qui interdit l’emploi de termes étrangers « aux personnes morales de droit public dès lors qu’il existe une expression ou un terme français de même sens approuvés dans les conditions prévues par les dispositions réglementaires relatives à l’enrichissement de la langue française ».

    Or, les trois termes « Health », « Data » et « Hub » ont fait l’objet d’une traduction au Journal Officiel respectivement en « santé », « données » et… « concentrateur ». Le ministère avait implicitement rejeté la demande de l’association en avril 2020 en ne répondant pas à cette demande mais le tribunal administratif a considéré que ce rejet n’avait pas lieu d’être.

    Le ministère devra donc trouver un nouveau nom à son projet de plateforme des données de santé. « Concentrateur de données de santé » ?

    #Données_santé

  • Migrant Digital Justice

    The use of data and technology for immigration enforcement is increasingly putting people who are already extremely vulnerable at greater risk. Migrants are finding their rights to access their personal data undermined; they are being denied the opportunity to challenge immigration decisions made about them due to lack of evidence; algorithms that have in-built discrimination are taking visa decisions instead of people; people on immigration bail are being monitored around the clock using GPS ankle tags; to name but a few examples of the harms caused by the UK immigration system increasingly relying on digital solutions. What’s more, migrants often have less access to human rights protections and fewer resources with which to assert their rights.

    This digitisation isn’t just a UK phenomenon. Governments around the world are relying more and more on digital tools to control migration and the harms they are causing has aroused significant concern. In 2020, the UN Special rapporteur on racism and xenophobia, Professor Tendayi Achiume, raised serious concerns about this issue, drawing attention to the potential digital technologies have to breach migrants’ human rights. In the US, the National Immigration Law Center has similarly warned, “Immigrants are caught in a complex and opaque web of databases, related systems, and information-sharing mechanisms that facilitate immigration enforcement and erect barriers to their full participation in economic and social life.”Petra Molnar’s 2020 report voices the way in which uses of migration management technology ‘perpetuate harms, exacerbate systemic discrimination and render certain communities as technological testing grounds’. What’s clear is that immigration control is a problem more and more governments are attempting to solve through digitised means and as their take-up increases, so does the risk of mistreatment to the migrants who navigate what the Mayor of London in 2020 described as ‘our broken and hostile immigration system.’

    The UK’s immigration system changed dramatically in the UK with the introduction of the Hostile Environment, implemented through the 2014 and 2016 Immigration Acts. It was designed to limit migrants’ rights and discourage them from accessing public services, such as health, housing or other support. Because trying to obtain help while having an irregular immigration status became a criminal offence under the Acts, ‘undocumented migrants may find themselves criminalised for doing what they must do to survive.’Other potential risks include being detained under immigration powers, and removal/deportation from the UK.

    This outlawing of aid for migrants has now been exacerbated by the digitisation of the Hostile Environment. In a briefing published last year by the Joint Council for the Welfare of Immigrants, Foxglove and Liberty, they wrote that:

    The digitisation of the Hostile Environment fits in with the wider move towards privately provided, opaquely instituted digital systems across government departments that target and impact the poorest and most vulnerable.

    Huge data sharing agreements already existed between different government agencies and departments, such as the Department for Work and Pensions (DWP), HM Revenue & Customs, NHS trusts, businesses, employers or landlords.

    In 2018, a data-sharing agreement between the NHS and the Home Office which allowed the Home Office to seek confidential patient information via the NHS for immigration purposeswas scrapped following a legal challenge launched by Migrants’ Rights Network.

    Now vast swathes of sensitive migrant data are stored in a centralised government database. According to the Royal Society, this sharing and retention of data:

    …has intensified during the pandemic and the UK government has been described as wanting ‘pandemic levels of data sharing to be the new normal.’ Nowhere was the desire for increased data sharing more evident than in the National Data Strategy published in 2020. The Government has been eager to explain what benefits will be reaped by businesses, government and organisations by accelerating data sharing. However, it has been less eager to address the risks that this poses and detail what safeguards it would put in place to mitigate against these risks.

    More recently, the Government detailed its proposals to reform the UK’s data protection regime claiming that they will increase efficiency and improve the use of data in the process of government. It is difficult not to consider the proposals in the wider context of the Government’s stated desire to increase the collection and sharing personal data and what this means for privacy, civil rights and civil liberties particularly for the most vulnerable and marginalised.

    In this context, how can migrants’ rights organisations best protect the rights and interests of those for which they are advocating, those they support?

    https://www.migranttoolkit.uk/migrant-digital-justice

    #migrations #justice_digitale #réfugiés #données #technologie #droits_humains

    ping @_kg_

  • EU mulls more police powers for west Africa missions

    The EU wants to further prop up anti-terror efforts at its overseas civilian missions in places like #Niger.

    Although such missions already seek to counter terrorism, the latest proposal (framed as a “mini-concept” by the EU’s foreign policy branch, the #European_External_Action_Service, #EEAS), entails giving them so-called “semi-executive functions.”

    Such functions includes direct support to the authorities by helping them carry out investigations, as well as aiding dedicated units to prosecute and detain suspected terrorist offenders.

    The concept paper, drafted over the summer, points towards a European Union that is willing to work hand-in-glove with corrupt and rights-abusing governments when it comes to issues dealing security and migration.

    This includes getting EU missions to seal cooperation deals between EU member state intelligence and security services with the host governments.

    And although the paper highlights the importances of human rights and gender equality, the terms are couched in policy language that clearly aims to boost policing in the countries.

    From helping them develop systems to collect biometric data to preserving and sharing “evidence derived from the battlefield”, the 14-page paper specifically cites the EU missions in Niger, Mali, Somalia, Libya, Iraq and Kosovo as prime examples.

    In Niger, the EU recently handed its mission a €72m budget and extended its mandate until September 2024.

    That budget includes training staff to drive armoured vehicles and piloting drones.

    Another EU internal document on Niger, also from over the summer, describes its mission there as “the main actor in the coordination of international support to Niger in the field of security.”

    It says Niger’s capacity to fight terrorism, organised crime and irregular migration has improved as a direct result of the mission’s intervention.

    The country was given €380m in EU funding spread over 2014 to 2020.

    In Mali, the EU mission there already supports the country’s dedicated units to intervene and investigate terror-related cases.

    But it had also temporarily suspended in April the operational training of formed units of the Malian armed forces and National Guard.
    Clash with Wagner in Mali

    The suspension followed reports that EU security trained forces in Mali were being co-opted by the Kremlin-linked Russian mercenary group Wagner, which was also operating in the Central African Republic.

    Mali has since withdrawn from the G5 Sahel, an anti-jihad grouping of countries in the region currently composed of Niger, Burkina, Mauritania, and Chad.

    And an internal EU paper from May posed the question of whether Malian authorities even want to cooperate with the EU mission.

    The EU’s mission there was also recently extended until 2024 with a €133.7m purse.

    The EU’s mini-concept paper on fighting terrorism, follows another idea on using specialised teams at the missions to also tackle migration.

    Part of those plans also aims to give the missions “semi-executive functions”, enabling them to provide direct support to police and carry out joint investigations on migration related issues.

    https://euobserver.com/world/156143

    #sécurité #migrations #asile #réfugiés #EU #UE #Union_européenne #externalisation #anti-terrorisme (toujours la même rhétorique) #Mali #mini-concept #semi-executive_functions #services_secrets #coopération #biométrie #données #collecte_de_données #Somalie #Libye #Kosovo #Irak #drones #complexe_militaro-industriel #G5_Sahel #budget #coût #police #collaboration

    ping @rhoumour @isskein @_kg_

  • Bleu, S3ns : pourquoi les offres Cloud de confiance seront certainement soumises au Cloud Act ETX Studio - La Tribune
    https://www.latribune.fr/technos-medias/internet/bleu-s3ns-pourquoi-les-offres-cloud-de-confiance-seront-certainement-soumi

    Une étude commandée à un cabinet d’avocats américain par le ministère de la Justice des Pays-Bas sur le Cloud Act, conclut que les entités européennes peuvent êtres soumises à cette loi extraterritoriale même si leur siège social n’est pas aux Etats-Unis. Elle précise même que le Cloud Act s’applique aussi quand un fournisseur de cloud européen utilise du hardware ou un logiciel américain, ce qui est le principe même des futures offres de « Cloud de confiance » Bleu (les technologies de Microsoft proposées par Orange et Capgemini) et S3ns (celles de Google avec Thales). L’étude, dont les analyses sont validées par plusieurs experts du droit du numérique consultés par La Tribune, contredit donc la communication du gouvernement français ainsi que celles de Bleu et de S3ns. Elle pointe surtout un risque pour les opérateurs d’importance vitale (OIV), les opérateurs de services essentiels (OSE) et les administrations invités à souscrire sans attendre à ces offres.

    Nouvelle claque pour le gouvernement français et sa stratégie très controversée de « Cloud de confiance ». Suffit-il de posséder un siège social en France ou en Europe et de couper tout lien capitalistique avec les Etats-Unis pour être protégé contre le Cloud Act, même en vendant une offre basée sur des technologies américaines ? Non, tranche une étude réalisée par le bureau européen du cabinet d’avocats américain Greenberg Traurig LLP, https://www.ncsc.nl/documenten/publicaties/2022/augustus/16/cloud-act-memo pour le compte du ministère de la Justice et de la Sécurité des Pays-Bas, et rendue publique le 26 juillet dernier.

    Le gouvernement néerlandais souhaitait savoir si le Cloud Act, une législation extra-territoriale adoptée en 2018 pour légaliser la collecte de données à l’étranger au nom de la protection des Etats-Unis, s’appliquait seulement aux entités américaines présentes en Europe, comme on le présente souvent, ou s’il pouvait oui ou non aussi toucher les entreprises 100% européennes, c’est-à-dire dont le siège social est situé dans l’Union européenne.

    Le Cloud Act peut s’appliquer aux entreprises qui vendent des logiciels américains
    La réponse du cabinet américain Greenberg Trauring LTT -qu’on ne peut accuser de servir un agenda pro-européen- est très claire :  « Les entités européennes peuvent être à la portée du Cloud Act, même si [elles] sont situées en dehors les Etats Unis » , tranche le document en première page. https://www.ncsc.nl/documenten/publicaties/2022/augustus/16/cloud-act-memo

    Les avocats précisent toutefois qu’il est possible pour les entreprises européennes de minimiser ce risque en établissant une « muraille de Chine » avec les Etats-Unis, notamment en n’employant aucun Américain ou n’avoir aucun client américain. Ceux-ci peuvent être des chevaux de Troie pouvant justifier une intervention au titre du Cloud Act.

    Mais d’après les auteurs de l’étude, même ce bouclier anti-Cloud Act est insuffisant si l’entité utilise des technologies américaines. « Le Cloud Act peut accéder aux données via des sous-traitants/fournisseurs de matériel et de logiciels, de/vers les fournisseurs de cloud » , affirme le rapport.

    Or, ce sera précisément le mode de fonctionnement de Bleu, coentreprise entre Orange et Capgemini, et de S3ns, détenue par Thales. Bleu commercialisera sous licence les offres cloud logicielles de Microsoft Azure (notamment la suite Office 365), tandis que S3ns proposera celles de Google Cloud. Ces deux offres se présentent comme souveraines : elles affirment qu’elles seront étanches au Cloud Act américain car le service sera hébergé par des datacenters situés en France, et sera commercialisé par une entreprise de droit français, coupé de tout lien capitalistique avec les Etats-Unis.

    Ces précautions, accompagnées d’autres mesures de sécurité, sont effectivement suffisantes pour la plupart des entreprises. Mais probablement pas pour Bleu et S3ns, car Microsoft et Google sont pour elles des fournisseurs de logiciels dont elles commercialisent les services. Contacté par La Tribune, le cabinet Greenberg Trauring LTT confirme également qu’il suffit, d’après lui, de vendre des logiciels américains, même si l’entreprise est française, pour tomber sous le coup du Cloud Act.

    Cette déduction apparaît logique : dans l’économie numérique, l’hébergement des données n’est qu’une commodité. La valeur réside dans l’infrastructure logicielle qui fait tourner les clouds, ainsi que dans les logiciels qui utilisent les données. Pour justifier l’application du Cloud Act à une entité étrangère comme Bleu ou S3ns, les Etats-Unis doivent montrer que celle-ci a « suffisamment de contacts avec les Etats-Unis » , et pour de nombreux experts juridiques, la commercialisation de technologies américaines sous licence leur offre une raison suffisante.

    Une « muraille de Chine » en théorie possible mais extrêmement complexe et coûteuse
    Le gouvernement français n’ayant pas demandé ou rendu publique une étude approfondie sur la portée réelle du Cloud Act sur les futures solutions « Cloud de confiance », les conclusions du rapport de Greenberg Trauring doivent être prises avec des pincettes.

    La Tribune a donc demandé à d’autres avocats experts du droit du numérique, d’analyser la portée du Cloud Act sur les offres Cloud de confiance.  « La seule voie possible pour Bleu et S3ns, c’est de cloisonner l’offre de telle façon à ce qu’il y ait pas d’accès possible à une personne sous juridiction américaine », explique Olivier Iteanu, avocat spécialiste du droit du numérique. « Cela signifie qu’il ne peut pas y avoir de clients américains et surtout, pas un seul employé américain dans la structure, sinon le Cloud Act s’applique », met-il en garde.

    L’avocat rappelle la genèse du Cloud Act, après le scandale Snowden en 2013 qui a révélé au monde l’ampleur de la surveillance de masse opérée par les services de renseignement américains, au nom de leur souveraineté nationale.  « Les Etats-Unis ont besoin de légaliser les pratiques de surveillance de masse, de façon à ne pas soumettre les entreprises et les personnes qui coopèrent avec eux, à des actions judiciaires a posteriori. Ils ont donc prévu un très large éventail d’actions pour le Cloud Act. Il est mensonger de dire qu’il ne s’applique qu’aux entreprises américaines à l’étranger et pas aux entreprises locales ».

    Sonia Cissé, avocate associée en droit des technologies au sein du cabinet Linklaters, affirme « partager l’analyse du cabinet Greenberg Trauring » sur le fait que « les offres Cloud de confiance peuvent être soumises au Cloud Act ». Elle insiste elle-aussi sur la nécessité d’ériger une « muraille de Chine » pour se protéger au maximum des possibles intrusions américaines.

    « En plus d’empêcher tout Américain, y compris pour du support technique ou de la sauvegarde de données, d’accéder à la plateforme, il faudra mettre en place une totale ségrégation des données. Cela nécessite un cumul de mesures très lourdes, complexes et extrêmement coûteuses : c’est une muraille de Chine technique et organisationnelle, impliquant la gouvernance même des structures ainsi que les ressources humaines et la communication entre entités, qu’il faudra mettre en place et surveiller en permanence », décline-t-elle, tout en pointant les « nombreuses zones de flou » qui demeurent encore du côté de l’organisation de Bleu et de S3ns.

    Backdoors et loi FISA, les autres gros risques des offres « Cloud de confiance »
    Si le gouvernement, Bleu et S3ns se sont montrés très légers en affirmant avant même la création des offres Cloud de confiance qu’elles seront labellisées par l’Anssi -ce qui n’est pas garanti- et immunes au Cloud Act en dépit d’une analyse juridique approfondie, que dire des deux autres éléphants dans la pièce eux aussi magistralement ignorés : le risque accru de backdoors -logiciels espions infiltrés dans le code-, et celui d’une autre loi extraterritoriale américaine, FISA.

    Ainsi, FISA -pour Foreign Intelligence Surveillance Act - s’applique uniquement aux citoyens étrangers. Cette loi permet aux agences de renseignement américaines de demander aux fournisseurs de cloud l’installation de dispositifs permanents qui permettent de scanner toutes les données qu’ils gèrent en dehors des Etats-Unis. Cette surveillance peut se faire avec du matériel d’inspection des paquets en profondeur (DPI), ou de manière invisible au niveau de l’infrastructure logicielle du cloud, c’est-à-dire en utilisant les fournisseurs de la technologie. Or, Bleu et S3ns devraient ne pas avoir accès au code source des logiciels de Microsoft et de Google, qui sont leur secret industriel le plus précieux. Et même s’ils y avaient accès, encore faudrait-il qu’ils repèrent la porte dérobée imposée par les services de renseignement.

    Ces portes dérobées, ou backdoors, peuvent aussi être illégales. C’est l’autre gros risque, pour les données des opérateurs d’importance vitale, d’utiliser des services étrangers. Or, les logiciels de Microsoft et de Google sont bien connus des services américains de renseignement, et il est certainement plus facile pour eux d’entrer dans un logiciel américain qu’ils connaissent que dans une autre solution bénéficiant des plus hauts niveaux de sécurité.

    #extraterritorialité #Backdoors #surveillance #vie_privée #donnée_personnelles #nsa #bigdata #FISA #cloud #Bleu #S3ns #Cloud_Act #Logiciels #Microsoft #Orange #Capgemini #OIV #OSE

  • ‘Crazy invasive technology’ : UK faces legal challenge for GPS tagging of migrants

    A complaint has been filed by the anti-surveillance advocacy group Privacy International against the U.K. #Home_Office, which is rolling out #GPS tracking devices for migrants entering the country through irregular routes. Privacy International says the practice is excessive, unlawful and threatens the fundamental rights to privacy to which everyone in the United Kingdom is entitled.

    “These are just individuals who are seeking a new life in the U.K.,” said Lucie Audibert, a lawyer at Privacy International. “And so the necessity of surveilling them and monitoring in this way is highly questionable, and I question the effectiveness of it as well.”

    The devices, which are bulky ankle bracelets of the same type that have been used in the criminal justice system for decades, monitor migrants’ movements 24/7. Anyone who is on immigration bail in the U.K. can be tagged, for an unlimited amount of time.

    The Home Office unveiled a new 12-month pilot to experiment with tagging people arriving on small boats in June, when Prime Minister Boris Johnson said migrants couldn’t be allowed to simply “vanish” into the country. The Home Office have said they intend to use the tags to stop migrants bound for offshore detention centers in Rwanda from disappearing — despite absconding rates being as low as 1% in 2020, according to a Freedom of Information request by Migrants Organise.

    Privacy International argues that the practice of tagging migrants lacks the proper safeguards that are in place when the devices are used in the criminal justice system. They add that the devices can be inaccurate as well as intrusive. The privacy rights charity filed complaints with the Information Commissioner’s Office and the Forensic Science Regulator.

    Privacy and migration advocates say the Home Office can use the location data to check up on migrants who claim to remain in the U.K. on the basis of family ties with the country — to assess whether they really do visit their relatives. They also say the surveillance measure leaves migrants traumatized, stigmatized and — in some cases — housebound, afraid to engage with the outside world.

    The use of GPS tagging on migrants has already been trialed extensively in the U.S., under a program known as “Alternatives to Detention,” which has been expanded under President Joe Biden. The U.S. government argues that placing people under electronic surveillance is kinder and less brutal than imprisonment, and keeps more people out of immigration detention centers. But immigrants in the U.S. say the tags are dehumanizing.

    “You feel like you’re in prison again,” a U.S. asylum seeker told us in May. He described crying “tears of joy” when the bracelet was removed from his body after three months’ wear.

    The argument that the tags are a humane alternative to detaining migrants has been mirrored in the U.K.’s policy, according to Audibert. But, she says, it’s a false premise: “Every alternative to detention in the criminal justice system has never reduced prison numbers. It has just expanded the size of the population that was controlled.”

    The Home Office recently expanded the criteria for who is eligible to be tagged to include anyone who arrives in the U.K. via irregular routes, such as small boats — a practice which is now a criminal offense in the country. Earlier this month, a report in the Guardian revealed that the Home Office was rolling out new “facial recognition smartwatches” to migrants as a complement to the ankle tags. The smartwatches, though removable, require migrants convicted of a criminal offense to scan their face up to five times per day to ensure they’re still wearing them.

    The Home Office, in a statement, emphasized the tags will be used on “foreign national criminals” but made no mention of its pilot scheme to also tag asylum seekers with GPS ankle bracelets.

    A Home Office spokesperson said: “Since August 2021, the Home Office has successfully tagged over 2,500 foreign criminals, reassuring victims that their perpetrators cannot escape the law and will be removed from the U.K. at the earliest opportunity. Since January 2019, the Government has removed over 10,000 foreign criminals.”

    The use of GPS tracking has severe effects on the mental health of the wearer, according to research by Monish Bhatia, a criminology lecturer at Birkbeck, University of London. He describes, in a report published last year, how many people who are tagged experience it as imprisonment and punishment. They say the tag makes them feel like criminals, and that they have to live with the stigma if their tag is spotted.

    The tag means they’re often reluctant to engage with their community and do everyday activities like playing sport for fear of revealing their tag, and can end up isolating themselves, in a form of self-inflicted house arrest, because they do not want to be tracked.

    Bhatia argued the practice of tagging had no use other than to wield power over asylum seekers and minority groups. “It’s purely for control — and it is discriminatory. I’ve called it racial surveillance on more than a few occasions and I’ll stick with that term to describe this technology,” he said.

    The U.K. has in recent years rolled out a massive program of surveillance and technology to try to deter migrants from crossing the English Channel, at a cost of tens of millions of dollars to the British taxpayer. Audibert described how the GPS policy forms part of this strategy of deterrence and is part of the Home Office’s overall intention to stop migrants from making dangerous journeys across the water in small, fragile vessels.

    “They’re pouring millions of pounds into this crazy invasive technology,” said Audibert, who described how most migrants had no interest in breaching their bail conditions. “It’s criminalizing people that aren’t criminals in the first place.”

    https://www.codastory.com/authoritarian-tech/surveillance-uk-migrants-gps-trackers

    #surveillance #migrations #asile #réfugiés #frontières #données #données_personnelles #UK #Angleterre #géolocalisation

    –-

    Et parallèlement l’Union européenne...
    EU’s Frontex Tripped in Its Plan for ‘Intrusive’ Surveillance of Migrants
    https://seenthis.net/messages/966671

    ping @isskein @karine4

  • Ce Vendredi : Grèves : le métro de Londres pratiquement à l’arrêt Figaro avec AFP

    La paralysie fait suite à une grève des cheminots, qui réclament une augmentation des salaires face une inflation record.

    Le métro de Londres était quasi paralysé vendredi et le reste du réseau de transports en commun fortement perturbé par une grève pour les salaires face à une inflation au plus haut au Royaume-Uni, au lendemain d’un débrayage massif de cheminots.

    « Il n’y a pratiquement aucun service » dans le métro de Londres, même si « deux lignes offrent une circulation réduite » avec un train toutes les 15 minutes environ, a indiqué à l’AFP une porte-parole de l’opérateur de transports publics TfL. Le trafic des bus, surchargés en raison du repli de nombreux Londoniens sur ce mode de transport, était aussi perturbé.


    Plus gros mouvement de grève depuis des décennies
    Devant la station Blackhorse Road (Nord-Est de Londres), des gens rassemblés attendent l’ouverture de l’Overground, réseau de trains de banlieue qui fonctionne vendredi en service réduit. « Overground seulement, pas de métro aujourd’hui », crie à la cantonade un salarié non-gréviste à l’attention des voyageurs dont un grand nombre n’est pas au courant de la grève. « Je vais être en retard au travail, je dois me rendre dans le centre de Londres », lance une jeune femme qui sort en courant de la station et se précipite vers les arrêts de bus attenants.

    Si de nombreux usagers des trains jeudi se montraient compréhensifs envers les grévistes du rail, certains Londoniens en retard se montraient moins cléments vendredi. « Je comprends le message (que les grévistes) veulent faire passer à leurs patrons, mais (...) Londres est une grande ville et de nombreuses personnes ont besoin de se rendre à leur travail », critique Catherine Ondo, une vendeuse âgée de 25 ans. « Je ne sais pas comment je vais me rendre au travail », se désole Greg Skalski, 43 ans, employé dans la construction. Il dénonce « les tarifs de TfL qui ont fortement augmenté » et estime que les salaires de l’opérateur public sont déjà au-dessus de la moyenne du pays.

    Le Royaume-Uni connaît ces jours-ci une nouvelle salve de débrayages massifs dans les transports, la poste, les ports, le plus gros mouvement de grève depuis des décennies face à l’inflation. Un nouveau jour de grève est notamment prévu dans les trains samedi. Les négociations avec la multitude d’opérateurs ferroviaires privés du secteur sont dans l’impasse, selon les syndicats. Ces derniers ont par ailleurs rejeté une offre de hausse salariale de 8% sur deux ans de Network Rail, entreprise publique de gestion des lignes ferroviaires, qu’ils accusent d’être conditionnée à des licenciements massifs.

    Le ministre des Transports Grant Shapps, accusé par les syndicats de bloquer la situation, reproche de son côté aux organisations syndicales de refuser des réformes pour moderniser le rail. Il pourrait passer en force, a-t-il assuré vendredi sur Sky News. « Si nous ne pouvons pas mettre en place ces modernisations, nous devrons (les) imposer », a-t-il dit. Liz Truss, la favorite dans la course à la succession de Boris Johnson à Downing Street, a aussi fait preuve de fermeté envers les syndicats sur Twitter. « En tant que Premier ministre, je ne laisserai pas notre pays être rançonné par des syndicalistes militants », a-t-elle écrit. Le maire travailliste de Londres, Sadiq Khan, qui a autorité sur les transports londoniens et qui est engagé depuis des mois dans un bras de fer sur leur financement avec l’exécutif, s’est dit de son côté « inquiet que le gouvernement ne pousse délibérément (les syndicats) à la grève à Londres », dans des déclarations à Sky News.

    #Londres #grèves #inflation #métro #transports #grève #travail #Salaires #Syndicats #néo_libéralisme

    • La consommation d’eau des data centers microsoft source d’inquiétudes  Elsa Bembaron - Le figaro
      https://www.lefigaro.fr/secteur/high-tech/la-consommation-d-eau-des-data-centers-source-d-inquietudes-20220819

      Alors que l’Europe est frappée par la sécheresse, un rapport paru aux Pays-Bas dénonce la hausse de la consommation d’eau de centres de données de Microsoft.

      Cela ne pouvait pas tomber plus mal. Alors que l’Europe est frappée par une des pires sécheresses de son histoire, la presse néerlandaise se fait l’écho d’un rapport accablant pour les centres de stockage de données. L’année dernière, un centre de stockage de données géant de Microsoft, situé dans le nord du pays, a avalé 84 millions de litres d’eau, soit 4 à 7 fois plus que ce qui avait été initialement annoncé par l’Américain. Révélé par un média local, Noordhollands Dagblad https://www.noordhollandsdagblad.nl/cnt/dmf20220810_68483787 , confirmé par le gouvernement des Pays-Bas, l’affaire suscite de nombreuses inquiétudes.

      La hausse de la consommation d’eau inquiète d’autant plus, qu’elle pourrait encore s’aggraver cette année. En effet, comme la plupart des centres de stockage de données de dernière génération, celui de Microsoft utilise l’air ambiant pour rafraîchir ses serveurs. Cette technique, dite du « air cooling », permet de réaliser de substantielle économie d’énergie, puisqu’elle limite le record à la climatisation. Mais pour fonctionner, il faut que la température extérieure soit inférieure à 25 degrés. Quand la chaleur monte, il faut continuer à rafraîchir les installations, très sensibles aux variations. Pour cela, Microsoft a recours à des systèmes de refroidissement à eau. Et plus il fait chaud, plus de data centers consomment de l’eau. L’année dernière, la température a excédé les 25 degrés dans la région concernée pendant six jours. Été 2022, ce seuil fatidique a déjà été franchi six fois au cours depuis début août selon les données disponibles sur le site weatheronline.

      De quoi continuer à alimenter le débat sur l’empreinte environnemental des data centers. Actuellement, ils consommeraient 4% de l’électricité produite dans le monde selon Wavestone... contribuant ainsi indirectement au réchauffement climatique ! Plus que jamais, la question de l’efficacité énergétique est brûlante. Mais d’autres questions se posent, notamment liées aux usages du numérique, aux habitudes de consommation de chacun.

      #Eau #gaspillage #microsoft #big_data #data_centers #chaleurs #électricité #réchauffement_climatique #Données

    • Troisième jour de grève dans les transports britanniques face à l’inflation Par AFP, édité par Victor de Thier
      https://www.rtbf.be/article/troisieme-jour-de-greve-dans-les-transports-britanniques-face-a-l-inflation-110

      Les transports au Royaume-Uni sont affectés samedi par une nouvelle journée de grève pour les salaires, après un premier débrayage de cheminots jeudi et une grève dans le métro de Londres vendredi, face à une forte inflation.

      En pleines vacances scolaires, environ un train sur cinq seulement a circulé samedi en raison de cette grève à l’appel des syndicats Rail, Maritime and Transport (RMT), Transport Salaried Staffs Association (TSSA) et Unite qui réclament une hausse de salaires adaptée à l’augmentation du coût de la vie.


      . . . . . . .
      La grève de samedi a perturbé notamment les déplacements des touristes, des fans de football se rendant aux matchs et des festivaliers. Elle devrait aussi affecter la circulation des trains dimanche matin.
      . . . . . .
      Dimanche, les dockers du port de Felixstowe (est de l’Angleterre) - le plus gros pour le fret dans le pays - démarrent une grève de huit jours, menaçant de mettre à l’arrêt une grande partie du trafic de marchandises du pays.

      Côté rail, Mick Lynch, secrétaire général du RMT, a déclaré que les grévistes avaient le soutien du public affirmant : ils sont « juste derrière nous ».

      « Je pense que le public britannique en a assez d’être arnaqué par ce gouvernement et par les entreprises britanniques, avec des entreprises comme BP et British Gas qui font des profits énormes alors que les gens ont du mal à gagner leur vie », a-t-il déclaré samedi sur la BBC.
      . . . . . . .

  • #MDR : Leurs jets privés suivis à la trace : les milliardaires, irrités par la publication en ligne de leurs trajets aériens RTBF
    https://www.rtbf.be/article/leurs-jets-prives-suivis-a-la-trace-les-milliardaires-irrites-par-la-publicatio

    Comment agacer à la fois des hauts responsables chinois, Elon Musk et Kylie Jenner ? Pister leurs jets privés. Les sites et comptes Twitter qui suivent en temps réel le trafic aérien provoquent des réactions épidermiques, de la simple plainte aux saisies de matériel.

    Chaque année des compagnies de fret aérien russes, des propriétaires d’avions saoudiens ou d’autres personnes demandent à Dan Streufert, fondateur du site américain de suivi de vol ADS-B Exchange https://globe.adsbexchange.com , d’arrêter de publier leurs déplacements. Sans succès.

    « Nous n’avons rien supprimé jusqu’à présent. Ce sont des informations publiques. Et je ne veux pas être l’arbitre qui décide qui a raison ou tort », explique M. Streufert.

    Un système par satellite obligatoire
    Certaines limites existent, mais les groupes qui reconstituent les trajectoires de vol soulignent que la source d’information principale est disponible légalement et accessible à tous ceux qui disposent de l’équipement nécessaire.

    La loi américaine exige que les avions se trouvant dans certaines zones soient équipés du système par satellite ADS-B, qui envoie périodiquement la position de l’appareil par radio aux contrôleurs aériens.

    Un site comme Flightradar24 https://www.flightradar24.com dispose de 34.000 récepteurs au sol à travers le monde pouvant capter ce type de signaux, des données envoyées vers un réseau central et croisées avec les horaires de vol et d’autres renseignements sur les avions.

    Réussir à identifier le propriétaire d’un avion est une autre paire de manches, selon Jack Sweeney, 19 ans, créateur du compte Twitter « Celebrity Jets », qui a déniché le jet privé d’Elon Musk après une demande d’information aux archives publiques du gouvernement américain.

    Landed in Brownsville, Texas, US. Apx. flt. time 41 Mins. https://www.flightradar24.com
    -- ElonJet (@ElonJet) August 5, 2022

    Le patron de Tesla lui a proposé 5.000 dollars pour enterrer le compte « ElonJet » https://www.rtbf.be/article/la-minute-insolite-elon-musk-est-pret-a-payer-pour-quon-ne-traque-plus-son-avio , plus de 480.000 abonnés, qui suit tous les mouvements de l’avion du multi-milliardaire.

    « Il suscite tellement d’intérêt, je fais quelque chose qui marche. Les gens aiment voir ce que les célébrités font, ça, et le truc autour des émissions », note M. Sweeney auprès de l’AFP, en référence à l’indignation vis-à-vis de l’empreinte carbone des avions.

    Publier ce type d’informations sur Twitter permet aux gens « d’y accéder plus facilement et de comprendre », ajoute-t-il.

    « Les données sont déjà là »
    En juillet, le compte « Celebrity Jets » a révélé que la star de la téléréalité Kylie Jenner avait pris un jet privé pour un vol de 17 minutes en Californie provoquant un tollé sur les réseaux sociaux.

    « Ils nous disent à nous, les gens de la classe ouvrière, de culpabiliser pour notre vol annuel lors de vacances bien nécessaires pendant que ces célébrités prennent des jets privés tous les deux jours comme si c’était un Uber », a tweeté une internaute outrée.

    En France, un compte Instagram https://www.instagram.com/laviondebernard/?hl=fr permet de suivre depuis mai les trajets du milliardaire et patron de LVMH Bernard Arnault afin de " rendre visible l’injustice climatique par un exemple simple ", disent les créateurs du compte Instagram contactés par Reporterre.

    Dans la foulée, le compte Twitter https://twitter.com/i_fly_Bernard , qui suit les trajets des jets privés des milliardaires français a révélé que l’avion de François-Henri Pinault avait volé 55,3 heures et émis 248,8 tonnes de CO₂, cumulant l’exploit du plus grand nombre de vols et du trajet le plus court : moins de 20 minutes pour aller à Londres.

    Cette activité génère aussi des revenus, même s’ils sont difficiles à évaluer. Dan Streufert reconnaît gagner sa vie de cette façon mais refuse de donner des détails tandis que M. Sweeney assure que ses comptes de suivi de vol lui ont rapporté environ 100 dollars par mois.

    Nancy Pelosi suivie aussi
    Le pistage de vol peut aussi avoir un impact important au-delà de l’ire des célébrités et des milliardaires, comme l’a montré la visite controversée de la présidente de la Chambre des représentants américaine Nancy Pelosi à Taïwan mardi, dont le vol était suivi par plus de 700.000 personnes sur le site Flightradar24 au moment de son atterrissage. https://www.rtbf.be/article/taiwan-lavion-de-nancy-pelosi-scrute-par-708000-personnes-un-record-pour-le-sit

    En août, le rapport d’une ONG accusant l’agence européenne de surveillance des frontières, Frontex, de faciliter le refoulement de migrants tentant la périlleuse traversée de la Méditerranée s’est appuyé sur des données de systèmes ADS-B, tout comme des médias américains s’en sont servi pour dénoncer la présence de vols de surveillance pendant les manifestations anti-racistes à Washington en 2020.

    Des dizaines d’élus au Congrès avaient, après ces révélations, exhorté dans une lettre le FBI et d’autres agences gouvernementales comme la garde nationale à « cesser de surveiller les manifestants pacifiques ».

    Ailleurs dans le monde, des gouvernements ont clairement montré que ces technologies et ce type de données n’étaient pas les bienvenues.

    Un média d’Etat chinois a rapporté en 2021 que le gouvernement avait saisi des centaines de récepteurs utilisés par des sites de suivi de vols en temps réel, sous couvert d’un risque « d’espionnage ».

    « Dans beaucoup de cas, ce sont les régimes autoritaires qui n’aiment pas ce genre de visibilité », souligne Dan Streufert.

    #surveillance #espionnage #flicage #données #gafam #pollution #avions #élon_musk #milliardaires #privilégiés #avions #Frontex

  • Une brasserie inondée de messages de haine après le passage de justin trudeau Gabrielle Drumond - radio-canada.ca
    https://ici.radio-canada.ca/nouvelle/1901950/brasserie-lone-oak-commentaires-justin-trudeau-visite-ipe

    Une microbrasserie de l’Île-du-Prince-Édouard a retiré des photos de Justin Trudeau de ses pages de réseaux sociaux après une avalanche de commentaires haineux.

    Le premier ministre du Canada était de passage à l’Île-du-Prince-Édouard vendredi dernier pour rencontrer des gens de la communauté. Le politicien a déjeuné à la microbrasserie Lone Oak durant la journée.

    Les photos du personnel de cet établissement avec le politicien ont été publiées sur les réseaux sociaux et ont suscité de la grogne chez certains usagers de ces plateformes.

    De nombreux commentaires étaient extrêmement négatifs et parfois vulgaires, ce qui a incité la direction de l’établissement à retirer les photos, selon Jared Murphy, copropriétaire et président-directeur général de cette microbrasserie.

    Des menaces contre la brasserie figurent parmi les commentaires.

    « En quelques heures, nous avons reçu des milliers de commentaires, des centaines de messages privés et des appels téléphoniques à la brasserie. »

    Selon Jared Murphy, la campagne contre son établissement n’a pas encore eu d’effet sur l’achalandage.

    Il déplore néanmoins le fait que la cote d’évaluation de son entreprise sur les réseaux sociaux ait radicalement baissé depuis le passage de Justin Trudeau.

    “Cela pourrait avoir un impact négatif sur notre entreprise, ce qui est vraiment très décevant à voir”, ajoute-t-il.

    Pourtant, le député libéral de Malpeque, Heath MacDonald, explique que le but du passage du premier ministre était d’aider une petite entreprise.

    La microbrasserie n’a ouvert ses portes qu’à la mi-mai.

    Polarisation sur les réseaux sociaux
    Pour le député fédéral de Charlottetown, Sean Casey, les propriétaires de la microbrasserie Lone Oak ont été victimes d’un phénomène bien connu depuis quelques années.

    « C’est un signe de la situation dans notre société et de la polarisation des points de vue. »

    Des commentaires négatifs envers Justin Trudeau ne sont pas une nouveauté, selon ce député libéral.

    “On voit presque quotidiennement sur les réseaux sociaux la haine qui est dirigée envers le premier ministre”, ajoute-t-il.

    Selon Sean Casey, il s’agit néanmoins de la première fois qu’une telle situation se produit dans les provinces de l’Atlantique.

    Le député de Charlottetown, Sean Casey, rappelle que le bureau du premier ministre du Canada doit composer avec des commentaires haineux tous les jours (archives).

    Le député fédéral reconnaît qu’une partie de la population pourrait être insatisfaite de la gestion de Justin Trudeau en ce moment, notamment en raison du haut taux d’inflation à l’Île-du-Prince-Édouard, le plus élevé au pays.

    “Il y a une volonté de le blâmer pour les problèmes internationaux qui frappent aussi au Canada, notamment l’inflation, par exemple”, explique Sean Casey.

    Néanmoins, cette situation ne justifie pas ces propos haineux, dit-il.

    “Ce n’est pas logique, mais c’est très facile de blâmer une seule personne qu’on n’aime pas pour tous les problèmes qu’on a”, précise le député libéral en soulignant que le bureau du premier ministre du Canada doit composer avec ce type de situation, notamment la circulation de fausses nouvelles à propos du politicien.

    #justin_trudeau #fils_à_papa dévoué aux riches #politique #réalité #facebook #algorithme #twitter #bigdata #internet #données #réseaux_sociaux #gafam #instagram #canada #imposture

  • EU: Tracking the Pact: Access to criminal records for “screening” of migrants

    Under the Pact on Migration and Asylum, the “screening” of migrants who have entered the EU irregularly or who have applied for asylum will become mandatory. The aim is to establish their identity and to investigate whether they should be considered a “security risk”. To facilitate the screening process, access to the EU’s system of “interoperable” databases is being broadened, with the Council recently approving its negotiating position on new rules granting access to a centralised register of individuals convicted of criminal offences in EU member states.

    Interoperability for screening

    The Commission’s proposal for a criminal records screening Regulation (pdf), one of countless amendments to the “interoperability” framework since it was approved in 2019, was published in March last year with a typically impenetrable, jargon-laden title.

    It was part of a series of new rules that aim to introduce new checks for asylum applicants and individuals making irregular border crossings, that are “at least of a similar level as the checks performed in respect of third country nationals that apply beforehand for an authorisation to enter the Union for a short stay, whether they are under a visa obligation or not.”

    Thus, the “screening” process requires checks against a multitude of databases: the Entry/Exit System (EES), the European Travel Information and Authorisation System (ETIAS), the Schengen Information System (SIS), the Visa Information System (VIS), Europol’s databases, two Interpol databases, and – the subject of the Council’s recently-approved negotiating position – the European Criminal Records Information System for Third-Country Nationals (ECRIS-TCN).

    The ECRIS-TCN contains information on non-EU nationals who have been convicted in one or more EU member states (fingerprints, facial images and certain biographic data), in order to make it easier for national authorities to find information on convictions handed down elsewhere in the EU.

    The Council’s position

    The Council’s position (pdf) was approved by the Committee of Permanent Representatives (COREPER) on 29 June, and makes extensive changes to the Commission’s proposal. However, many of these are deletions that appear to have been made because the text in question has already been added to the original ECRIS-TCN Regulation through one of the two other sets of amendments that have been made, in 2019 and 2021.

    The proposal used the term “threat to internal security or public policy”, which the Council has replaced with “security risk”. This somewhat vaguer term matches the wording approved by the Council in its position on the Screening Regulation, previously published by Statewatch, where the proposal initially referred to individuals that may “constitute a threat to public policy, internal security or international relations for any of the Member States.”

    Currently only visa authorities and those responsible for examining travel authorisation applications are granted access to the ECRIS-TCN for border control and immigration purposes (listed in Article 5(7) of the ECRIS-TCN Regulation and as explained in the Statewatch report Automated Suspicion).

    The criminal records screening Regulation grants new authorities access to the ECRIS-TCN, but does not list those authorities explicitly. Instead, it refers to the Screening Regulation itself, which is set to give member states discretion to determine “the screening authorities” as they see fit, although the Council’s preferred version of that text includes the provision that:

    “Member States shall also ensure that only the screening authorities responsible for the identification or verification of identity and the security check have access to the databases foreseen in Article 10 and Article 11 of this Regulation.”

    The Council’s position on the Screening Regulation, like the original proposal, does not include a requirement that the authorities responsible for the screening process be publicly listed anywhere.

    Whoever those authorities may be, they will be granted access to use the European Search Portal (part of the interoperability framework) to conduct searches in the ECRIS-TCN (and other databases), although will only be granted access to ECRIS-TCN records that have a “flag” attached.

    Those “flags” will be added to records to show whether an individual has been convicted of a terrorist offence in the last 25 years, or (in the last 15 years) one or more of the criminal offences listed in a separate piece of legislation.

    In the case of a “hit” against information stored in the ECRIS-TCN, the new rules will require screening authorities to contact the member state that handed down the conviction and to seek an opinion on the implications of that conviction for an individuals’ potential status as a security risk.

    The Commission wanted that opinion to be provided within two days, but the Council has increased this to three; if no opinion is provided within that time, then “this shall mean there are no security grounds to be taken into account.” The Council’s position also makes it explicit that the convicting authorities are obliged to consult the criminal record before providing their opinion.

    The European Parliament is yet to reach a position on the proposal. The EP rapporteur, Socialists & Democrats MEP Birgit Sippel, told Statewatch:

    “The European Parliament continues to work on all proposals related to the New Pact on Migration and Asylum, including both the Screening and Screening ECRIS-TCN proposals. As rapporteur, I have presented my draft report on both files at the end of 2021. Negotiations continue at political and technical level. Due to the deep links to the other proposals, we aim for a harmonised EP position and there is currently no concrete date foreseen for a debate or vote in the LIBE Committee.”

    However, the Parliament has committed itself to completing work on all the migration and asylum laws currently on the table by February 2024.

    Interoperability marches on

    Many are likely to see the screening process as part of the ongoing “criminalisation” of migration – indeed, the intention with the criminal records screening proposal is to explicitly link aspects of the criminal justice system with the EU’s immigration and asylum systems, in order to increase the possibilities of excluding individuals deemed to pose a security risk – however that may be determined by the authorities.

    The application of these checks to irregular border-crossers and asylum applicants is also a logical consequence of the way the EU’s interoperable databases are being deployed against other categories of individuals: as noted above, it is deemed imperative that everyone entering the EU faces “a similar level” of checks. With the interoperability architecture largely seen as a starting point for future developments, and with EU agencies Europol and Frontex pushing for AI-based profiling of all travellers, future proposals to further expand the types of checks and the individuals to whom they should be applied are almost guaranteed.

    https://www.statewatch.org/news/2022/july/eu-tracking-the-pact-access-to-criminal-records-for-screening-of-migrant

    #screening #identification #migrations #asile #réfugiés #pacte #interopérabilité #Entry_Exit_System (#EES) #European_Travel_Information_and_Authorisation_System (#ETIAS) #Schengen_Information_System (#SIS) #technologie #Visa_Information_System (#VIS) #données #base_de_données #European_Criminal_Records_Information_System_for_Third-Country_Nationals (#ECRIS-TCN)

  • Prédire les flux migratoires grâce à l’intelligence artificielle, le pari risqué de l’Union européenne
    https://disclose.ngo/fr/article/union-europeenne-veut-predire-les-flux-migratoires-grace-a-lintelligence-a

    Depuis plusieurs mois, l’Union européenne développe une intelligence artificielle censée prédire les flux migratoires afin d’améliorer l’accueil des migrants sur son sol. Or, selon plusieurs documents obtenus par Disclose, l’outil baptisé Itflows pourrait vite se transformer en une arme redoutable pour contrôler, discriminer et harceler les personnes cherchant refuge en Europe. Lire l’article

    • C’est un logiciel qui pourrait sa place dans une dystopie. Une intelligence artificielle capable de compiler des milliers de données afin de prédire des flux migratoires et identifier les risques de tensions liées à l’arrivée de réfugiés aux frontières de l’Europe. Son nom : Itflows, pour « outils et méthodes informatiques de gestion des flux migratoires ». Financé à hauteur de 5 millions d’euros par l’Union européenne et développé par un consortium composé d’instituts de recherche, d’une société privée (Terracom) et d’organisations caritatives, Itflows qui est en phase de test devrait rentrer en service à partir d’août 2023. Et ce, malgré des alertes répétées quant aux risques de détournement de ses capacités prédictives à des fins de contrôle et de restrictions des droits des réfugiés sur le sol européen.

      Encore méconnu, ce programme doit venir compléter un dispositif technologique destiné à la surveillance des frontières, notamment espagnoles, italiennes et grecques. Financé sur le budget d’« Horizon 2020 », le programme de recherche et d’innovation de l’Union européenne, Itflows s’ajoutera alors aux drones de surveillance autonome, aux détecteurs de mensonges dans les zones de passages ou à l’utilisation de logiciels d’extraction de données cellulaires.

      D’après notre enquête, les deux ONG contribuent à nourrir l’intelligence artificielle de Itflows en lui fournissant des informations précieuses. Des données directement issues d’entretiens réalisés dans des camps de réfugiés, auprès de Nigérians, de Maliens, d’Érythréens ou encore de Soudanais. Il pourra s’agir d’éléments liés à l’origine ethnique, l’orientation sexuelle ou encore la religion des personnes interrogées. Pour leur contribution, les branches italiennes de la Croix-Rouge et d’Oxfam ont respectivement reçu 167 000 euros et 116 000 euros de fonds publics européens.

      « Nous avons contribué à réaliser trente entretiens de migrants arrivés en Italie au cours des six dernières années », confirme la Croix rouge Italie, sollicitée par Disclose. Une fois analysées, puis rendues accessibles via une application baptisée EUMigraTool, ces informations serviront aux autorités italiennes dans leur analyse « des routes migratoires et des raisons qui poussent les gens à faire le voyage », ajoute l’association. Même son de cloche du côté de Oxfam Italie, qui salue l’intérêt pour « les responsables politiques des pays les plus exposés aux flux migratoires. » Les dirigeants pourront également s’appuyer sur l’analyse des risques politiques liés à l’arrivée de migrants sur leur sol. Le projet inclut en effet la possibilité d’étudier l’opinion publique dans certains pays européens vis-à-vis des migrants à travers une veille sur le réseau social Twitter.
      Des rapports internes alarmants

      En réalité, les risques de détournement du programme existent bel et bien. C’est ce que révèlent des rapports internes (https://www.documentcloud.org/projects/logiciel-itflows-208987) au consortium que Disclose a obtenu à la suite d’une demande d’accès à des documents administratifs. Lesdits rapports, datés de janvier et juin 2021, ont été rédigés par les membres du comité éthique du projet Itflows. Leurs conclusions sont alarmantes. Le premier document, une somme de 225 pages, révèle que « le consortium Itflows est pleinement conscient des risques et des impacts potentiels en matière de droits de l’homme, que les activités de recherche empirique sur les migrations (…) et les développements technologiques prévus dans le projet peuvent poser ». Plus loin, les auteurs enfoncent le clou. Selon eux, les informations fournies par l’algorithme pourraient servir, si elles devaient être utilisées « à mauvais escient », à « stigmatiser, discriminer, harceler ou intimider des personnes, en particulier celles qui sont vulnérables comme les migrants, les réfugiés et les demandeurs d’asile ».

      Cinq mois plus tard, le comité éthique rend un second rapport. Il détaille un peu plus le danger : « Les États membres pourraient utiliser les données fournies pour créer des ghettos de migrants » ; « risque d’identification physique des migrants » ; « discrimination sur la base de la race, du genre, de la religion, de l’orientation sexuelle, d’un handicap ou de l’âge » ; « risque que les migrants puissent être identifiés et sanctionnés pour irrégularités ». Et le régulateur d’alerter sur un autre péril : la poussée des « discours de haine » que pourrait induire une éventuelle diffusion des prédictions du logiciel dans « les zones où les habitants sont informés de déplacements » de populations.
      L’Europe fait la sourde oreille

      Des alertes qui ne semblent pas avoir été entendues. Comme en atteste un bilan dressé lors d’une réunion (https://www.documentcloud.org/documents/22120596-emt-symposium-agenda-16-sep-2021?responsive=1&title=1) en ligne le 16 septembre 2021 par la coordinatrice du comité éthique de Itflows, #Alexandra_Xanthaki, devant des responsables européens, dont #Zsuzsanna_Felkai_Janssen, rattachée à la direction générale des affaires intérieures de la Commission. « Nous avons passé six mois à travailler jour et nuit pour rédiger un rapport instaurant un cadre qui intègre les droits de l’homme », débute la responsable du comité éthique, selon un enregistrement que Disclose s’est procuré. Elle poursuit : « Il me semble pourtant que ce que disent les techniciens de l’équipe aujourd’hui c’est : nous n’en tenons pas compte ». Un manque de précaution qui inquiète jusqu’au sein du conseil d’administration d’Itflows. Joint par Disclose, Alexander Kjærum, analyste pour le conseil danois pour les réfugiés et membre du conseil de surveillance estime en effet qu’il existe « un risque important que des informations se retrouvent entre les mains d’États ou de gouvernements qui les utiliseront pour implanter davantage de barbelés le long des frontières. »

      Sollicitée, la coordinatrice du programme, #Cristina_Blasi_Casagran, assure que le logiciel « ne sera pas utilisé à mauvais escient ». Selon elle, Itflows « devrait même faciliter l’entrée des migrants [dans l’Union européenne] en permettant une meilleure affectation des ressources engagées dans l’#accueil ».

      #Frontex inquiète

      Un dernier point vient renforcer le risque d’un détournement du logiciel : l’intérêt de Frontex pour Iflows. D’après des documents internes, l’agence en charge de la surveillance des frontières de l’UE suit étroitement les avancées du programme. Jusqu’à y contribuer activement via la fourniture de données récoltées dans le cadre de ses missions. Or, depuis plusieurs années, l’agence européenne est régulièrement accusée d’expulsions illégales et de violations des droits de l’homme. Interrogée sur ce point, l’ONG Oxfam considère qu’il n’y a pas de risque de détournement du logiciel au profit de l’agence. La branche italienne de la Croix rouge déclare quant à elle que « la convention de subvention régissant la mise en œuvre du projet Itflows ne désigne pas Frontex comme utilisateur de l’outil, mais simplement comme source de données ouvertes ». En 2021, Frontex a élu l’interface Itflows parmi les projets d’Horizon 2020 au « potentiel opérationnel et innovant » le plus élevé.

      #AI #IA #intelligence_artificielle #complexe_militaro-industriel #asile #migrations #frontières #EU #UE #Union_européenne #prédiction #Itflows #contrôle #logiciel #risques #Terracom #surveillance #Espagne #Italie #Grèce #horizon_2020 #camps_de_réfugiés #Croix-Rouge #Oxfam #religion #origine_ethnique #ethnie #orientation_sexuelle #données #EUMigraTool #risques #risques_politiques #twitter #réseaux_sociaux #opinion_publique #technologie #algorithme #discrimination #identification #Croix_Rouge

      ping @reka @isskein @karine4 @_kg_

  • #Covid-19 : ce que l’on sait des #réinfections
    https://www.lemonde.fr/sante/article/2022/07/13/covid-19-ce-que-l-on-sait-des-reinfections-en-5-questions_6134644_1651302.ht

    1 - A quoi ces #données correspondent-elles ?

    Les autorités françaises considèrent comme une « réinfection possible » les personnes déclarées positives au moins deux fois à au moins deux mois d’intervalle [bien que des cas à trois semaines existent]. Il faut garder en tête que les données concernant les réinfections demeurent des estimations partielles, avec plusieurs limites :

    ces estimations supposent que les personnes concernées aient effectué un dépistage à l’occasion de chacun des épisodes d’infection, ce qui est de moins en moins le cas ; [patiemment abrutis par le bruit, les approximations et les intox et poussés à se démerder comme ils peuvent] les Français lassés, se testent moins et usent plus d’autotests, dont les résultats de sont pas reportés dans SI-Dep ;

    les données étudiées par SPF s’arrêtent à la mi-juin 2022 ;
    elles n’incluent pas les réinfections de personnes contaminées aux premiers jours de l’épidémie, en raison de l’absence de système d’information spécifique avant mai 2020, mais surtout d’une évolution, au début de 2021, de l’étape de pseudonymisation appliquée aux données des patients testés avant leur transmission aux agences de surveillance comme SPF.

    [...]

    Notons enfin que la probabilité d’une réinfection est d’autant plus importante que la majorité des Français ont été contaminés au moins une fois. Quelque 32 millions de cas ont été recensés dans SI-Dep [si on ne compte pas les enfants et les autotests ]. La moitié d’entre eux concernent des épisodes d’infection survenus pendant les trois premiers mois de 2022, en lien avec l’arrivée et la diffusion d’Omicron.

    #test

    • Claude-Alexandre GUSTAVE, @C_A_Gustave
      https://twitter.com/C_A_Gustave/status/1547687861352165379

      1/41
      Petit thread pour illustrer à nouveau un point important sur la perception de la « virulence » de SARS-CoV-2, et pourquoi l’#échappement_immunitaire crée un biais+++ qui conduit à la mauvaise stratégie pour la suite...

      (...) En effet, la virulence intrinsèque peut être approchée, en évaluant la sévérité des infections chez les non-vaccinés... à condition qu’ils n’aient pas été immunisés par infection... Qu’on n’a pas documenté dans ~2/3 des cas !

      Avec la sous-estimation de 2/3, la virulence intrinsèque d’Omicron a été en réalité évaluée sur des cohortes considérées comme « immunologiquement naïves » car non-vaccinés, alors qu’une part significative d’entre eux avaient été immunisés par une infection non-documentée...

      L’Imperial College de Londres avait tenté de corriger ce biais dans sa 1ère évaluation de la virulence intrinsèque d’Omicron, sur des cohortes non-vaccinées, en tenant compte de la détection de seulement 1/3 des infections antérieures...

      L’ICL concluait que, comparé à Delta, BA.1 avait une virulence intrinsèque ↘️ de seulement 0 à -30% !
      C’est-à-dire, que sa virulence intrinsèque était soit identique, soit proche de celle de Delta 🤷‍♂️
      https://twitter.com/C_A_Gustave/status/1474214235311853585?s=20&t=jSbjvNYudvnb948k74OJKw

      Avec cette correction (1/3 des infections réellement détectées), ils estiment que l’immunité acquise via une infection antérieure ↘️ le risque d’hospitalisation de 55 à 70% ; mais que la variation de virulence intrinsèque d’Omicron ne ↘️ ce risque que de 0 à 30% 🤷‍♂️

      Ils expliquaient déjà que la ↘️↘️ observée sur le risque clinique liée à BA.1, était très majoritairement INDÉPENDANTE de sa virulence intrinsèque, mais principalement déterminée par le statut de « réinfection », c’est-à-dire par L’IMMUNITÉ ACQUISE PRÉCÉDEMMENT !

      Ceci a même été expliqué par les épidémiologistes de l’UKHSA 🇬🇧 !!!
      Mais apparemment ça n’est pas parvenu jusqu’aux oreilles des médecins « rassuristes » qui pensent toujours que le virus est devenu intrinsèquement bénin ! 🤦‍♂️

      Vous pouvez le voir dans le thread ci-dessous, en provenance directe des équipes de l’UKHSA 🇬🇧 :
      l’écart entre les points 🟢 clair et 🟢 foncé traduit la ↘️ de virulence intrinsèque estimée = mineur par rapport à la ↘️↘️↘️ du risque clinique ! 🤷‍♂️

      #immunité_acquise

  • Crimes of Solidarity and Humanitarianism

    https://www.crimesofsolidarity.org
    #délit_de_solidarité #solidarité #criminalisation_de_la_solidarité #database #données #statistiques #chiffres #cartographie #monde #base_de_données #asile #migrations #réfugiés #visualisation

    La base données n’a pas l’air d’être vraiment à jour et fiable, mais l’approche est intéressante, ce qui est évident en regardant la carte pour France/Italie :

  • EU’s Frontex Tripped in Its Plan for ‘Intrusive’ Surveillance of Migrants

    Frontex and the European Commission sidelined their own data protection watchdogs in pursuing a much-criticised expansion of “intrusive” data collection from migrants and refugees to feed into Europol’s vast criminal databases, BIRN can reveal.

    On November 17 last year, when Hervé Yves Caniard entered the 14-floor conference room of the European Union border agency Frontex in Warsaw, European newspapers were flooded with stories of refugees a few hundreds kilometres away, braving the cold at the Belarusian border with Poland.

    A 14-year-old Kurd had died from hypothermia a few days earlier; Polish security forces were firing teargas and water cannon to push people back.

    The unfolding crisis was likely a topic of discussion at the Frontex Management Board meeting, but so too was a longer-term policy goal concerning migrants and refugees: the expansion of a mass surveillance programme at Europe’s external borders.

    PeDRA, or ‘Processing of Personal Data for Risk Analysis,’ had begun in 2016 as a way for Frontex and the EU police body Europol to exchange data in the wake of the November 2015 Paris attacks by Islamist militants that French authorities had linked to Europe’s then snowballing refugee crisis.

    At the November 2021 meeting, Caniard and his boss, Frontex’s then executive director, Fabrice Leggeri, were proposing to ramp it up dramatically, allowing Frontex border guards to collect what some legal experts have called ‘intrusive’ personal data from migrants and asylum seekers, including genetic data and sexual orientation; to store, analyse and share that data with Europol and security agencies of member states; and to scrape social media profiles, all on the premise of cracking down on ‘illegal’ migration and terrorism.

    The expanded PeDRA programme would target not just individuals suspected of cross-border crimes such as human trafficking but also the witnesses and victims.

    Caniard, the veteran head of the Frontex Legal Unit, had been appointed that August by fellow Frenchman Leggeri to lead the drafting of the new set of internal PeDRA rules. Caniard was also interim director of the agency’s Governance Support Centre, which reported directly to Leggeri, and as such was in a position to control internal vetting of the new PeDRA plan.

    That vetting was seriously undermined, according minutes of board meetings leaked by insiders and internal documents obtained via Freedom of Information requests submitted by BIRN.

    The evidence gathered by BIRN point to an effort by the Frontex leadership under Leggeri, backed by the European Commission, to sideline EU data protection watchdogs in order to push through the plan, regardless of warnings of institutional overreach, threats to privacy and the criminalisation of migrants.

    Nayra Perez, Frontex’s own Data Protection Officer, DPO, warned repeatedly that the PeDRA expansion “cannot be achieved by breaching compliance with EU legislation” and that the programme posed “a serious risk of function creep in relation to the Agency’s mandate.” But her input was largely ignored, documents reveal.

    The DPO warned of the possibility of Frontex data being transmitted in bulk, “carte blanche”, to Europol, a body which this year was ordered to delete much of a vast store of personal data that it was found to have amassed unlawfully by the EU’s top data protection watchdog, the European Data Protection Supervisor, EDPS.

    Backed by the Commission, Frontex ignored a DPO recommendation that it consult the EDPS, currently led by Polish Wojciech Wiewiórowski, over the new PeDRA rules. In a response for this story, the EDPS warned of the possibility of “unlawful” processing of data by Frontex.

    Having initially told BIRN that the DPO’s “advisory and auditing role” had been respected throughout the process, shortly before publication of this story Frontex conceded that Perez’s office “could have been involved more closely to the drafting and entrusted with the role of the chair of the Board”, an ad hoc body tasked with drafting the PeDRA rules.

    In June, the EDPS asked Frontex to make multiple amendments to the expanded surveillance programme in order to bring it into line with EU data protection standards; Frontex told BIRN it had now entrusted the DPO to redraft “relevant MB [Management Board] decisions in line with the EDPS recommendations and lessons learned.”

    Dr Niovi Vavoula, an expert in EU privacy and criminal law at Queen Mary University of London, said that the expanded PeDRA programme risked the “discriminatory criminalisation” of innocent people, prejudicing the outcomes of criminal proceedings against those flagged as “suspects” by Frontex border guards.

    As written, the revamped PeDRA “is another piece of the puzzle of the emerging surveillance and criminalisation of migrants and refugees,” she said.

    Religious beliefs, sexual orientation

    Leggeri had long held a vision of Frontex as more than simply a ‘border management’ body, one that would see it working in tandem with Europol in matters of law enforcement; to this end, both agencies have been keen to loosen restrictions on the exchange of personal data between them.

    Almost six years to the day before the Warsaw PeDRA meeting, a gun and bomb attack by Islamist militants killed 130 people in Paris. It was November 13, 2015, at the height of the refugee crisis in the Mediterranean and Aegean Seas.

    The following month, Leggeri signed a deal with the then head of Europol, Briton Richard Wainwright, which opened the door to the exchange of personal data between the two agencies. Addressing the UK parliament, Wainwright described a “symbiotic” relationship between the agencies in protecting the EU’s borders. In early 2016, a PeDRA pilot project launched in Italy, quickly followed by Greece and Spain.

    At the same time, Europol launched its own parallel programme of so-called Secondary Security Checks on migrants and refugees in often cramped, squalid camps in Italy and Greece using facial recognition technology. The checks, most recently expanded to refugees from Ukraine in Lithuania, Poland, Romania, Slovakia and Moldova, were introduced “in order to identify suspected terrorists and criminals” but Europol is tight-lipped about the criteria determining who gets checked and what happens with the data obtained.

    Since the launch of PeDRA, Frontex officers have been gathering information from newly-arrived migrants concerning individuals suspected of involvement in smuggling, trafficking or terrorism and transmitting the data to Europol in the form of “personal data packages,” which are then cross-checked against and stored within its criminal databases.

    According to its figures, under the PeDRA programme, Frontex has shared the personal data – e.g. names, personal descriptions and phone numbers – of 11,254 people with Europol between 2016 and 2021.

    But the 2015 version of the PEDRA programme was only its first incarnation.

    Until 2019, rules governing Frontex meant that its capacity to collect and exchange the personal data of migrants had been strictly limited.

    In December 2021, after years of acrimonious legal wrangling, the Frontex Management Board – comprising representatives of the 27 EU member states and the European Commission – gave the green light to the expansion of PeDRA.

    Under the new rules, which have yet to enter into force, Frontex border guards will be able to collect a much wider range of sensitive personal data from all migrants, including genetic and biometric data, such as DNA, fingerprints or photographs, information on their political and religious beliefs, and sexual orientation.

    The agency told BIRN it had not yet started processing personal data “related to sexual orientation” but that the collection of such information may be necessary to “determine whether suspects who appear to be similar are in fact the same.”

    In terms of social media monitoring, Frontex said it had not decided yet whether to take advantage of such a tool; minutes of a joint meeting in April, however, show that Frontex and Europol agreed on “strengthening cooperation on social media monitoring”.

    Indeed, in 2019, Frontex published plans to pay a surveillance company 400,000 euros to track people on social media, including “civil society and diaspora communities” within the EU, but abandoned it in November of that year after Privacy International questioned the legality of the plan.

    Yet, under the expanded PeDRA, Vavoula, of Queen Mary University, said Frontex officers could be tasked without scraping social media profiles “without restrictions”.

    Commenting on the entire programme, she added that PeDRA “could not have been drafted by someone with a deep knowledge of data protection law”. She cited numerous violations of elementary data protection safeguards, especially for children, the elderly and other vulnerable individuals, who should generally be treated differently from other subjects.

    “Sufficient procedural safeguards should be introduced to ensure the protection of fundamental rights of children to the fullest possible extent including the requirement of justified reasons of such a processing of personal data,” Vavoula said. “Genetic data is much more sensitive than biometric data,” and therefore requires “specific safeguards” not present in the text.

    Vavoula also noted the absence of a “maximum retention period,” warning, “Frontex may retain the data forever.”
    Internal dissent swept aside

    Internal documents seen by BIRN show that the man tasked by Leggeri to oversee the drafting of the new PeDRA rules, Caniard, ignored objections raised by the agency’s own data protection watchdog.

    Perez, a Spanish lawyer and Frontex’s DPO, has the task of monitoring the agency’s compliance with EU data protection laws not only concerning the thousands of migrants whose data will be stored in its databases but also of the agency’s rapidly expanding staff base, currently numbering more than 1,900 but soon to include a ‘standing corps’ of up to 10,000 border guards.

    She had also been working on earlier drafts of the new PeDRA rules since 2018, only to be leapfrogged by Caniard when he was appointed by Leggeri in August 2021.

    When she was shown an advanced draft of the new PeDRA rules in October 2021, Perez did not mince her words. “The process of drafting the new rules de facto encroaches on the tasks legally assigned to the DPO,” she said in an internal Frontex document obtained by BIRN. “When the DPO issues an opinion, such advice cannot be overruled or amended.”

    The DPO proposed more than a hundred changes to the draft; she warned that, under the proposed rules, Frontex “seems to arrogate the capacity to police the internet” through monitoring of social media and that victims and witnesses of crime whose data is shared with Europol face “undesirable consequences” of being part of a “pan-European criminal database.”

    During intense internal discussions in late 2021, as the deadline for approving the new rules was fast approaching, the DPO said that Frontex had failed to make a compelling case for the collection of sensitive data such as ethnicity or sexual orientation.

    “…the legal threshold to be met is not a ‘nice to have’ but a strict necessity,” Perez wrote.

    When the final draft landed on the desk of the Frontex Management Board in November 2021, it was clear that many of the DPO’s recommendations had been disregarded.

    At this point, Frontex was already the target of a probe by the European Anti-Fraud Office into its role in so-called ‘pushbacks’ in which migrants are illegally turned away at the EU’s borders, the findings of which would eventually force Leggeri’s resignation in April this year.

    In an initial written response for this story, Frontex said that the DPO “had an active, pivotal role in the deliberations” concerning the new rules and that the watchdog’s “advisory and auditing role was respected” throughout the process.

    Minutes of the November board meeting appeared to contradict this, however. Written in English and partially disclosed following an ‘access to documents request’, they cite Caniard conceding that the DPO was “consulted twice with a very short notice” and that, since Perez issued her opinion only the day before the meeting, there “was no possibility to take stock of it”. Perez submitted her opinion on November 16 and the board meeting was held on November 17 and 18.

    The DPO, for its part, urged the management board to “work on the current draft to eliminate inconsistencies” and, though not legally obliged, “to consult the EDPS prior to adoption”.

    Prior to publication of this story, BIRN asked Frontex again whether the DPO’s mandate had been respected during the drafting of the new PeDRA rules. The agency backtracked, saying it should have involved Perez’s office more closely and that the DPO would rewrite the programme.

    Dissent was not confined to the DPO. Danish and Dutch representatives in the meeting urged the board to delay voting on the rules given that the DPO’s opinions had not been taken on board and to “do its utmost to avoid any situation where it is necessary to amend rules just adopted just because an EDPS’ conflicting opinion is issued.”

    According to the minutes of the November meeting, the Commission representative, however, dismissed this, declaring that it considered the text “more than mature for adoption” and that there was no need to consult the EDPS because “it is not mandatory”.

    Email exchanges between the Commission and Frontex reveal the urgency with which the Commission wanted the new rules adopted, even at the cost of foregoing EDPS participation.

    One, from the Commission to Frontex on November 14, 2021, just days before the Board meeting said that, “while it would have been good to consult the EDPS on everything, it is more important now to get at least the two first decisions adopted.” An earlier mail, from July 2021 and sent directly to Leggeri, said it was “an absolute political priority to put in place the data protection framework of the Agency without any further delays.” That framework included the processing of personal data under PeDRA.

    Asked why it supported the expansion of the Frontex surveillance programme without first having the proposal checked by EDPS, the Commission told BIRN it would not comment on “discussion held in the management board or other internal meetings.”

    The EDPS, the EU’s top data protection authority, was only shown a copy of the new rules in late January 2022.

    Asked for its opinion, the EDPS told BIRN it is “concerned that the rules adopted do not specify with sufficient clarity how the intended processing will be carried out, nor define precisely how safeguards on data protection will be implemented.”

    The processing of highly vulnerable categories of individuals, including asylum seekers, could pose “severe risks for fundamental rights and freedoms,” such as the right to asylum, it said. It further stressed that “routine”, i.e. systematic, exchange of personal data between Frontex and Europol is not permitted and that such exchange can only take place “on a case-by-case basis.”
    Collecting data with ‘religious’ fervour

    Experts question the effectiveness of such extensive data collection in combating serious crime.

    Douwe Korff, Emeritus Professor of international law at London Metropolitan University, decried the apparent lack of results and accountability.

    “There isn’t even the absolute minimum requirement for law enforcement authorities to provide serious proof that the expansion of surveillance powers will be effective and proportionate,” said Korff, who has contributed to research on mass surveillance for EU institutions for years.

    “If you ask how many people have you arrested using this data that are completely innocent, they don’t even want to know about this. They pursue this policy of mass data collection with a religious belief.”

    Indeed, when the EDPS ordered Europol in January to delete data amassed unlawfully concerning individuals with no link to criminal activity, member states and the Commission came to the rescue with legal amendments enabling the agency to sidestep the order.

    In May, Frontex and Europol put forward a proposal, drafted by a joint working group named ‘The Future Group’, for a new surveillance programme at the bloc’s external borders that would implement large-scale profiling of EU and third-country nationals using Artificial Intelligence.

    https://balkaninsight.com/2022/07/07/eus-frontex-tripped-in-plan-for-intrusive-surveillance-of-migrants
    #surveillance #migrations #asile #réfugiés #frontières #Frontex #données #Europol #PeDRA #Processing_of_Personal_Data_for_Risk_Analysis #Caniard #Hervé_Yves_Caniard #Leggeri #Fabrice_Leggeri #Nayra_Perez #Italie #Grèce #Espagne #Secondary_Security_Checks #données_personnelles

  • Formation doctorale : #gestion_des_données de la #recherche – 2022

    Cette formation à destination des doctorants de toutes les ED quel que soit leur année de doctorat a été organisée en mai 2022 sur 2 jours et complétée par 2 modules optionnels.
    Elle concerne la gestion des données de la recherche, voici ses objectifs :

    – sensibiliser à la gestion des données de la recherche, en particulier au travers des principes #FAIR et ouverts :
    – les doctorants sauront inscrire leur thèse dans les mouvements nationaux et internationaux liées à la science ouverte.
    – apporter des recommandations pratiques pour aider les doctorants dans le changement de leurs pratiques :
    – les modules seront basés sur des exemples concrets et pourront être directement applicables dans le travail de recherche des doctorants.
    – accompagner les doctorants dans la rédaction du #plan_de_gestion_de_données (#PGD) de leur thèse : ce qui leur facilitera leur gestion des données en les aidant à se poser les bonnes questions. Chaque module s’achève donc avec une séance permettant aux doctorants de voir comment ce qui a été vu dans le module peut les aider à compléter leur PGD.

    https://scienceouverte.univ-grenoble-alpes.fr/services/formation-et-seminaires/formation-doctorale-gestion-des-donnees-de-la-rec
    #données #formation

    –-> support ppt qui peuvent être téléchargés à partir de cette page web

    ping @cede