• Perché l’università delle piattaforme è la fine dell’università

    Un gruppo di docenti di alcune università italiane ha scritto una lettera aperta sulle conseguenze dell’uso di piattaforme digitali proprietarie nella didattica a distanza. Auspichiamo che si apra al più presto una discussione sul futuro dell’educazione e che gli investimenti di cui si discute in queste settimane vengano utilizzati per la creazione di un’infrastruttura digitale pubblica per scuole e università.

    Care colleghe e cari colleghi, care studentesse e cari studenti,

    come certamente sapete, le scuole e le università italiane, da quando è iniziata l’emergenza COVID, per ragioni inizialmente comprensibili, si sono affidate per la gestione della didattica a distanza (esami inclusi) a piattaforme e strumenti proprietari, appartenenti, perlopiù, alla galassia cosiddetta “GAFAM” (Google, Apple, Facebook, Microsoft e Amazon: https://gafam.info). Esistono poche eccezioni, come il Politecnico di Torino, che ha adottato soluzioni non-proprietarie (https://www.coronavirus.polito.it/didattica_online/supporto_tecnico_alla_didattica_online/linee_guida_e_vademecum_tecnici) e autoprodotte. Tuttavia, il 16 luglio 2020 la Corte di Giustizia Europea ha emanato una sentenza (https://www.garanteprivacy.it/documents/10160/0/FAQ+dell%27EDPB+sulla+sentenza+della+Corte+di+giustizia+dell%27Unione+europea+nella+causa+C-311_18.pdf/d2f928b2-ab57-ae7c-8f17-390664610d2c?version=3.0) molto importante, dove, in sintesi, si afferma che le imprese statunitensi non garantiscono la privacy degli utenti secondo il regolamento europeo sulla protezioni dei dati, conosciuto come #GDPR (#General_Data_Protection_Regulation: https://gdpr.eu/what-is-gdpr). Dunque allo stato tutti i trasferimenti di dati da UE a Stati Uniti devono essere considerati non conformi alla direttiva europea e perciò illegittimi.

    Sul tema è in corso un dibattito a livello comunitario e il Garante Europeo ha esplicitamente invitato “istituzioni, uffici, agenzie e organi dell’Unione europea a evitare trasferimenti di dati personali verso gli Stati Uniti per nuove operazioni di trattamento o in caso di nuovi contratti con fornitori di servizi” (https://www.key4biz.it/il-garante-privacy-europeo-non-usare-i-cloud-provider-usa-conformarsi-alla-sentenza-schrems-ii/328472). Mentre il garante irlandese ha direttamente vietato (https://www.politico.eu/article/facebook-privacy-data-us) i trasferimenti dei dati degli utenti Facebook verso gli Stati Uniti. Alcuni studi (http://copyrightblog.kluweriplaw.com/2020/06/04/emergency-remote-teaching-a-study-of-copyright-and-data-p) infine sottolineano come la maggioranza della piattaforme commerciali usate durante la “didattica emergenziale” (in primis G-Suite: https://www.agendadigitale.eu/scuola-digitale/liberiamo-la-scuola-dai-servizi-cloud-usa-lettera-aperta-ai-presidi) pongano seri problemi legali e documentano una “sistematica violazione dei principi di trasparenza.”

    In questa difficile situazione, varie organizzazioni, tra cui (come diremo sotto) alcuni docenti universitari, stanno cercando di sensibilizzare scuole e università italiane ad adeguarsi alla sentenza, nell’interesse non solo di docenti e studenti, che hanno il diritto di studiare, insegnare e discutere senza essere sorvegliati (https://www.vox.com/recode/2020/5/4/21241062/schools-cheating-proctorio-artificial-intelligence), profilati e schedati, ma delle istituzioni stesse. I rischi legati a una didattica appaltata a multinazionali che fanno dei nostri dati ciò che vogliono non sono, infatti, solo economici e culturali, ma anche legali: chiunque, in questa situazione, potrebbe sporgere reclamo al garante della privacy a danno dell’istituzione in cui ci troviamo a lavorare.

    La questione va però al di là del diritto alla privatezza nostra e dei nostri studenti. Nella rinnovata emergenza COVID sappiamo che vi sono enormi interessi economici (https://www.roars.it/online/dematerializzazioni-algoritmi-e-profitti) in ballo e che le piattaforme digitali, che in questi mesi hanno moltiplicato i loro fatturati (si veda lo studio (https://www.mbres.it/sites/default/files/resources/rs_WebSoft2020_presentazione.pdf) pubblicato a ottobre da Mediobanca), hanno la forza e il potere per plasmare il futuro dell’educazione in tutto il mondo. Un esempio è quello che sta accadendo nella scuola con il progetto nazionale “#Smart_Class” (https://www.istruzione.it/pon), finanziato con fondi UE dal Ministero dell’Istruzione. Si tratta di un pacchetto preconfezionato di “didattica integrata” (https://www.youtube.com/watch?v=vPPhUL8MIPs&feature=youtu.be

    ) dove i contenuti (di tutte le materie) li mette Pearson, il software Google e l’hardware è Acer-Chrome Book. (Per inciso, Pearson è il secondo editore al mondo (https://www.publishersweekly.com/binary-data/Global502019.pdf), con un fatturato di oltre 4 miliardi e mezzo di euro nel 2018.) E per le scuole che aderiscono non è possibile acquistare altri prodotti…

    Infine, sebbene possa apparirci fantascienza, oltre a stabilizzare la teledidattica proprietaria (https://www.roars.it/online/teledidattica-proprietaria-e-privata-o-libera-e-pubblica) come “offerta”, si parla già (https://www.forbes.com/sites/forbestechcouncil/2020/06/08/artificial-intelligence-in-education-transformation) di intelligenze artificiali che “affiancheranno” i docenti nel loro lavoro.

    Per tutte queste ragioni un gruppo di docenti di varie università italiane ha deciso di reagire.

    La loro e nostra iniziativa non è al momento finalizzata a presentare un reclamo immediato al garante, ma ad evitarlo, permettendo a docenti e studenti di creare spazi di discussione e indurre a rettificare scelte che coinvolgono la loro libertà d’insegnamento e il loro diritto allo studio. Solo se la risposta istituzionale sarà insufficiente o assente, ricorreremo, come extrema ratio, al reclamo al garante della privacy. In tal caso il primo passo sarà sfruttare la “falla” aperta dalla sentenza della corte UE per spingere il garante italiano a intervenire (invero lo aveva già fatto #Antonello_Soro (https://www.key4biz.it/soro-al-parlamento-infrastruttura-cloud-pubblica-non-piu-eludibile-per-lindipendenza-dai-poteri-privati/311412), ma è rimasto inascoltato). Lo scopo di queste azioni non è certamente quello di “bloccare” le piattaforme che erogano la didattica a distanza e chi le usa, ma spingere il governo a investire finalmente nella creazione di un’infrastruttura pubblica e basata su software libero (https://www.agendadigitale.eu/sicurezza/leuropa-post-privacy-shield-e-lopen-source-la-via-per-uscire-dal-colo) per la comunicazione scientifica e didattica. Esistono vari modelli (vedi quello proposto qui: https://infolet.it/files/2020/11/FACSIMILE-MODULO-DOCENTI-PRIVACY_pdf.pdf) ai quali ispirarsi, per esempio in Francia (http://apps.education.fr), ma anche in Spagna (https://cedec.intef.es/proyecto-edia), ecc. e la stessa UNESCO nel 2019 ha approvato una Raccomandazione (https://en.unesco.org/news/new-unesco-recommendation-will-promote-access-educational-resources-all) per l’uso di risorse e strumenti aperti in ambito educativo.

    Come dicevamo sopra, prima di arrivare al garante nazionale è necessario una tappa preliminare. Ciascuno deve scrivere al responsabile del trattamento dati richiedendo alcune informazioni (qui il fac-simile di modulo per docenti che abbiamo preparato: https://infolet.it/files/2020/11/FACSIMILE-MODULO-DOCENTI-PRIVACY_pdf.pdf). Se non si riceverà risposta entro trenta giorni, o se la risposta è considerata insoddisfacente, si potrà procedere col reclamo al garante nazionale. A quel punto, il discorso cambierà, perché il reclamo al garante potrà essere fatto non solo da singoli, ma da gruppi o associazioni. È importante sottolineare che, anche in questo evitabile scenario, la domanda al responsabile del trattamento dati non può essere assolutamente interpretata come una “protesta” contro il proprio ateneo, ma come un tentativo di renderlo, per tutti e tutte, un ambiente di lavoro e di studi migliore, adeguandosi alle norme europee.

    https://infolet.it/2020/11/10/perche-luniversita-delle-piattaforme-e-la-fine-delluniversita

    #université #enseignement_à_distance #gafa #vie_privée #protection_des_données #business #GAFAM #cour_de_justice_européenne #CJUE #enseignement #ESR #distanciel

    ping @etraces

    • Why basing universities on digital platforms will lead to their demise
      (All links removed. They can be found in the original post – English Translation by Desmond Schmidt)

      A group of professors from Italian universities have written an open letter on the consequences of using proprietary digital platforms in distance learning. They hope that a discussion on the future of education will begin as soon as possible and that the investments discussed in recent weeks will be used to create a public digital infrastructure for schools and universities.

      Dear colleagues and students,

      as you already know, since the COVID-19 emergency began, Italian schools and universities have relied on proprietary platforms and tools for distance learning (including exams), which are mostly produced by the “GAFAM” group of companies (Google, Apple, Facebook, Microsoft and Amazon). There are a few exceptions, such as the Politecnico di Torino, which has adopted instead its own custom-built solutions. However, on July 16, 2020 the European Court of Justice issued a very important ruling, which essentially says that US companies do not guarantee user privacy in accordance with the European General Data Protection Regulation (GDPR). As a result, all data transfers from the EU to the United States must be regarded as non-compliant with this regulation, and are therefore illegal.

      A debate on this issue is currently underway in the EU, and the European Authority has explicitly invited “institutions, offices, agencies and organizations of the European Union to avoid transfers of personal data to the United States for new procedures or when securing new contracts with service providers.” In fact the Irish Authority has explicitly banned the transfer of Facebook user data to the United States. Finally, some studies underline how the majority of commercial platforms used during the “educational emergency” (primarily G-Suite) pose serious legal problems and represent a “systematic violation of the principles of transparency.”

      In this difficult situation, various organizations, including (as stated below) some university professors, are trying to help Italian schools and universities comply with the ruling. They do so in the interests not only of the institutions themselves, but also of teachers and students, who have the right to study, teach and discuss without being surveilled, profiled and catalogued. The inherent risks in outsourcing teaching to multinational companies, who can do as they please with our data, are not only cultural or economic, but also legal: anyone, in this situation, could complain to the privacy authority to the detriment of the institution for which they are working.

      However, the question goes beyond our own right, or that of our students, to privacy. In the renewed COVID emergency we know that there are enormous economic interests at stake, and the digital platforms, which in recent months have increased their turnover (see the study published in October by Mediobanca), now have the power to shape the future of education around the world. An example is what is happening in Italian schools with the national “Smart Class” project, financed with EU funds by the Ministry of Education. This is a package of “integrated teaching” where Pearson contributes the content for all the subjects, Google provides the software, and the hardware is the Acer Chromebook. (Incidentally, Pearson is the second largest publisher in the world, with a turnover of more than 4.5 billion euros in 2018.) And for the schools that join, it is not possible to buy other products.

      Finally, although it may seem like science fiction, in addition to stabilizing proprietary distance learning as an “offer”, there is already talk of using artificial intelligence to “support” teachers in their work.

      For all these reasons, a group of professors from various Italian universities decided to take action. Our initiative is not currently aimed at presenting an immediate complaint to the data protection officer, but at avoiding it, by allowing teachers and students to create spaces for discussion and encourage them to make choices that combine their freedom of teaching with their right to study. Only if the institutional response is insufficient or absent, we will register, as a last resort, a complaint to the national privacy authority. In this case the first step will be to exploit the “flaw” opened by the EU court ruling to push the Italian privacy authority to intervene (indeed, the former President, Antonello Soro, had already done so, but received no response). The purpose of these actions is certainly not to “block” the platforms that provide distance learning and those who use them, but to push the government to finally invest in the creation of a public infrastructure based on free software for scientific communication and teaching (on the model of what is proposed here and
      which is already a reality for example in France, Spain and other European countries).

      As we said above, before appealing to the national authority, a preliminary stage is necessary. Everyone must write to the data protection officer (DPO) requesting some information (attached here is the facsimile of the form for teachers we have prepared). If no response is received within thirty days, or if the response is considered unsatisfactory, we can proceed with the complaint to the national authority. At that point, the conversation will change, because the complaint to the national authority can be made not only by individuals, but also by groups or associations. It is important to emphasize that, even in this avoidable scenario, the question to the data controller is not necessarily a “protest” against the institution, but an attempt to turn it into a better working and study environment for everyone, conforming to European standards.

      https://theoreti.ca/?p=7684

  • Machine-Readable Refugees

    Hassan (not his real name; other details have also been changed) paused mid-story to take out his wallet and show me his ID card. Its edges were frayed. The grainy, black-and-white photo was of a gawky teenager. He ran his thumb over the words at the top: ‘Jamhuri ya Kenya/Republic of Kenya’. ‘Somehow,’ he said, ‘no one has found out that I am registered as a Kenyan.’

    He was born in the Kenyan town of Mandera, on the country’s borders with Somalia and Ethiopia, and grew up with relatives who had escaped the Somali civil war in the early 1990s. When his aunt, who fled Mogadishu, applied for refugee resettlement through the United Nations High Commissioner for Refugees, she listed Hassan as one of her sons – a description which, if understood outside the confines of biological kinship, accurately reflected their relationship.

    They were among the lucky few to pass through the competitive and labyrinthine resettlement process for Somalis and, in 2005, Hassan – by then a young adult – was relocated to Minnesota. It would be several years before US Citizenship and Immigration Services introduced DNA tests to assess the veracity of East African refugee petitions. The adoption of genetic testing by Denmark, France and the US, among others, has narrowed the ways in which family relationships can be defined, while giving the resettlement process the air of an impartial audit culture.

    In recent years, biometrics (the application of statistical methods to biological data, such as fingerprints or DNA) have been hailed as a solution to the elusive problem of identity fraud. Many governments and international agencies, including the UNHCR, see biometric identifiers and centralised databases as ways to determine the authenticity of people’s claims to refugee and citizenship status, to ensure that no one is passing as someone or something they’re not. But biometrics can be a blunt instrument, while the term ‘fraud’ is too absolute to describe a situation like Hassan’s.

    Biometrics infiltrated the humanitarian sector after 9/11. The US and EU were already building centralised fingerprint registries for the purposes of border control. But with the start of the War on Terror, biometric fever peaked, most evidently at the borders between nations, where the images of the terrorist and the migrant were blurred. A few weeks after the attacks, the UNHCR was advocating the collection and sharing of biometric data from refugees and asylum seekers. A year later, it was experimenting with iris scans along the Afghanistan/Pakistan frontier. On the insistence of the US, its top donor, the agency developed a standardised biometric enrolment system, now in use in more than fifty countries worldwide. By 2006, UNHCR agents were taking fingerprints in Kenya’s refugee camps, beginning with both index fingers and later expanding to all ten digits and both eyes.

    Reeling from 9/11, the US and its allies saw biometrics as a way to root out the new faceless enemy. At the same time, for humanitarian workers on the ground, it was an apparently simple answer to an intractable problem: how to identify a ‘genuine’ refugee. Those claiming refugee status could be crossed-checked against a host country’s citizenship records. Officials could detect refugees who tried to register under more than one name in order to get additional aid. Biometric technologies were laden with promises: improved accountability, increased efficiency, greater objectivity, an end to the heavy-handed tactics of herding people around and keeping them under surveillance.

    When refugees relinquish their fingerprints in return for aid, they don’t know how traces of themselves can travel through an invisible digital architecture. A centralised biometric infrastructure enables opaque, automated data-sharing with third parties. Human rights advocates worry about sensitive identifying information falling into thehands of governments or security agencies. According to a recent privacy-impact report, the UNHCR shares biometric data with the Department of Homeland Security when referring refugees for resettlement in the US. ‘The very nature of digitalised refugee data,’ as the political scientist Katja Jacobsen says, ‘means that it might also become accessible to other actors beyond the UNHCR’s own biometric identity management system.’

    Navigating a complex landscape of interstate sovereignty, caught between host and donor countries, refugee aid organisations often hold contradictory, inconsistent views on data protection. UNHCR officials have long been hesitant about sharing information with the Kenyan state, for instance. Their reservations are grounded in concerns that ‘confidential asylum-seeker data could be used for non-protection-related purposes’. Kenya has a poor record of refugee protection. Its security forces have a history of harassing Somalis, whether refugees or Kenyan citizens, who are widely mistrusted as ‘foreigners’.

    Such well-founded concerns did not deter the UNHCR from sharing data with, funding and training Kenya’s Department of Refugee Affairs (now the Refugee Affairs Secretariat), which since 2011 has slowly and unevenly taken over refugee registration in the country. The UNHCR hasconducted joint verification exercises with the Kenyan government to weed out cases of double registration. According to the anthropologist Claire Walkey, these efforts were ‘part of the externalisation of European asylum policy ... and general burden shifting to the Global South’, where more than 80 per cent of the world’s refugees live. Biometrics collected for protection purposes have been used by the Kenyan government to keep people out. Tens of thousands of ethnic Somali Kenyan citizens who have tried to get a Kenyan national ID have been turned away in recent years because their fingerprints are in the state’s refugee database.

    Over the last decade, biometrics have become part of the global development agenda, allegedly a panacea for a range of problems. One of the UN’s Sustainable Development Goals is to provide everyone with a legal identity by 2030. Governments, multinational tech companies and international bodies from the World Bank to the World Food Programme have been promoting the use of digital identity systems. Across the Global South, biometric identifiers are increasingly linked to voting, aid distribution, refugee management and financial services. Countries with some of the least robust privacy laws and most vulnerable populations are now laboratories for experimental tech.

    Biometric identifiers promise to tie legal status directly to the body. They offer seductively easy solutions to the problems of administering large populations. But it is worth asking what (and who) gets lost when countries and international bodies turn to data-driven, automated solutions. Administrative failures, data gaps and clunky analogue systems had posed huge challenges for people at the mercy of dispassionate bureaucracies, but also provided others with room for manoeuvre.

    Biometrics may close the gap between an ID and its holder, but it opens a gulf between streamlined bureaucracies and people’s messy lives, their constrained choices, their survival strategies, their hopes for a better future, none of which can be captured on a digital scanner or encoded into a database.

    https://www.lrb.co.uk/blog/2020/september/machine-readable-refugees
    #biométrie #identité #réfugiés #citoyenneté #asile #migrations #ADN #tests_ADN #tests_génétiques #génétique #nationalité #famille #base_de_donnée #database #HCR #UNHCR #fraude #frontières #contrôles_frontaliers #iris #technologie #contrôle #réinstallation #protection_des_données #empreintes_digitales #identité_digitale

    ping @etraces @karine4
    via @isskein

  • La #Suisse sous couverture - Agents infiltrés (1/5)

    En 1955, les #services_de_renseignement américains et l’entreprise suisse #Crypto_AG concluent un accord confidentiel qui permettra l’#espionnage des communications de 130 pays. Durant des décennies, un pan de l’industrie helvétique sera impliqué dans ces activités, malgré la « #neutralité » du pays et avec la bénédiction du Conseil fédéral.

    https://www.rts.ch/play/tv/la-suisse-sous-couverture/video/la-suisse-sous-couverture-agents-infiltres-15?id=10868165

    #histoire #USA #guerre_froide #Crypto #William_Friedman #cryptographie #technologie #espions #renseignements #Boris_Hagelin #neutralité #espionnage #affaire_Buehler #Hans_Buehler #Nora_Makabee #BND #Siemens #Loèches #Valais

    ping @simplicissimus @etraces

    • La Suisse sous couverture - Les grandes oreilles de la Confédération (2/5)

      A #Loèche, #Swisscom, le Département fédéral de la défense et des entreprises privées proches de la #National_Security_Agency (#NSA) gèrent un parc d’antennes pour les communications satellitaires entre la Suisse et l’étranger. En l’an 2000, ce site stratégique devient la porte d’entrée privilégiée de Washington pour espionner les communications dans le monde entier.

      https://www.rts.ch/play/tv/la-suisse-sous-couverture/video/la-suisse-sous-couverture-les-grandes-oreilles-de-la-confederation-25-?id=108681
      #neutralité #télécommunication #satellites #ONYX #services_de_renseignement #USA #Etats-Unis #Jean-Paul_Rouiller #signalhorn #Treasure_Map serveurs_clandestins #déni

    • La Suisse sous couverture - #Genève, nid d’espions (3/5)

      Des salons de l’#ONU truffés de micros, des antennes camouflées dans les missions diplomatiques et des agents russes ou américains infiltrés partout... A Genève, où Edward Snowden travaillait pour la #CIA, le petit monde du renseignement grenouille discrètement et les espions chassent en meute.

      https://www.rts.ch/play/tv/la-suisse-sous-couverture/video/la-suisse-sous-couverture-geneve-nid-despions-35?id=10868210
      #Snowden #Nations_Unies #Special_collection_service (#SCS) #organisations_internationales #système_d'écoute #site_C #Wiesbaden #Fort_Meade #NSA #Russie

    • La Suisse sous couverture - Le secret bunker suisse (4/5)

      Nos données numériques personnelles sont une mine d’or d’informations qu’il faut protéger des regards indiscrets. En Suisse, une législation déficiente – elle date de 1992 – permet à des puissances étrangères d’accéder à ces données. Dans le dossier du « big data », c’est la souveraineté de la Confédération qui est en jeu.

      https://www.rts.ch/play/tv/la-suisse-sous-couverture/video/la-suisse-sous-couverture-le-secret-bunker-suisse-45?id=10868236

      #big_data #données_numériques #coffre-fort_numérique #réduit_national_4.0 #stockage #RGPD #protection_des_données #cloud_act

    • La Suisse sous couverture - Crypto révolution (5/5)

      D’un côté, Google et consorts contrôlent les canaux et le stockage de l’information. De l’autre, une puissante mouvance de hackers tente de rendre cette information publique, en piratant des systèmes informatiques. L’enjeu de cette guerre ? La défense de libertés fondamentales, aussi bien sur internet que dans la société.

      https://www.rts.ch/play/tv/la-suisse-sous-couverture/video/la-suisse-sous-couverture-crypto-revolution-55?id=10868255

      #activisme #résistance #hackers #Digital_Gesellschaft #droits_humains #chaos_computer #club #surveillance #économie_de_la_surveillance

    • La CIA s’est servie d’une entreprise suisse pour espionner plus de 100 pays

      Une affaire d’espionnage secoue la Suisse : pendant des décennies, les services de renseignement américains et allemands ont secrètement utilisé une entreprise suisse et sa technologie pour espionner de nombreux États. Que savaient les autorités suisses à ce sujet ?

      Vue de l’extérieur, la firme zougoise Crypto AG était une entreprise suisse sérieuse, spécialisée dans la technologie de pointe. Elle fabriquait un produit peu utilisé par la plupart des gens : des appareils de chiffrement. Ses clients étaient des États ainsi que leurs armées et services secrets voulant rendre leurs communications secrètes illisibles, c’est-à-dire les crypter ou les chiffrer.

      Cependant, Crypto AG n’était une entreprise normale et respectant les valeurs ayant cours en Suisse que côté pile. Côté face, elle possédait une structure cryptique – au sens propre – car ses propriétaires agissant dans l’ombre étaient, à partir de 1970, l’agence centrale de renseignement américaine (CIA) et le service de renseignement allemand (BND). Les deux services secrets firent en sorte que la technologie de cryptage « swiss made », réputée infaillible, soit munie d’une porte dérobée.

      Grâce à ces manipulations ciblées, la CIA et le BND ont pu espionner 148 États – ennemis ou alliés – pendant des dizaines d’années. Tous ces pays avait investi des millions pour obtenir la technologie de ce pays neutre et digne de confiance qu’était la Suisse. Autrement dit, ils ont payé eux-mêmes les appareils qui les ont trahis.

      Les faits ont été dévoilés à la mi-février par la télévision suisse alémanique SRF, la chaîne allemande ZDF et le « Washington Post » à l’issue d’une enquête commune. L’équipe de recherche s’est appuyée sur des dossiers de la CIA qu’on lui a fait passer en douce, et sur des entretiens avec d’anciens employés de Crypto AG et leurs proches.

      L’ampleur du « coup du siècle des services secrets » – ce sont les termes de la CIA – paraît énorme. L’affaire met en lumière les tensions de l’époque de la guerre froide. La complicité de la CIA et du BND éclaire d’un nouveau jour bon nombre d’événements historiques de ces 50 dernières années. Jusqu’où faut-il réécrire l’histoire mondiale récente ? Seule une étude approfondie des CryptoLeaks le déterminera. L’histoire suisse doit-elle, elle aussi, être révisée ? C’est la question qui fait tant de vagues aussi en Suisse. On se demande ce que les autorités suisses savaient, et si l’État suisse était au courant des agissements des services de renseignement étrangers sur son sol et les a couverts.
      « Le programme a dépassé les espérances les plus folles »

      Dans quelle mesure les activités d’espionnage de la CIA et du BND, s’appuyant sur la technologie truquée de l’entreprise Crypto AG, ont-elles abouti ? Le succès des espions est toujours un échec pour ceux qui en sont victimes : la réponse dépend donc du point de vue adopté. Celui de la CIA, d’après les sources publiées, est le suivant : « Cela a été le projet d’espionnage à la fois le plus productif et le plus long depuis la Seconde Guerre mondiale. » Ainsi, entre 80 et 90 % des communications secrètes de l’Iran ont pu être déchiffrées. D’après la source de la CIA, « le programme a dépassé les espérances les plus folles de ses inventeurs. »

      Ces écoutes ont permis aux États-Unis d’influencer l’issue de tous les grands conflits ou presque à leur profit. Un exemple : selon l’état actuel des sources, le coup d’État militaire au Chili (1973) a été soutenu par les États-Unis sur la base des écoutes. En même temps, la CIA et le BND ont épié les conversations du régime militaire alors parvenu au pouvoir et n’ont donc jamais rien ignoré des méthodes de persécution et de torture qui coûtèrent la vie à 30 000 opposants au régime.
      Beaucoup de questions, premières réponses

      Les révélations sur Crypto AG font beaucoup de vagues, mais il n’est pas encore possible d’en tirer des conclusions définitives. Les grandes questions qu’elles posent esquissent cependant la portée de l’affaire pour la Suisse.

      Pourquoi la CIA et le BND ont-ils utilisé la couverture discrète d’une entreprise suisse ?

      Crypto AG a été fondée en 1952 par le cryptologue suédois Boris Hagelin. Il n’a pas implanté son entreprise en Suisse par hasard : « Lorsqu’on travaillait dans un domaine aussi sensible que la cryptographie, il valait mieux rechercher la protection d’un pays neutre mais faisant preuve de peu de scrupules moraux », indique la source de la CIA. Boris Hagelin a vendu son entreprise en 1970 à une société-écran de la CIA et du BND.

      Ce sont la CIA et le BND qui se sont livrés à ces activités d’espionnage. Pourquoi l’affaire est-elle perçue en Suisse comme un scandale « suisse » ?

      Du point de vue suisse, il est déterminant de savoir si les autorités du pays connaissaient les intentions, le modus operandi et la portée des activités d’espionnage, et si elles les ont tolérées, voire même favorisées.

      Des employés de Crypto AG soupçonnèrent que des puissances étrangères s’étaient immiscées dans les rouages de leur parfaite technique. Ils en ont informé la justice suisse. Que s’est-il passé ensuite ?

      Il est prouvé qu’au milieu des années 1970, un employé a informé des instances officielles que les appareils vendus étaient « dotés de générateurs de clés manipulés permettant aux services d’espionnage allemands et américains de déchiffrer les messages » : c’est ce que dit une fiche des Archives fédérales du 24 juillet 1977. Le problème est que les dossiers relatifs à cette fiche ont en partie disparu…

      La police fédérale suisse a enquêté sur la base de ces accusations, mais sans résultat. Des témoins de l’époque affirment aujourd’hui que les interrogatoires menés par la police ne l’ont été que « pour la forme »...

      Toute l’affaire ne sent-elle pas un peu le réchauffé de l’époque de la guerre froide ?

      Il est vrai que les premières accusations ont été lancées au milieu des années 1970. Et que Hans Bühler, ancien employé de Crypto, a accusé ouvertement son entreprise de collaborer avec des services secrets étrangers (Hans Bühler, soupçonné d’espionnage, a passé neuf mois dans une geôle iranienne, et a publié ses accusations dans un livre paru en 1994). Mais toute la portée de l’affaire n’éclate au grand jour que maintenant, car des preuves ont été fournies par des sources de la CIA. De plus, les activités d’espionnage ont perduré jusqu’en 2018, soit bien après la fin de la guerre froide. Le BND s’en est toutefois retiré en 1993 déjà, à la suite de la réunification de l’Allemagne.

      Dans l’état actuel des connaissances, que savait le Conseil fédéral de ces activités d’espionnage ?

      C’est une question clé. On ne sait pas encore dans quelle mesure des conseillers fédéraux étaient au courant de ces activités. Les documents de la CIA impliquent l’ancien conseiller fédéral Kaspar Villiger (PLR). Aujourd’hui âgé de 79 ans, ce dernier nie vigoureusement avoir été informé des détails.

      Pourquoi est-ce si important de savoir si le Conseil fédéral était au courant des activités d’espionnage ?

      S’il devait s’avérer que le Conseil fédéral, ou certains conseillers fédéraux, connaissaient ces activités d’espionnage, des questions sérieuses se posent : le gouvernement les a-t-il tolérées ? Ou les a-t-il couvertes ? A-t-il accepté que la neutralité suisse serve de leurre ? Et si la Suisse a été complice, a fermé les yeux ou couvert les faits : comment justifier l’espionnage contre des pays belligérants lorsqu’on affiche une politique de neutralité ?

      Comment le Conseil fédéral et le Parlement réagissent-ils à l’affaire ?

      La présidente de la Confédération, Simonetta Sommaruga, a dit très tôt que le gouvernement allait réunir tous les faits et était favorable à une enquête. La ministre de la Défense Viola Amherd a confirmé que son département abrite des documents laissant penser que son prédécesseur Kaspar Villiger était au courant. Désormais, l’affaire fait l’objet d’une enquête de la Délégation des Commissions de gestion des chambres fédérales. Cet organe de contrôle entend déterminer ce que la Suisse savait de ces activités d’espionnage, et si les renseignements suisses en ont même éventuellement même.

      L’affaire des CryptoLeaks met-elle en péril le rôle actuel de la Suisse ?

      La Suisse joue un rôle d’intermédiaire dans de nombreux conflits. Elle propose même ses « bons offices » dans les régions du monde sous tension. Ainsi, elle joue actuellement le « rôle du facteur » entre les États-Unis et l’Iran. La Suisse ne peut endosser ce rôle diplomatique que si sa crédibilité d’État neutre est intacte. C’est précisément cette crédibilité qui est en jeu maintenant. Ajoutons que l’Iran a été particulièrement touché par l’espionnage permis par la technologie « swiss made » truquée et vendue par le représentant de Crypto, Hans Bühler.

      Ce sont les États-Unis et l’Allemagne qui ont espionné d’autres pays. Pourquoi la réputation de la Suisse en souffrirait-elle ?

      L’avenir dira si la perception extérieure de la Suisse a subi des dommages. Mais la perception intérieure de la Suisse est de toute façon affectée : l’image de pays neutre à laquelle tiennent tant de Suisses est endommagée. L’affaire des CryptoLeaks pourrait jeter un discrédit total sur la neutralité suisse (voir aussi le commentaire de notre invité, p. 15).

      Crédibilité, confiance, image de soi : ce sont des facteurs subjectifs. L’affaire menace-t-elle aussi des intérêts économiques tangibles ?

      La Suisse possède une branche technologique en plein essor, qui dépend aussi de l’image de marque du pays. De plus, la Suisse souhaite se vendre comme une « place numérique propre », et promeut une initiative internationale dans le domaine de l’éthique. L’affaire des #CryptoLeaks tombe très mal.

      https://www.revue.ch/fr/editions/2020/03/detail/news/detail/News/la-cia-sest-servie-dune-entreprise-suisse-pour-espionner-plus-de-100-pays

  • Monitoring being pitched to fight Covid-19 was tested on refugees

    The pandemic has given a boost to controversial data-driven initiatives to track population movements

    In Italy, social media monitoring companies have been scouring Instagram to see who’s breaking the nationwide lockdown. In Israel, the government has made plans to “sift through geolocation data” collected by the Shin Bet intelligence agency and text people who have been in contact with an infected person. And in the UK, the government has asked mobile operators to share phone users’ aggregate location data to “help to predict broadly how the virus might move”.

    These efforts are just the most visible tip of a rapidly evolving industry combining the exploitation of data from the internet and mobile phones and the increasing number of sensors embedded on Earth and in space. Data scientists are intrigued by the new possibilities for behavioural prediction that such data offers. But they are also coming to terms with the complexity of actually using these data sets, and the ethical and practical problems that lurk within them.

    In the wake of the refugee crisis of 2015, tech companies and research consortiums pushed to develop projects using new data sources to predict movements of migrants into Europe. These ranged from broad efforts to extract intelligence from public social media profiles by hand, to more complex automated manipulation of big data sets through image recognition and machine learning. Two recent efforts have just been shut down, however, and others are yet to produce operational results.

    While IT companies and some areas of the humanitarian sector have applauded new possibilities, critics cite human rights concerns, or point to limitations in what such technological solutions can actually achieve.

    In September last year Frontex, the European border security agency, published a tender for “social media analysis services concerning irregular migration trends and forecasts”. The agency was offering the winning bidder up to €400,000 for “improved risk analysis regarding future irregular migratory movements” and support of Frontex’s anti-immigration operations.

    Frontex “wants to embrace” opportunities arising from the rapid growth of social media platforms, a contracting document outlined. The border agency believes that social media interactions drastically change the way people plan their routes, and thus examining would-be migrants’ online behaviour could help it get ahead of the curve, since these interactions typically occur “well before persons reach the external borders of the EU”.

    Frontex asked bidders to develop lists of key words that could be mined from platforms like Twitter, Facebook, Instagram and YouTube. The winning company would produce a monthly report containing “predictive intelligence ... of irregular flows”.

    Early this year, however, Frontex cancelled the opportunity. It followed swiftly on from another shutdown; Frontex’s sister agency, the European Asylum Support Office (EASO), had fallen foul of the European data protection watchdog, the EDPS, for searching social media content from would-be migrants.

    The EASO had been using the data to flag “shifts in asylum and migration routes, smuggling offers and the discourse among social media community users on key issues – flights, human trafficking and asylum systems/processes”. The search covered a broad range of languages, including Arabic, Pashto, Dari, Urdu, Tigrinya, Amharic, Edo, Pidgin English, Russian, Kurmanji Kurdish, Hausa and French.

    Although the EASO’s mission, as its name suggests, is centred around support for the asylum system, its reports were widely circulated, including to organisations that attempt to limit illegal immigration – Europol, Interpol, member states and Frontex itself.

    In shutting down the EASO’s social media monitoring project, the watchdog cited numerous concerns about process, the impact on fundamental rights and the lack of a legal basis for the work.

    “This processing operation concerns a vast number of social media users,” the EDPS pointed out. Because EASO’s reports are read by border security forces, there was a significant risk that data shared by asylum seekers to help others travel safely to Europe could instead be unfairly used against them without their knowledge.

    Social media monitoring “poses high risks to individuals’ rights and freedoms,” the regulator concluded in an assessment it delivered last November. “It involves the use of personal data in a way that goes beyond their initial purpose, their initial context of publication and in ways that individuals could not reasonably anticipate. This may have a chilling effect on people’s ability and willingness to express themselves and form relationships freely.”

    EASO told the Bureau that the ban had “negative consequences” on “the ability of EU member states to adapt the preparedness, and increase the effectiveness, of their asylum systems” and also noted a “potential harmful impact on the safety of migrants and asylum seekers”.

    Frontex said that its social media analysis tender was cancelled after new European border regulations came into force, but added that it was considering modifying the tender in response to these rules.
    Coronavirus

    Drug shortages put worst-hit Covid-19 patients at risk
    European doctors running low on drugs needed to treat Covid-19 patients
    Big Tobacco criticised for ’coronavirus publicity stunt’ after donating ventilators

    The two shutdowns represented a stumbling block for efforts to track population movements via new technologies and sources of data. But the public health crisis precipitated by the Covid-19 virus has brought such efforts abruptly to wider attention. In doing so it has cast a spotlight on a complex knot of issues. What information is personal, and legally protected? How does that protection work? What do concepts like anonymisation, privacy and consent mean in an age of big data?
    The shape of things to come

    International humanitarian organisations have long been interested in whether they can use nontraditional data sources to help plan disaster responses. As they often operate in inaccessible regions with little available or accurate official data about population sizes and movements, they can benefit from using new big data sources to estimate how many people are moving where. In particular, as well as using social media, recent efforts have sought to combine insights from mobile phones – a vital possession for a refugee or disaster survivor – with images generated by “Earth observation” satellites.

    “Mobiles, satellites and social media are the holy trinity of movement prediction,” said Linnet Taylor, professor at the Tilburg Institute for Law, Technology and Society in the Netherlands, who has been studying the privacy implications of such new data sources. “It’s the shape of things to come.”

    As the devastating impact of the Syrian civil war worsened in 2015, Europe saw itself in crisis. Refugee movements dominated the headlines and while some countries, notably Germany, opened up to more arrivals than usual, others shut down. European agencies and tech companies started to team up with a new offering: a migration hotspot predictor.

    Controversially, they were importing a concept drawn from distant catastrophe zones into decision-making on what should happen within the borders of the EU.

    “Here’s the heart of the matter,” said Nathaniel Raymond, a lecturer at the Yale Jackson Institute for Global Affairs who focuses on the security implications of information communication technologies for vulnerable populations. “In ungoverned frontier cases [European data protection law] doesn’t apply. Use of these technologies might be ethically safer there, and in any case it’s the only thing that is available. When you enter governed space, data volume and ease of manipulation go up. Putting this technology to work in the EU is a total inversion.”
    “Mobiles, satellites and social media are the holy trinity of movement prediction”

    Justin Ginnetti, head of data and analysis at the Internal Displacement Monitoring Centre in Switzerland, made a similar point. His organisation monitors movements to help humanitarian groups provide food, shelter and aid to those forced from their homes, but he casts a skeptical eye on governments using the same technology in the context of migration.

    “Many governments – within the EU and elsewhere – are very interested in these technologies, for reasons that are not the same as ours,” he told the Bureau. He called such technologies “a nuclear fly swatter,” adding: “The key question is: What problem are you really trying to solve with it? For many governments, it’s not preparing to ‘better respond to inflow of people’ – it’s raising red flags, to identify those en route and prevent them from arriving.”
    Eye in the sky

    A key player in marketing this concept was the European Space Agency (ESA) – an organisation based in Paris, with a major spaceport in French Guiana. The ESA’s pitch was to combine its space assets with other people’s data. “Could you be leveraging space technology and data for the benefit of life on Earth?” a recent presentation from the organisation on “disruptive smart technologies” asked. “We’ll work together to make your idea commercially viable.”

    By 2016, technologists at the ESA had spotted an opportunity. “Europe is being confronted with the most significant influxes of migrants and refugees in its history,” a presentation for their Advanced Research in Telecommunications Systems Programme stated. “One burning issue is the lack of timely information on migration trends, flows and rates. Big data applications have been recognised as a potentially powerful tool.” It decided to assess how it could harness such data.

    The ESA reached out to various European agencies, including EASO and Frontex, to offer a stake in what it called “big data applications to boost preparedness and response to migration”. The space agency would fund initial feasibility stages, but wanted any operational work to be jointly funded.

    One such feasibility study was carried out by GMV, a privately owned tech group covering banking, defence, health, telecommunications and satellites. GMV announced in a press release in August 2017 that the study would “assess the added value of big data solutions in the migration sector, namely the reduction of safety risks for migrants, the enhancement of border controls, as well as prevention and response to security issues related with unexpected migration movements”. It would do this by integrating “multiple space assets” with other sources including mobile phones and social media.

    When contacted by the Bureau, a spokeswoman from GMV said that, contrary to the press release, “nothing in the feasibility study related to the enhancement of border controls”.

    In the same year, the technology multinational CGI teamed up with the Dutch Statistics Office to explore similar questions. They started by looking at data around asylum flows from Syria and at how satellite images and social media could indicate changes in migration patterns in Niger, a key route into Europe. Following this experiment, they approached EASO in October 2017. CGI’s presentation of the work noted that at the time EASO was looking for a social media analysis tool that could monitor Facebook groups, predict arrivals of migrants at EU borders, and determine the number of “hotspots” and migrant shelters. CGI pitched a combined project, co-funded by the ESA, to start in 2019 and expand to serve more organisations in 2020.
    The proposal was to identify “hotspot activities”, using phone data to group individuals “according to where they spend the night”

    The idea was called Migration Radar 2.0. The ESA wrote that “analysing social media data allows for better understanding of the behaviour and sentiments of crowds at a particular geographic location and a specific moment in time, which can be indicators of possible migration movements in the immediate future”. Combined with continuous monitoring from space, the result would be an “early warning system” that offered potential future movements and routes, “as well as information about the composition of people in terms of origin, age, gender”.

    Internal notes released by EASO to the Bureau show the sheer range of companies trying to get a slice of the action. The agency had considered offers of services not only from the ESA, GMV, the Dutch Statistics Office and CGI, but also from BIP, a consulting firm, the aerospace group Thales Alenia, the geoinformation specialist EGEOS and Vodafone.

    Some of the pitches were better received than others. An EASO analyst who took notes on the various proposals remarked that “most oversell a bit”. They went on: “Some claimed they could trace GSM [ie mobile networks] but then clarified they could do it for Venezuelans only, and maybe one or two countries in Africa.” Financial implications were not always clearly provided. On the other hand, the official noted, the ESA and its consortium would pay 80% of costs and “we can get collaboration on something we plan to do anyway”.

    The features on offer included automatic alerts, a social media timeline, sentiment analysis, “animated bubbles with asylum applications from countries of origin over time”, the detection and monitoring of smuggling sites, hotspot maps, change detection and border monitoring.

    The document notes a group of services available from Vodafone, for example, in the context of a proposed project to monitor asylum centres in Italy. The proposal was to identify “hotspot activities”, using phone data to group individuals either by nationality or “according to where they spend the night”, and also to test if their movements into the country from abroad could be back-tracked. A tentative estimate for the cost of a pilot project, spread over four municipalities, came to €250,000 – of which an unspecified amount was for “regulatory (privacy) issues”.

    Stumbling blocks

    Elsewhere, efforts to harness social media data for similar purposes were proving problematic. A September 2017 UN study tried to establish whether analysing social media posts, specifically on Twitter, “could provide insights into ... altered routes, or the conversations PoC [“persons of concern”] are having with service providers, including smugglers”. The hypothesis was that this could “better inform the orientation of resource allocations, and advocacy efforts” - but the study was unable to conclude either way, after failing to identify enough relevant data on Twitter.

    The ESA pressed ahead, with four feasibility studies concluding in 2018 and 2019. The Migration Radar project produced a dashboard that showcased the use of satellite imagery for automatically detecting changes in temporary settlement, as well as tools to analyse sentiment on social media. The prototype received positive reviews, its backers wrote, encouraging them to keep developing the product.

    CGI was effusive about the predictive power of its technology, which could automatically detect “groups of people, traces of trucks at unexpected places, tent camps, waste heaps and boats” while offering insight into “the sentiments of migrants at certain moments” and “information that is shared about routes and motives for taking certain routes”. Armed with this data, the company argued that it could create a service which could predict the possible outcomes of migration movements before they happened.

    The ESA’s other “big data applications” study had identified a demand among EU agencies and other potential customers for predictive analyses to ensure “preparedness” and alert systems for migration events. A package of services was proposed, using data drawn from social media and satellites.

    Both projects were slated to evolve into a second, operational phase. But this seems to have never become reality. CGI told the Bureau that “since the completion of the [Migration Radar] project, we have not carried out any extra activities in this domain”.

    The ESA told the Bureau that its studies had “confirmed the usefulness” of combining space technology and big data for monitoring migration movements. The agency added that its corporate partners were working on follow-on projects despite “internal delays”.

    EASO itself told the Bureau that it “took a decision not to get involved” in the various proposals it had received.

    Specialists found a “striking absence” of agreed upon core principles when using the new technologies

    But even as these efforts slowed, others have been pursuing similar goals. The European Commission’s Knowledge Centre on Migration and Demography has proposed a “Big Data for Migration Alliance” to address data access, security and ethics concerns. A new partnership between the ESA and GMV – “Bigmig" – aims to support “migration management and prevention” through a combination of satellite observation and machine-learning techniques (the company emphasised to the Bureau that its focus was humanitarian). And a consortium of universities and private sector partners – GMV among them – has just launched a €3 million EU-funded project, named Hummingbird, to improve predictions of migration patterns, including through analysing phone call records, satellite imagery and social media.

    At a conference in Berlin in October 2019, dozens of specialists from academia, government and the humanitarian sector debated the use of these new technologies for “forecasting human mobility in contexts of crises”. Their conclusions raised numerous red flags. They found a “striking absence” of agreed upon core principles. It was hard to balance the potential good with ethical concerns, because the most useful data tended to be more specific, leading to greater risks of misuse and even, in the worst case scenario, weaponisation of the data. Partnerships with corporations introduced transparency complications. Communication of predictive findings to decision makers, and particularly the “miscommunication of the scope and limitations associated with such findings”, was identified as a particular problem.

    The full consequences of relying on artificial intelligence and “employing large scale, automated, and combined analysis of datasets of different sources” to predict movements in a crisis could not be foreseen, the workshop report concluded. “Humanitarian and political actors who base their decisions on such analytics must therefore carefully reflect on the potential risks.”

    A fresh crisis

    Until recently, discussion of such risks remained mostly confined to scientific papers and NGO workshops. The Covid-19 pandemic has brought it crashing into the mainstream.

    Some see critical advantages to using call data records to trace movements and map the spread of the virus. “Using our mobile technology, we have the potential to build models that help to predict broadly how the virus might move,” an O2 spokesperson said in March. But others believe that it is too late for this to be useful. The UK’s chief scientific officer, Patrick Vallance, told a press conference in March that using this type of data “would have been a good idea in January”.

    Like the 2015 refugee crisis, the global emergency offers an opportunity for industry to get ahead of the curve with innovative uses of big data. At a summit in Downing Street on 11 March, Dominic Cummings asked tech firms “what [they] could bring to the table” to help the fight against Covid-19.

    Human rights advocates worry about the longer term effects of such efforts, however. “Right now, we’re seeing states around the world roll out powerful new surveillance measures and strike up hasty partnerships with tech companies,” Anna Bacciarelli, a technology researcher at Amnesty International, told the Bureau. “While states must act to protect people in this pandemic, it is vital that we ensure that invasive surveillance measures do not become normalised and permanent, beyond their emergency status.”

    More creative methods of surveillance and prediction are not necessarily answering the right question, others warn.

    “The single largest determinant of Covid-19 mortality is healthcare system capacity,” said Sean McDonald, a senior fellow at the Centre for International Governance Innovation, who studied the use of phone data in the west African Ebola outbreak of 2014-5. “But governments are focusing on the pandemic as a problem of people management rather than a problem of building response capacity. More broadly, there is nowhere near enough proof that the science or math underlying the technologies being deployed meaningfully contribute to controlling the virus at all.”

    Legally, this type of data processing raises complicated questions. While European data protection law - the GDPR - generally prohibits processing of “special categories of personal data”, including ethnicity, beliefs, sexual orientation, biometrics and health, it allows such processing in a number of instances (among them public health emergencies). In the case of refugee movement prediction, there are signs that the law is cracking at the seams.
    “There is nowhere near enough proof that the science or math underlying the technologies being deployed meaningfully contribute to controlling the virus at all.”

    Under GDPR, researchers are supposed to make “impact assessments” of how their data processing can affect fundamental rights. If they find potential for concern they should consult their national information commissioner. There is no simple way to know whether such assessments have been produced, however, or whether they were thoroughly carried out.

    Researchers engaged with crunching mobile phone data point to anonymisation and aggregation as effective tools for ensuring privacy is maintained. But the solution is not straightforward, either technically or legally.

    “If telcos are using individual call records or location data to provide intel on the whereabouts, movements or activities of migrants and refugees, they still need a legal basis to use that data for that purpose in the first place – even if the final intelligence report itself does not contain any personal data,” said Ben Hayes, director of AWO, a data rights law firm and consultancy. “The more likely it is that the people concerned may be identified or affected, the more serious this matter becomes.”

    More broadly, experts worry that, faced with the potential of big data technology to illuminate movements of groups of people, the law’s provisions on privacy begin to seem outdated.

    “We’re paying more attention now to privacy under its traditional definition,” Nathaniel Raymond said. “But privacy is not the same as group legibility.” Simply put, while issues around the sensitivity of personal data can be obvious, the combinations of seemingly unrelated data that offer insights about what small groups of people are doing can be hard to foresee, and hard to mitigate. Raymond argues that the concept of privacy as enshrined in the newly minted data protection law is anachronistic. As he puts it, “GDPR is already dead, stuffed and mounted. We’re increasing vulnerability under the colour of law.”

    https://www.thebureauinvestigates.com/stories/2020-04-28/monitoring-being-pitched-to-fight-covid-19-was-first-tested-o
    #cobaye #surveillance #réfugiés #covid-19 #coronavirus #test #smartphone #téléphones_portables #Frontex #frontières #contrôles_frontaliers #Shin_Bet #internet #big_data #droits_humains #réseaux_sociaux #intelligence_prédictive #European_Asylum_Support_Office (#EASO) #EDPS #protection_des_données #humanitaire #images_satellites #technologie #European_Space_Agency (#ESA) #GMV #CGI #Niger #Facebook #Migration_Radar_2.0 #early_warning_system #BIP #Thales_Alenia #EGEOS #complexe_militaro-industriel #Vodafone #GSM #Italie #twitter #détection #routes_migratoires #systèmes_d'alerte #satellites #Knowledge_Centre_on_Migration_and_Demography #Big_Data for_Migration_Alliance #Bigmig #machine-learning #Hummingbird #weaponisation_of_the_data #IA #intelligence_artificielle #données_personnelles

    ping @etraces @isskein @karine4 @reka

    signalé ici par @sinehebdo :
    https://seenthis.net/messages/849167

  • Des analyses de Swisscom soutiennent la lutte contre le coronavirus

    L’#Office_fédéral_de_la_santé_publique (#OFSP) a demandé à Swisscom des analyses pour vérifier si les mesures de protection contre l’infection du #coronavirus sont respectées. Les analyses comprennent des données relatives à la #mobilité et aux #rassemblements de personnes dans l’#espace_public. Les évaluations montrent que la population suisse a fortement réduit ses #déplacements. L’OFSP ne reçoit à aucun moment des #données_géographiques de Swisscom, mais seulement des #statistiques et des #visualisations. Les données qui sous-tendent les analyses et les visualisations sont anonymisées et agrégées. Aucun lien avec des personnes spécifiques ne peut être établi.

    Le 21 mars, le Conseil fédéral a interdit les rassemblements de plus de cinq personnes dans l’espace public (art. 7c, al. 1, Ordonnance 2 COVID-19). Les autorités souhaitent maintenant avoir des preuves pour savoir si ces mesures de protection de la population sont respectées ou non. L’Office fédéral de la santé publique (OFSP) reçoit des analyses sur la mobilité et sur les rassemblements dans l’espace public qui se basent sur la plateforme Mobility Insights de Swisscom. La plateforme et les analyses correspondantes ont déjà été utilisées dans le contexte de la Smart City, comme p. ex. à Montreux ou à Pully.

    Les premières évaluations montrent que les habitants font beaucoup moins de déplacements depuis la première interdiction de rassemblements de plus de cinq personnes. En effet, les déplacements, en termes de kilomètres parcourus, ont diminué d’environ 50% dans toute la Suisse par rapport à un mois antérieur typique. Il faut toutefois souligner que la population du Tessin a réduit ses trajets de la manière la plus prononcée.
    Anonymisation complète et agrégation des données

    Pour localiser les rassemblements de personnes, la plateforme Mobility Insight (en conformité avec l’art. 45b, loi sur les télécommunications) affiche les zones où se trouvent au moins 20 cartes SIM par surface de 100 mètres par 100 mètres. Les analyses se basent sur des données géographiques approximatives sur les 24 heures passées.

    Pour indiquer comment les déplacements de la population ont évolué, la plateforme affiche la mobilité approximative des cartes SIM Swisscom d’une zone (p. ex. d’un canton) au cours d’une période de temps donnée. Les informations qui sont obtenues par des moyens techniques dans le réseau mobile sont anonymisées automatiquement aussitôt après leur création puis regroupées sous forme agrégée en vue des analyses.
    L’OFSP ne reçoit pas de données géographiques, mais seulement des visualisations

    L’OFSP ne reçoit à aucun moment des données géographiques, mais seulement des statistiques et des visualisations que Swisscom peut calculer à partir de ces données. Les analyses/visualisations sont entièrement anonymisées et agrégées, donc uniquement visibles sous forme d’une valeur de groupe. Ainsi, aucun lien ne peut être établi avec des personnes spécifiques ou des profils de déplacement individuels. Les directives de la loi fédérale sur la protection des données et les principes éthiques que suit Swisscom pour le traitement des données sont entièrement respectés. Dès que l’ordonnance 2 COVID-19 ne sera plus applicable, aucune analyse ne sera plus mise à la disposition de l’OFSP.

    Les clients ont le contrôle de leurs données en tout temps

    Les clients peuvent définir eux-mêmes pour quels produits et prestations Smart Data Swisscom est autorisée à utiliser leurs données, sous une forme anonymisée et agrégée, autrement dit très concise (#opt-out). Un opt-out peut être demandé dans le domaine « #Protection_des_données », sous Mon profil, dans l’Espace clients. Les données ne sont donc pas utilisées pour d’autres analyses.

    https://www.swisscom.ch/fr/about/news/2020/03/27-swisscom-coronavirus.html

    #Orange en #France... #Swisscom en #Suisse...

    #données #téléphone #smartphone #surveillance #anonymat #agrégation #anonymisation #données_agrégées

    ping @etraces

  • Les #outils_numériques de l’#humanitaire sont-ils compatibles avec le respect de la #vie_privée des #réfugiés ?

    Pour gérer les opérations humanitaires dans le camp de réfugiés syriens de #Zaatari en #Jordanie, les ONG ont mis en place des outils numériques, mais l’#innovation a un impact sur le personnel humanitaire comme sur les réfugiés. Travailler sur ce camp ouvert en 2012, où vivent 76 000 Syriens et travaillent 42 ONG, permet de s’interroger sur la célébration par le monde humanitaire de l’utilisation de #nouvelles_technologies pour venir en aide à des réfugiés.

    Après plusieurs années d’observation participative en tant que chargée d’évaluation pour une organisations non gouvernementales (ONG), je suis allée plusieurs fois à Amman et dans le camp de Zaatari, en Jordanie, entre 2017 et 2018, pour rencontrer des travailleurs humanitaires de 13 organisations différentes et agences de l’Onu et 10 familles vivant dans le camp, avec l’aide d’un interprète.

    Le camp de Zaatari a été ouvert dès 2012 par le Haut Commissariat aux Réfugiés pour répondre à la fuite des Syriens vers la Jordanie. Prévu comme une « #installation_temporaire », il peut accueillir jusqu’à 120 000 réfugiés. Les ONG et les agences des Nations Unies y distribuent de la nourriture et de l’eau potable, y procurent des soins et proposent un logement dans des caravanes.

    Pour faciliter la #gestion de cet espace de 5,2 km2 qui accueille 76 000 personnes, de très nombreux rapports, cartes et bases de données sont réalisés par les ONG. Les #données_géographiques, particulièrement, sont collectées avec des #smartphones et partagées via des cartes et des #tableaux_de_bord sur des #plateformes_en_ligne, soit internes au camp comme celle du Haut Commissariat des Nations unies pour les réfugiés (HCR), soit ouvertes à tous comme #Open_Street_Map. Ainsi, grâce à des images par satellite, on peut suivre les déplacements des abris des réfugiés dans le camp qui ont souvent lieu la nuit. Ces #mouvements modifient la #géographie_du_camp et la densité de population par zones, obligeant les humanitaires à modifier les services, tel l’apport en eau potable.

    Les réfugiés payent avec leur iris

    Ces outils font partie de ce que j’appelle « l’#humanitaire_numérique_innovant ». Le scan de l’#iris tient une place à part parmi ces outils car il s’intéresse à une partie du #corps du réfugié. Cette donnée biométrique est associée à la technologie de paiement en ligne appelée #blockchain et permet de régler ses achats au #supermarché installé dans le camp par une société jordanienne privée. Avant l’utilisation des #scanners à iris, les réfugiés recevaient une #carte_de_crédit qu’ils pouvaient utiliser dans divers magasins autour du camp, y compris dans des #échoppes appartenant à des réfugiés.

    Ils ne comprennent pas l’utilité pour eux d’avoir changé de système. Nour*, une réfugiée de 30 ans, trouvait que « la #carte_Visa était si facile » et craint de « devenir aveugle si [elle] continue à utiliser [son] iris. Cela prend tellement de temps : “ouvre les yeux”, “regarde à gauche”, etc. ». Payer avec son corps n’a rien d’anecdotique quand on est réfugié dans un camp et donc dépendant d’une assistance mensuelle dont on ne maîtrise pas les modalités. Nisrine, une autre réfugiée, préférait quand « n’importe qui pouvait aller au supermarché [pour quelqu’un d’autre]. Maintenant une [seule] personne doit y aller et c’est plus difficile ». Sans transport en commun dans le camp, se rendre au supermarché est une contrainte physique pour ces femmes.

    Le principal argument des ONG en faveur du développement du scan de l’iris est de réduire le risque de #fraude. Le #Programme_Alimentaire_Mondial (#Pam) contrôle pourtant le genre de denrées qui peuvent être achetées en autorisant ou non leur paiement avec la somme placée sur le compte des réfugiés. C’est le cas par exemple pour des aliments comme les chips, ou encore pour les protections hygiéniques. Pour ces biens-là, les réfugiés doivent compléter en liquide.

    Des interactions qui changent entre le personnel humanitaire et les réfugiés

    Les effets de ces #nouvelles_technologies se font aussi sentir dans les interactions entre le personnel du camp et les réfugiés. Chargés de collecter les #données, certains humanitaires doivent régulièrement interroger des jeunes hommes venant de zones rurales limitrophes (qui forment la majorité des réfugiés) sur leur hygiène ou leurs moyens de subsistance. Cela leur permet de créer des #indicateurs pour classer les réfugiés par catégories de #vulnérabilité et donc de #besoins. Ces interactions sont considérées par les réfugiés comme une intrusion dans leur espace de vie, à cause de la nature des questions posées, et sont pourtant devenues un des rares moments d’échanges entre ceux qui travaillent et vivent dans le camp.

    Le #classement des ménages et des individus doit se faire de manière objective pour savoir qui recevra quoi, mais les données collectées sont composites. Difficile pour les responsables de projets, directement interpellés par des réfugiés dans le camp, d’assumer les choix faits par des logiciels. C’est un exercice mathématique qui décide finalement de l’#allocation de l’aide et la majorité des responsables de programmes que j’ai interrogés ne connaissent pas son fonctionnement. Le processus de décision est retiré des mains du personnel humanitaire.

    Aucune évaluation de la #protection_des_données n’a été réalisée

    La vie privée de cette population qui a fui la guerre et trouvé refuge dans un camp est-elle bien protégée alors que toutes ces #données_personnelles sont récoltées ? Le journal en ligne The New Humanitarian rapportait en 2017 une importante fuite de données de bénéficiaires du Pam en Afrique de l’Ouest, détectée par une entreprise de protection de la donnée (https://www.thenewhumanitarian.org/investigations/2017/11/27/security-lapses-aid-agency-leave-beneficiary-data-risk). En Jordanie, les #données_biométriques de l’iris des réfugiés circulent entre une banque privée et l’entreprise jordanienne qui exploite le supermarché, mais aucune évaluation de la protection des données n’a été réalisée, ni avant ni depuis la mise en œuvre de cette #innovation_technologique. Si la protection des données à caractère personnel est en train de devenir un objet de légalisation dans l’Union européenne (en particulier avec le Règlement Général sur la Protection des Données), elle n’a pas encore été incluse dans le #droit_humanitaire.

    De la collecte de données sur les pratiques d’hygiène à l’utilisation de données biométriques pour la distribution de l’#aide_humanitaire, les outils numériques suivent en continu l’histoire des réfugiés. Non pas à travers des récits personnels, mais sur la base de données chiffrées qui, pense-t-on, ne sauraient mentir. Pour sensibiliser le public à la crise humanitaire, les équipes de communication des agences des Nations Unies et des ONG utilisent pourtant des histoires humaines et non des chiffres.

    Les réfugiés eux-mêmes reçoivent peu d’information, voire aucune, sur ce que deviennent leurs données personnelles, ni sur leurs droits en matière de protection de données privées. La connexion Internet leur est d’ailleurs refusée, de peur qu’ils communiquent avec des membres du groupe État Islamique… La gestion d’un camp aussi vaste que celui de Zaatari bénéficie peut-être de ces technologies, mais peut-on collecter les #traces_numériques des activités quotidiennes des réfugiés sans leur demander ce qu’ils en pensent et sans garantir la protection de leurs données personnelles ?

    http://icmigrations.fr/2020/01/16/defacto-015-01

    #camps_de_réfugiés #numérique #asile #migrations #camps #surveillance #contrôle #biométrie #privatisation

    ping @etraces @reka @karine4 @isskein

  • Studie “Das Smartphone, bitte! Digitalisierung von Migrationskontrolle in Deutschland und Europa”

    27. December 2019 by Daniela Turß

    Handydatenauswertung bei Geflüchteten ist teuer, unzuverlässig und gefährlich.

    Cover der Studie „Das Smartphone, bitte! Digitalisierung von Migrationskontrolle in Deutschland und Europa“

    Die Studie „Das Smartphone, bitte! Digitalisierung von Migrationskontrolle in Deutschland und Europa“ befasst sich mit der im Jahr 2017 eingeführten Analyse elektronischer Datenträger durch das BAMF. Wenn eine asylsuchende Person weder Pass noch Passersatzdokument vorweisen kann, ist die Behörde dazu berechtigt, ihr Smartphone auszuwerten, um Hinweise auf Identität und Herkunft zu erhalten. Diese Praxis verletzt das Grundrecht auf Vertraulichkeit und Integrität informationstechnischer Systeme von zigtausenden Menschen – für wenig aussagekräftige Ergebnisse.

    Seit der Einführung des Verfahrens im Jahr 2017 hat das BAMF hochgerechnet etwa 20.000 Mobiltelefone von Asylsuchenden ausgelesen und über 11 Millionen Euro in dieses Verfahren investiert. Im Zeitraum Januar 2018 bis Juni 2019 scheiterte das Auslesen in etwa einem Viertel der Fälle bereits an technischen Problemen. Nur in 1-2 % der verwertbaren Auswertungen fanden sich Widersprüche zu den Angaben, die die Asylsuchenden selbst in ihren Befragungen gemacht hatten.

    Für die Studie wertete die Journalistin Anna Biselli und die Juristin Lea Beckmann einen umfangreichen Quellenbestand aus, darunter Ergebnisberichte von Datenträgerauswertungen, Asylakten, interne Dienstanweisungen, Handbücher und Schulungsunterlagen des BAMF und Dokumente aus dem Gesetzgebungsverfahren. Zudem führten die Autorinnen Hintergrundgespräche mit Geflüchteten, Anwält*innen und Rechtswissenschaftler*innen, Verfahrensberatungsstellen und Menschenrechtsorganisationen in Deutschland und anderen Ländern Europas.

    https://freiheitsrechte.org/studie-handydatenauswertung

    –-> Studie: https://freiheitsrechte.org/home/wp-content/uploads/2019/12/GFF-Studie_Digitalisierung-von-Migrationskontrolle.pdf

    #migration #smartphone #Allemagne #BAMF #Europe #identité #numérisation #contrôle #étude

  • EU-Asylbehörde beschattete Flüchtende in sozialen Medien

    Die EU-Agentur EASO überwachte jahrelang soziale Netzwerke, um Flüchtende auf dem Weg nach Europa zu stoppen. Der oberste Datenschützer der EU setzte dem Projekt nun ein Ende.

    Das EU-Asylunterstützungsbüro EASO hat jahrelang in sozialen Medien Informationen über Flüchtende, Migrationsrouten und Schleuser gesammelt. Ihre Erkenntnisse meldete die Behörde mit Sitz in Malta an EU-Staaten, die Kommission und andere EU-Agenturen. Die Ermittlungen auf eigene Faust sorgen nun für Ärger mit EU-Datenschützern.

    Mitarbeiter von EASO durchforsteten soziale Medien seit Januar 2017. Ihr Hauptziel waren Hinweise auf neue Migrationsbewegungen nach Europa. Die EU-Behörde übernahm das Projekt von der UN-Organisation UNHCR, berichtete EASO damals in einem Newsletter.

    Die Agentur durchsuchte einschlägige Seiten, Kanäle und Gruppen mit der Hilfe von Stichwortlisten. Im Fokus standen Fluchtrouten, aber auch die Angebote von Schleusern, gefälschte Dokumente und die Stimmung unter den Geflüchteten, schrieb ein EASO-Sprecher an netzpolitik.org.

    Das Vorläuferprojekt untersuchte ab März 2016 Falschinformationen, mit denen Schleuser Menschen nach Europa locken. Es entstand als Folge der Flüchtlingsbewegung 2015, im Fokus der UN-Mitarbeiter standen Geflüchtete aus Syrien, dem Irak und Afghanistan.

    Flüchtende informierten sich auf dem Weg nach Europa über soziale Netzwerke, heißt es im Abschlussbericht des UNHCR. In Facebook-Gruppen und Youtube-Kanälen bewerben demnach Schleuser offen ihr Angebot. Sie veröffentlichten auf Facebook-Seiten sogar Rezensionen von zufriedenen „Kunden“, sagten Projektmitarbeiter damals den Medien.
    Fluchtrouten und Fälschungen

    Die wöchentlichen Berichte von EASO landeten bei den EU-Staaten und Institutionen, außerdem bei UNHCR und der Weltpolizeiorganisation Interpol. Die EU-Staaten forderten EASO bereits 2018 auf, Hinweise auf Schleuser an Europol zu übermitteln.

    Die EU-Agentur überwachte Menschen aus zahlreichen Ländern. Beobachtet wurden Sprecher des Arabischen und von afghanischen Sprachen wie Paschtunisch und Dari, aber auch von in Äthiopien und Eritrea verbreiteten Sprachen wie Tigrinya und Amharisch, das in Nigeria gesprochene Edo sowie etwa des Türkischen und Kurdischen.

    „Das Ziel der Aktivitäten war es, die Mitgliedsstaaten zu informieren und den Missbrauch von Schutzbedürftigen zu verhindern“, schrieb der EASO-Sprecher Anis Cassar.
    Als Beispiel nannte der Sprecher den „Konvoi der Hoffnung“. So nannte sich eine Gruppe von hunderte Menschen aus Afghanistan, Iran und Pakistan, die im Frühjahr 2019 an der griechisch-bulgarischen Grenze auf Weiterreise nach Europa hofften.

    Die griechische Polizei hinderte den „Konvoi“ mit Tränengasgranaten am Grenzübertritt. Die „sehr frühe Entdeckung“ der Gruppe sei ein Erfolg des Einsatzes, sagte der EASO-Sprecher.
    Kein Schutzschirm gegen Gräueltaten

    Gräueltaten gegen Flüchtende standen hingegen nicht im Fokus von EASO. In Libyen werden tausende Flüchtende unter „KZ-ähnlichen Zuständen“ in Lagern festgehalten, befand ein interner Bericht der Auswärtigen Amtes bereits Ende 2017.

    Über die Lage in Libyen dringen über soziale Medien und Messengerdienste immer wieder erschreckende Details nach außen.

    Die EU-Agentur antwortete ausweichend auf unsere Frage, ob ihre Mitarbeiter bei ihrem Monitoring Hinweise auf Menschenrechtsverletzungen gefunden hätten.

    „Ich bin nicht in der Lage, Details über die Inhalte der tatsächlichen Berichte zu geben“, schrieb der EASO-Sprecher. „Die Berichte haben aber sicherlich dazu beigetragen, den zuständigen nationalen Behörden zu helfen, Schleuser ins Visier zu nehmen und Menschen zu retten.“

    Der Sprecher betonte, das EU-Asylunterstützungsbüro sei keine Strafverfolgungsbehörde oder Küstenwache. Der Einsatz habe bloß zur Information der Partnerbehörden gedient.
    Datenschützer: Rechtsgrundlage fehlt

    Der oberste EU-Datenschützer übte heftige Kritik an dem Projekt. Die Behörde kritisiert, die EU-Agentur habe sensible persönliche Daten von Flüchtenden gesammelt, etwa über deren Religion, ohne dass diese informiert worden seien oder zugestimmt hätten.

    Die Asylbehörde habe für solche Datensammelei keinerlei Rechtsgrundlage, urteilte der EU-Datenschutzbeauftragte Wojciech Wiewiórowski in einem Brief an EASO im November.

    Die Datenschutzbehörde prüfte die Asylagentur nach neuen, strengeren Regeln für die EU-Institutionen, die etwa zeitgleich mit der Datenschutzgrundverordnung zu gelten begannen.

    In dem Schreiben warnt der EU-Datenschutzbeauftragte, einzelne Sprachen und Schlüsselwörter zu überwachen, könne zu falschen Annahmen über Gruppen führen. Dies wirke unter Umständen diskriminierend.

    Die Datenschutzbehörde ordnete die sofortigen Suspendierung des Projektes an. Es gebe vorerst keine Pläne, die Überwachung sozialer Medien wieder aufzunehmen, schrieb der EASO-Sprecher an netzpolitik.org.

    Die Asylbehörde widersprach indes den Vorwürfen. EASO habe großen Aufwand betrieben, damit keinerlei persönliche Daten in ihren Berichten landeten, schrieb der Sprecher.

    Anders sieht das der EU-Datenschutzbeauftragte. In einem einzigen Bericht, der den Datenschützern als Beispiel übermittelt wurde, fanden sie mehrere E-Mailadressen und die Telefonnummer eines Betroffenen, schrieben sie in dem Brief an EASO.

    EASO klagte indes gegenüber netzpolitik.org über die „negativen Konsequenzen“ des Projekt-Stopps. Dies schade den EU-Staaten in der Effektivität ihrer Asylsysteme und habe womöglich schädliche Auswirkungen auf die Sicherheit von Migranten und Asylsuchenden.
    Frontex stoppte Monitoring-Projekt

    Die EU-Asylagentur geriet bereits zuvor mit Aufsehern in Konflikt. Im Vorjahr ermittelte die Antikorruptionsbehörde OLAF wegen Mobbing-Vorwürfen, Verfehlungen bei Großeinkäufen und Datenschutzverstößen.

    Auf Anfrage von netzpolitik.org bestätigte OLAF, dass „Unregelmäßigkeiten“ in den genannten Bereichen gefunden wurden. Die Behörde wollte aber keine näheren Details nennen.

    EASO ist nicht die einzige EU-Behörde, die soziale Netzwerke überwachen möchte. Die Grenzagentur Frontex schrieb im September einen Auftrag über 400.000 Euro aus. Ziel sei die Überwachung von sozialen Netzwerken auf „irreguläre Migrationsbewegungen“.

    Kritische Nachfragen bremsten das Projekt aber schon vor dem Start. Nach kritischen Nachfragen der NGO Privacy International blies Frontex das Projekt ab. Frontex habe nicht erklären können, wie sich die Überwachung mit dem Datenschutz und dem rechtlichen Mandat der Organisation vereinen lässt, kritisierte die NGO.

    https://netzpolitik.org/2019/eu-asylbehoerde-beschattete-fluechtende-in-sozialen-medien#spendenleist
    #EASO #asile #migrations #réfugiés #surveillance #réseaux_sociaux #protection_des_données #Frontex #données

    –->

    « Les rapports hebdomadaires de l’EASO ont été envoyés aux pays et institutions de l’UE, au #HCR et à l’Organisation mondiale de la police d’#Interpol. Les États de l’UE ont demandé à l’EASO en 2018 de fournir à #Europol des informations sur les passeurs »

    ping @etraces

  • Datenschutzkonferenz: Hohe Hürden für den Einsatz von Windows 10 | heise online
    https://www.heise.de/newsticker/meldung/Datenschutzkonferenz-Hohe-Huerden-fuer-den-Einsatz-von-Windows-10-4584678.html

    En Allemagnee la législation en vigeur le rend pratiquement impossible d’utiliser Microsoft Windows 10 d’une manière légale. Les responsables pour la protection des données auprès des gouvernements des Länder viennent d’adopter cette position et la soutiennent dans un papier intutulé Datenschutz bei Windows 10 – Prüfschema .

    Voici le lien vers le texte : https://tlfdi.de/mam/tlfdi/gesetze/orientierungshilfen/beschluss_zu_top_13_win10_prufschema.pdf

    12.11.2019 von Stefan Krempl

    Die Aufsichtsbehörden haben ein Prüfschema für das Microsoft-Betriebssystem veröffentlicht. Nur bei einem tragbaren Restrisiko kann dieses verwendet werden.

    Die Datenschutzbeauftragten von Bund und Ländern sehen wenig Spielraum, Microsofts Betriebssystem Windows 10 rechtskonform zu nutzen. „Es ist zunächst Aufgabe des Verantwortlichen sicherzustellen und zu dokumentieren, dass die datenschutzrechtlichen Anforderungen beim Einsatz von Windows 10 jederzeit eingehalten werden“, schreiben sie in einem jetzt veröffentlichten Prüfschema. Dabei gelte es darauf zu achten, ob und gegebenenfalls „welche personenbezogenen Daten an Microsoft übermittelt werden“ und ob für diese Transfers eine Rechtsgrundlage vorliege.

    Praktisch ist dies aber eine kaum zu leistende Aufgabe, räumt die Datenschutzkonferenz (DSK) in dem Papier ein. Verschiedene Untersuchungen zeigten, dass es aktuell nicht möglich sei, die Übertragung insbesondere von Telemetrie-Daten „durch Konfiguration von Windows10 vollständig zu unterbinden“. Da die Transfers verschlüsselt erfolgten, „liegen keine detaillierten Erkenntnisse über die Natur der übertragenen Daten von einer unabhängigen Stelle vor“. Es müssten daher „technische Maßnahmen zur Verhinderung einer unbefugten Übermittlung zum Einsatz kommen“.
    Mit jedem Update erneute Prüfung?

    Zudem sei „wegen des fortlaufenden Veränderns und Hinzufügens von Funktionalität“ durch Microsoft ebenso fortlaufend zu überwachen, „ob anlässlich eines Updates eine erneute Prüfung durchgeführt werden muss“. Prinzipiell sei etwa laut der DSGVO der Grundsatz der Datenminimierung zu beachten. Stellt sich ein Transfer als unzulässig heraus, habe dieser „zu unterbleiben“, was „mit geeigneten und angemessenen Maßnahmen“ sichergestellt werden müsse. Daneben sei zu beachten, dass Microsoft Daten in die USA schicke und damit in „ein Drittland“ außerhalb der EU. Die DSK weist darauf hin, dass gegen die Rechtmäßigkeit des für diese Übertragungen genutzten Privacy Shields Bedenken bestünden und Klagen liefen.

    Das Resümee der Kontrolleure: Nur wenn „das Restrisiko“ durch die Implementierung der skizzierten Maßnahmen „tragbar ist“, könnten das Betriebssystem beziehungsweise bestimmte Funktionen davon zum Einsatz kommen. Generell lasse sich die Frage, ob Windows 10 datenschutzkonform ist, angesichts der Vielfalt der Editionen, Versionen, Funktionalitäten und vorgenommener Konfigurationen nicht beantworten. Jeder Anwender müsse seine Installation selbst prüfen. Sollten dabei etwa auch Beschäftigtendaten verarbeitet werden, müssten zusätzlich besondere Rechtsvorschriften beachtet werden.
    Kennzeichen-Scanning gerügt

    Die DSK rügt zudem die „exzessive Nutzung“ von Systemen zum Kfz-Kennzeichen-Scanning durch Strafverfolger als „Verstoß gegen das Grundgesetz“. Damit werde auch das Recht auf informationelle Selbstbestimmung der Bürger verletzt. Die Aufseher fordern die Polizeibehörden und Staatsanwaltschaften auf, „die umfassende und unterschiedslose Erfassung, Speicherung und Auswertung von Kraftfahrzeugen“ zu unterlassen und die rechtswidrig gespeicherten Daten zu löschen. In weiteren Entschließungen sprechen sich die Beauftragten etwa gegen eine Weitergabe sensibler Daten an unbefugte Dritte durch Gesundheits-Apps aus und geben Hinweise zum Einsatz von KI-Systemen in Betrieben und von Messengern im Krankenhausbereich.

    Titel: Datenschutz bei Windows 10 – Prüfschema – Version 1.0
    Herausgeber: Konferenz der unabhängigen Datenschutzbehörden des Bundes und der Länder
    Edition und Redaktion: AK Technik der Konferenz der unabhängigen Datenschutzbehörden des Bundes und der Länder
    Ansprechpartner/Autoren: Rasmus Robrahn, Dr. Martin Krämer, Dr. Christoph Lahmann und Uwe Robra (Die Landesbeauftragte für den Datenschutz Niedersachsen)

    #Allemagne #droit #sécurité #vie_privée #protection_des_données

  • #Visas : les ratés de la #sous-traitance à des #sociétés_privées

    En quelques années, la #France a généralisé la #délégation à des entreprises privées de ses services de délivrance des visas. Difficultés à obtenir un rendez-vous, bugs informatiques, surcoût : les demandeurs se plaignent de nombreux dysfonctionnements résultant de cette nouvelle donne, qui, par ailleurs, pose de sérieuses questions en matière de #protection_des_données personnelles.

    https://www.mediapart.fr/journal/international/021119/visas-les-rates-de-la-sous-traitance-des-societes-privees
    #migrations #privatisation #VFS_global
    ping @etraces

  • 5G : « Les Etats-Unis ont peur de perdre leur prééminence technologique »
    https://usbeketrica.com/article/5g-les-etats-unis-ont-peur-de-perdre-leur-preeminence-technologique

    « La 5G est un enjeu géopolitique qui a peut-être été non-assumé au départ (...) toute la difficulté est de savoir si c’est une guerre commerciale avec un simple volet technologique, ou si la guerre commerciale est un paravent à une rivalité technologique exacerbée entre Chinois et Américains (...) Le positionnement des autorités américaines est notamment lié à la montée en gamme de Huawei en matière de smartphones et de pose de câbles sous-marins. La crainte des Américains de perdre leur prééminence technologique est particulièrement élevée. »

    « Le matériel résidentiel chez Orange, SFR ou Bouygues, c’est du Huawei (...) En Pologne, tout le réseau mobile d’Orange est d’origine Huawei. Est-ce que ça veut dire qu’il est plus à risque qu’un réseau Nokia ou Alcatel ? La réalité, c’est qu’on ne peut pas le savoir pour l’instant... »

    #5G #technologie #Huawei #protection_des_données

  • Berne identifie les réfugiés grâce à leur portable

    Le Secrétariat d’Etat aux migrations contrôle l’identité des requérants d’asile grâce aux données de leur téléphone, ce que dénonce une organisation d’aide aux réfugiés.

    Nombreux sont les requérants d’asile qui ne peuvent pas prouver leur identité. Dans le cadre d’un projet pilote, le Secrétariat d’Etat aux migrations (#SEM) a contrôlé les téléphones mobiles et les ordinateurs portables des réfugiés pour vérifier leur identité. « Une atteinte à la vie privée », dénonce l’Organisation suisse d’aide aux réfugiés (OSAR)

    Le SEM a examiné 565 appareils et leurs données de novembre 2017 à mai 2018, sur une base volontaire de requérants d’asile arrivés dans les centres de Chiasso (TI) et de Vallorbe (VD). Dans 15% des cas, des informations utiles sur l’identité ou l’#itinéraire des réfugiés ont été trouvées. Le porte-parole du SEM Daniel Bach a confirmé l’existence d’un rapport interne sur ce projet pilote, comme l’ont rapporté samedi des journaux du groupe Tamedia.

    Base volontaire

    Daniel Bach s’est contenté d’expliquer que les résultats du projet pilote ont montré que ces contrôles « peuvent fournir des informations complémentaires importantes sur l’origine et l’identité des requérants d’asile ainsi que sur l’itinéraire de leur voyage ». Le porte-parole a souligné que les fouilles des téléphones mobiles et ordinateurs portables avaient été effectuées sur une base volontaire et que la protection des données personnelles avait été garantie à tout moment.

    Selon lui, jusqu’à trois quarts des demandeurs d’asile en Suisse ne peuvent prouver leur identité avec des papiers d’identité officiels. Dans certains pays, il n’y a pas d’acte de naissance et les gens n’ont pas de papiers d’identité. Les passeports des réfugiés sont aussi souvent confisqués en cours de route par des trafiquants ou d’autres groupes criminels. Les personnes sauvées en mer peuvent aussi avoir perdu leurs papiers d’identité en cours de périple.

    L’OSAR critique

    L’Organisation suisse d’aide aux réfugiés (OSAR) a vivement critiqué ce projet pilote de contrôle systématique des #données_téléphoniques et informatiques privées des demandeurs d’asile. « On ne sait pas si les autorités vont pas utiliser ces données à d’autres fins que la seule vérification de l’identité », s’interroge la porte-parole de l’OSAR Eliane Engeler à l’agence Keystone-ATS.

    « Du point de vue de la #protection_des_données, ce projet est hautement contestable et implique une atteinte draconienne à la #vie_privée des personnes concernées », dénonce-t-elle. « Le droit pénal réglemente de manière très restrictive la fouille des données des téléphones portables. Les smartphones de criminels présumés ne peuvent être analysés qu’en cas de violations graves de la loi et de suspicion justifiée », souligne-t-elle.

    Base juridique nécessaire

    Pour sa part, le porte-parole du SEM estime qu’une base juridique n’est nécessaire que pour tous les contrôles qui ne sont pas effectués avec l’assentiment du requérant d’asile. Un projet d’évaluation des données des réfugiés est actuellement en cours d’examen au Parlement. Selon les journaux Tamedia, la commission des institutions politiques (CIP) du Conseil national doit prendre une décision prochainement.

    En juin 2018, la CI du Conseil des Etats avait soutenu par 9 voix contre 1 une initiative parlementaire de l’UDC. Celle-ci demandait que les autorités puissent contrôler les téléphones mobiles des requérants d’asile si c’est le seul moyen pour établir leur identité. Avec ce feu vert, la commission du Conseil national a ainsi pu élaborer un projet concret.

    https://www.letemps.ch/suisse/berne-identifie-refugies-grace-portable
    #smartphone #téléphone_portable #Suisse #surveillance #contrôle #réfugiés #asile #migrations

    ping @etraces

  • Régulation du numérique : comment la Californie veut contrer Washington
    https://www.latribune.fr/technos-medias/internet/regulation-du-numerique-comment-la-californie-veut-contrer-washington-8070

    Au fil de trois lois différentes encadrant les pratiques en ligne, le « Golden State » s’est doté en 2018 d’un dispositif juridique sans pareil dans le reste du pays. #Protection_des_données, *neutralité_du_Net, régulation de l’intelligence artificielle : la Californie prend le contre-pied de la ligne officielle à Washington, alors que l’administration Trump était tentée jusqu’ici de déréguler la Toile.

    À coup d’ambitieux projets de loi, la Californie semble déterminée à redéfinir les règles en vigueur sur Internet. Tandis que le gouvernement fédéral prend le parti de déréguler, comme l’illustre la suppression de la loi sur la neutralité du Net, le « Golden State » fait le pari inverse, allant parfois jusqu’à défier ouvertement l’administration Trump. Tout a commencé en juin 2018, lorsque le Golden State a adopté le California Consumer Privacy Act de 2018. Cette loi, qui entrera en application le 1er janvier 2020, est largement inspirée du #RGPD européen, dont elle reprend les grandes lignes : plus grand contrôle des internautes sur leurs données personnelles, possibilité de refuser qu’elles soient employées à des fins commerciales, protections supplémentaires concernant les données des mineurs.

    La Californie ne s’est toutefois pas arrêtée en si bon chemin, et en septembre 2018, le gouverneur Jerry Brown a signé une autre loi encadrant le comportement des « #bots », ces intelligences artificielles conversationnelles simples. Cette régulation, qui prendra effet le 1er juillet 2019, oblige les bots à s’identifier lorsqu’ils communiquent avec des humains en ligne. L’objectif : empêcher que ces agents virtuels ne soient utilisés pour manipuler leurs interlocuteurs en se faisant passer pour des humains, que ce soit à des fins commerciales (vendre un produit) ou politiques (influencer une élection).

    Mais la mesure la plus forte est sans aucun doute celle qui concerne la neutralité du Net, ratifiée en septembre dernier par le gouverneur Jerry Brown. Cette loi, la plus stricte du territoire américain, interdit aux fournisseurs Internet de bloquer ou ralentir les contenus, et de favoriser la bande passante de certains sites ou services au détriment d’autres. Elle restaure dans les grandes lignes la loi sur la neutralité du Net instaurée par Barack Obama en 2015, et abrogée par l’administration Trump en décembre 2017.

  • #Solid : le projet de l’inventeur du World Wide Web pour reprendre possession de ses #données_personnelles

    On présente souvent Sir Tim Berners-Lee comme étant « l’inventeur d’Internet ». L’homme est en fait l’inventeur du World Wide Web et du langage HTML. Fervent défenseur de la neutralité du net, et d’une certaine liberté face au pouvoir grandissant des GAFA, il vient de lancer un tout nouveau projet dédié à la reprise en main des données personnelles. Le projet Solid vise à décentraliser #Internet, et à reprendre le pouvoir aux GAFA. Cette reprise en main passe par les données personnelles qui sont le coeur du business des géants du web. Si la plateforme arrive à séduire les développeurs, et les utilisateurs, elle pourrait radicalement changer la face d’Internet.

    https://www.blogdumoderateur.com/solid-le-projet-de-linventeur-du-world-wide-web-pour-reprendre-pos
    #protection_des_données

    ping @fil

  • Bots at the Gate A Human Rights Analysis of Automated Decision. Making in Canada’s Immigration and Refugee System

    A new report from the Citizen Lab and the International Human Rights Program at the University of Toronto’s Faculty of Law investigates the use of artificial intelligence and automated decision-making in Canada’s immigration and refugee systems. The report finds that use of automated decision-making technologies to augment or replace human judgment threatens to violate domestic and international human rights law, with alarming implications for the fundamental human rights of those subjected to these technologies.

    The ramifications of using automated decision-making in the sphere of immigration and refugee law and policy are far-reaching. Marginalized and under-resourced communities such as residents without citizenship status often have access to less robust human rights protections and less legal expertise with which to defend those rights. The report notes that adopting these autonomous decision-making systems without first ensuring responsible best practices and building in human rights principles at the outset may only exacerbate pre-existing disparities and can lead to rights violations including unjust deportation.

    Since at least 2014, Canada has been introducing automated decision-making experiments in its immigration mechanisms, most notably to automate certain activities currently conducted by immigration officials and to support the evaluation of some immigrant and visitor applications. Recent announcements signal an expansion of the uses of these technologies in a variety of immigration decisions that are normally made by a human immigration official. These can include decisions on a spectrum of complexity, including whether an application is complete, whether a marriage is “genuine”, or whether someone should be designated as a “risk.”

    The report provides a critical interdisciplinary analysis of public statements, records, policies, and drafts by relevant departments within the Government of Canada, including Immigration, Refugees and Citizenship Canada, and the Treasury Board of Canada Secretariat. The report additionally provides a comparative analysis to similar initiatives occurring in similar jurisdictions such as Australia and the United Kingdom. In February, the IHRP and the Citizen Lab submitted 27 separate Access to Information Requests and continue to await responses from Canada’s government.

    The report concludes with a series of specific recommendations for the federal government, the complete and detailed list of which are available at the end of this publication. In summary, they include recommendations that the federal government:

    1. Publish a complete and detailed report, to be maintained on an ongoing basis, of all automated decision systems currently in use within Canada’s immigration and refugee system, including detailed and specific information about each system.

    2. Freeze all efforts to procure, develop, or adopt any new automated decision system technology until existing systems fully comply with a government-wide Standard or Directive governing the responsible use of these technologies.

    3. Adopt a binding, government-wide Standard or Directive for the use of automated decision systems, which should apply to all new automated decision systems as well as those currently in use by the federal government.

    4. Establish an independent, arms-length body with the power to engage in all aspects of oversight and review of all use of automated decision systems by the federal government.

    5. Create a rational, transparent, and public methodology for determining the types of administrative processes and systems which are appropriate for the experimental use of automated decision system technologies, and which are not.

    6. Commit to making complete source code for all federal government automated decision systems—regardless of whether they are developed internally or by the private sector—public and open source by default, subject only to limited exceptions for reasons of privacy and national security.

    7. Launch a federal Task Force that brings key government stakeholders alongside academia and civil society to better understand the current and prospective impacts of automated decision system technologies on human rights and the public interest more broadly.


    https://citizenlab.ca/2018/09/bots-at-the-gate-human-rights-analysis-automated-decision-making-in-canad
    #frontières #surveillance #migrations #catégorisation #tri #Droits_Humains #rapport #Canada #réfugiés #protection_des_données #smart_borders #frontières_intelligentes #algorithme #automatisme
    signalé par @etraces sur seenthis

  • c’t entwickelt datenschutzfreundliche Social-Media-Buttons weiter | heise online
    https://www.heise.de/newsticker/meldung/c-t-entwickelt-datenschutzfreundliche-Social-Media-Buttons-weiter-2466687.html

    Die c’t hat ihre Methode, wie Webseitenbetreiber diese Buttons datenschutzrechtlich unbedenklich einbinden können, jetzt noch einmal verbessert. Der „Shariff“ benötigt nur einen Klick.

    Embetty: Social-Media-Inhalte datenschutzgerecht einbinden | heise online
    https://www.heise.de/newsticker/meldung/Embetty-Social-Media-Inhalte-datenschutzgerecht-einbinden-4060362.html

    heise online hat das Open-Source-Projekt „Embetty“ entwickelt, um Webseiten-Besucher vor dem Datenhunger von Social-Media-Sites zu schützen.

    Share- und Like-Buttons, Tweets, YouTube-Videos oder Facebook-Inhalte bereichern Websites, aber externe Inhalte verraten deren Anbietern normalerweise ungefragt Informationen über die Nutzer. Datenschutz ist heise online wichtig, deshalb haben wir uns Gedanken gemacht, wie sich dieser unkontrollierte Datenabfluss verhindern lässt. Daraus ist das Open-Source-Projekt „Embetty“ entstanden, das unser Web-Team entwickelt hat. Embetty arbeitet als Vermittler, damit die Informationen erst beim Anklicken Socia-Media-Elemente übertragen werden können. So können Website-Betreiber ihre Besucher noch besser vor dem Datenhunger der Social-Media-Plug-ins schützen.

    https://github.com/heiseonline/embetty
    https://www.heise.de/ct/ausgabe/2018-12-Social-Media-Inhalte-datenschutzfreundlich-in-die-Website-einbinden-40

    #sécurité #protection_des_données #protection_de_la_vie_privée

  • Encrypted Messaging Apps Have Limitations You Should Know
    https://www.wired.com/story/encrypted-messaging-isnt-magic

    Encrypted communication used to be too complicated for mainstream use, but approachable apps like WhatsApp and Signal have become a no-brainer for digital privacy. With all of their security-minded features, like disappearing messages and identity-confirming safety numbers, secure chat apps can rightfully give you peace of mind. You should absolutely use them. As the adage goes, though, there’s no such thing as perfect security. And feeling invincible could get you in trouble.

    End-to-end encryption transforms messages into unintelligible chunks of data as soon as a user presses send. From there, the message isn’t reconstituted into something understandable until it reaches the receiver’s device. Along the way, the message is unreadable, protected from prying eyes. It essentially amounts to a bodyguard who picks you up at your house, rides around with you in your car, and walks you to the door of wherever you’re going. You’re safe during the transport, but your vigilance shouldn’t end there.

    “These tools are hugely better than traditional email and things like Slack” for security, says Matthew Green, a cryptographer at Johns Hopkins University. “But encryption isn’t magic. You can easily get it wrong. In particular, if you don’t trust the people you’re talking to, you’re screwed.”

    On one level it’s obvious that both you and the person you’re chatting with have access to the encrypted conversation—that’s the whole point. But it’s easy to forget in practice that people you message with could show the chat to someone else, take screenshots, or retain the conversation on their device indefinitely.

    Former Trump campaign chair Paul Manafort found this out the hard way recently, when the FBI obtained messages he’d sent over WhatsApp from the people who received them.

    In another current investigation, the FBI was able to access Signal messages sent by former Senate Intelligence Committee aide James Wolfe, and had at least some information about the encrypted messaging habits of New York Times reporter Ali Watkins, after the Justice Department seized her communications records as part of a leak investigation. Though it’s unknown how the FBI gained access to these encrypted chats, it wouldn’t necessarily have taken a crypto-breaking backdoor if investigators had device access or records from other chat participants.

    You also need to keep track of how many devices you’ve stored your encrypted messages on. If you sync chats between, say, your smartphone and your laptop, or back them up in the cloud, there are potentially more opportunities for the data to be exposed. Some services, like iMessage and WhatsApp, either have cloud backups enabled by default or nudge users toward it to streamline the user experience. Manafort provides a useful illustration once again; investigators accessed his iCloud to access some of the same information informants gave them, as well as to glean new information about his activity. The chats were encrypted in WhatsApp; the backups were not.

    “Digital systems strew data all over the place,” Green notes. “And providers may keep metadata like who you talked to and when. Encrypted messaging apps are valuable in that they tend to reduce the number of places where your data can live. However, the data is decrypted when it reaches your phone.”

    That’s where operations security comes in, the process of protecting information by looking holistically at all the ways it could be obtained, and defending against each of them. An “opsec fail,” as it’s known, happens when someone’s data leaks because they didn’t think of a method an attacker could use to access it, or they didn’t carry out the procedure that was meant to protect against that particular theft strategy. Relying solely on these encrypted messaging tools without considering how they work, and without adding other, additional protections, leaves some paths exposed.

    “Good opsec will save you from bad crypto, but good crypto won’t save you from bad opsec,” says Kenn White, director of the Open Crypto Audit Project, referencing a classic warning from security researcher The Grugq. “It’s easy for people to be confused.”

    The stakes are especially high in government, where encrypted chat apps and disappearing message features are increasingly popular among officials. Just last week, sources told CNBC that investigators for special counsel Robert Mueller have been asking witnesses to voluntarily grant access to their encrypted messaging apps, including Dust, Confide, WhatsApp, and Signal. CNBC reported that witnesses have cooperated to avoid being subpoenaed.

    Several encrypted messaging apps offer a disappearing message feature to help ensure that neither you nor the person you’re chatting with keeps data around longer than necessary. But even this precaution needs to come with the understanding that the service you’re using could fail to actually delete the messages you mark for erasure from their servers. Signal had a recent problem, first reported by Motherboard, where a fix for one bug inadvertently created another that failed to delete a set of messages users had set to disappear. The app quickly resolved the issue, but the situation serves as a reminder that all systems have flaws.

    “Encrypted communication apps are tools, and just like any other tool, they have limited uses,” says Eva Galperin, director of cybersecurity at the Electronic Frontier Foundation.

    In fact, simply choosing an encrypted messaging service may cary unknown risks. Some services like Confide and Telegram haven’t allowed an independent auditor to evaluate their cryptography, meaning it’s difficult to know how trustworthy they are, which of their promises they keep, and what user data they actually retain. And iMessage may collect more metadata than you think.

    Signal, WIRED’s secure messaging recommendation, is open source, but it also proved its trustworthiness in a 2016 case where the service was subpoenaed. Developer Open Whisper Systems responded to a grand jury subpoena saying it could only produce the time an account was created and the most recent date that a user’s Signal app connected to its servers. The court had asked for significantly more detail like user names, addresses, telephone numbers, and email addresses. Signal had retained none of it.

    While end-to-end encryption is a vital privacy protection that can thwart many types of surveillance, you still need to understand the other avenues a government or attacker could take to obtain chat logs. Even when a service works perfectly factors like where messages are stored, who else has received them, and who else has access to devices that contain them play an important role in your security. If you’re using encrypted chat apps as one tool in your privacy and security toolbox, more power to you. If you’re relying on it as a panacea, you’re more at risk than you realize.

    Lily Hay Newman - 06.14.18

    https://www.wired.com/story/ditch-all-those-other-messaging-apps-heres-why-you-should-use-signal
    https://www.wired.com/story/encrypt-all-of-the-things
    https://www.washingtonpost.com/news/powerpost/paloma/the-cybersecurity-202/2018/06/06/the-cybersecurity-202-paul-manafort-s-case-may-undermine-the-fbi-s-encryption-argument/5b16ae5e1b326b08e8839150
    https://blogsofwar.com/hacker-opsec-with-the-grugq
    https://www.cnbc.com/2018/06/06/mueller-team-zeroes-in-on-encrypted-apps-as-witness-turn-in-phones.html
    https://motherboard.vice.com/en_us/article/bj3pxd/signal-disappearing-messages-not-disappearing
    https://theintercept.com/2016/09/28/apple-logs-your-imessage-contacts-and-may-share-them-with-police
    https://www.wired.com/story/ditch-all-those-other-messaging-apps-heres-why-you-should-use-signal
    https://www.aclu.org/blog/national-security/secrecy/new-documents-reveal-government-effort-impose-secrecy-encryption?redirect=blog/free-future/new-documents-reveal-government-effort-impose-secrecy-encryption-company

    #vie_privée #messagerie_chiffrée #protection_des_données_personnelles #autodéfense_numérique #cryptography #chiffrement #Signal #gnupg

  • Libre et Humain à l’ère d’internet

    Un livre numérique pour comprendre pourquoi et comment protéger sa #vie_privée sur #internet. Une question essentielle aujourd’hui !


    https://etikya.fr/produit/libre-et-humain-a-lere-dinternet
    #protection_DeS_données #surveillance #manuel #profilage #profilage_de_masse #données #big_data #démocratie #liberté #solutions

    Le #livre peut être téléchargé ici :
    https://espritcreateur.net/wp-content/uploads/2018/02/Extrait-Libre-et-humain-%C3%A0-l%C3%A8re-dinternet.pdf

    Et à écouter...

    Entretien avec #Amélie_Delalain, co-auteure avec Héloïse Pierre, de l’E-Book « Libre et Humain à l’ère d’Internet »

    http://audioblog.arteradio.com/post/3084170/libre_et_humain_a_l_ere_d_internet

  • Potential expansion of #Eurodac #database scope raises data protection concerns

    The Civil Liberties, Justice and Home Affairs (LIBE) Committee of the European Parliament has adopted a report on the European Commission proposal to recast the Eurodac Regulation. It outlines a wide expansion of the scope of the Eurodac database that raises strong concerns about data protection.

    https://www.ecre.org/potential-expansion-of-eurodac-database-scope-raises-data-protection-concerns
    #surveillance #données #protection_des_données #Europe #UE #EU #base_de_données

  • Epidemium : lutter contre le cancer avec le #big_data - EchoSciences
    http://alireailleurs.tumblr.com/post/132593994673

    EchoSciences revient sur le lancement d’Epidemium (@edpidemium_cc) - un programme de recherche scientifique participatif et ouvert sous forme de concours dédié à la compréhension du cancer grâce aux Big Data - lancé ce jour par La Paillasse. L’enjeu : initier des équipes de recherche pluridisciplinaires sur le thème des données appliquées à l’épidémiologie du cancer. Si on ne sait pas encore quelles données permettront aux équipes d’imaginer de nouvelles analyses, l’article d’EchoSciences dresse un rapide point sur quelques-unes des bases de données existantes. “Il existe CancerLinQ, une grande base de données qui regroupe les informations sur tous les patients atteints du cancer aux Etats-Unis (y compris les tests laboratoires, les notes des médecins etc.), qui reste ouverte aux analyses de médecins et de (...)

    #santé #vie_privée #Protection_des_données_personnelles

  • Le Safe Harbour prend l’eau – et après ?
    https://reflets.info/le-safe-harbour-prend-leau-et-apres

    La #Justice européenne vient de rendre un arrêt qui ouvre une nouvelle brèche a préoccupante pour le modèle économique des mastodontes de l’internet. La Cour de justice de l’UE, sise au Luxembourg (CJUE), vient en effet d’invalider un des piliers du libre échange de données personnelles entre les #USA et l’Europe. C’est ce cadre juridique, […]

    #Technos #Protection_des_données_personnelles #Réseaux_sociaux #Union_Européenne #VIe_Privée

  • Internet et #VIe_Privée : la vidéo à double tranchant
    https://reflets.info/internet-et-vie-privee-la-video-a-double-tranchant

    C’est une vidéo étonnante, à double tranchant. Les uns y verront un moyen de mettre en garde les citoyens contre leur tendance à prendre le réseau pour une grande agora où ils peuvent étaler leur vie privée, un espace avec lequel ils s’amusent sans jamais pouvoir imaginer qu’il faut y protéger sa vie privée. Les […]

    #Breves #Le_radar_de_Reflets.info #défense_des_libertés_numériques #protection_de_la_vie_privée #Protection_des_données_personnelles #surveillance_Internet

  • Retour au #Moteur_de_recherche #Startpage
    http://www.dsfc.net/internet/moteurs-internet/moteur-de-recherche-startpage

    Avec Searx, Startpage est un des rares #Moteurs de recherche à vous garantir un très haut niveau de protection de vos données personnelles.

    Autres lectures sur le thèmeDuckDuckGo soumis aux lois américaines !Punir #Google par une fesséeTracking : Ghostery ou Disconnect ?

    #Confidentialité_des_données_personnelles #Moteurs_de_recherche #Protection_des_données_personnelles #Trackin