• Les #outils_numériques de l’#humanitaire sont-ils compatibles avec le respect de la #vie_privée des #réfugiés ?

    Pour gérer les opérations humanitaires dans le camp de réfugiés syriens de #Zaatari en #Jordanie, les ONG ont mis en place des outils numériques, mais l’#innovation a un impact sur le personnel humanitaire comme sur les réfugiés. Travailler sur ce camp ouvert en 2012, où vivent 76 000 Syriens et travaillent 42 ONG, permet de s’interroger sur la célébration par le monde humanitaire de l’utilisation de #nouvelles_technologies pour venir en aide à des réfugiés.

    Après plusieurs années d’observation participative en tant que chargée d’évaluation pour une organisations non gouvernementales (ONG), je suis allée plusieurs fois à Amman et dans le camp de Zaatari, en Jordanie, entre 2017 et 2018, pour rencontrer des travailleurs humanitaires de 13 organisations différentes et agences de l’Onu et 10 familles vivant dans le camp, avec l’aide d’un interprète.

    Le camp de Zaatari a été ouvert dès 2012 par le Haut Commissariat aux Réfugiés pour répondre à la fuite des Syriens vers la Jordanie. Prévu comme une « #installation_temporaire », il peut accueillir jusqu’à 120 000 réfugiés. Les ONG et les agences des Nations Unies y distribuent de la nourriture et de l’eau potable, y procurent des soins et proposent un logement dans des caravanes.

    Pour faciliter la #gestion de cet espace de 5,2 km2 qui accueille 76 000 personnes, de très nombreux rapports, cartes et bases de données sont réalisés par les ONG. Les #données_géographiques, particulièrement, sont collectées avec des #smartphones et partagées via des cartes et des #tableaux_de_bord sur des #plateformes_en_ligne, soit internes au camp comme celle du Haut Commissariat des Nations unies pour les réfugiés (HCR), soit ouvertes à tous comme #Open_Street_Map. Ainsi, grâce à des images par satellite, on peut suivre les déplacements des abris des réfugiés dans le camp qui ont souvent lieu la nuit. Ces #mouvements modifient la #géographie_du_camp et la densité de population par zones, obligeant les humanitaires à modifier les services, tel l’apport en eau potable.

    Les réfugiés payent avec leur iris

    Ces outils font partie de ce que j’appelle « l’#humanitaire_numérique_innovant ». Le scan de l’#iris tient une place à part parmi ces outils car il s’intéresse à une partie du #corps du réfugié. Cette donnée biométrique est associée à la technologie de paiement en ligne appelée #blockchain et permet de régler ses achats au #supermarché installé dans le camp par une société jordanienne privée. Avant l’utilisation des #scanners à iris, les réfugiés recevaient une #carte_de_crédit qu’ils pouvaient utiliser dans divers magasins autour du camp, y compris dans des #échoppes appartenant à des réfugiés.

    Ils ne comprennent pas l’utilité pour eux d’avoir changé de système. Nour*, une réfugiée de 30 ans, trouvait que « la #carte_Visa était si facile » et craint de « devenir aveugle si [elle] continue à utiliser [son] iris. Cela prend tellement de temps : “ouvre les yeux”, “regarde à gauche”, etc. ». Payer avec son corps n’a rien d’anecdotique quand on est réfugié dans un camp et donc dépendant d’une assistance mensuelle dont on ne maîtrise pas les modalités. Nisrine, une autre réfugiée, préférait quand « n’importe qui pouvait aller au supermarché [pour quelqu’un d’autre]. Maintenant une [seule] personne doit y aller et c’est plus difficile ». Sans transport en commun dans le camp, se rendre au supermarché est une contrainte physique pour ces femmes.

    Le principal argument des ONG en faveur du développement du scan de l’iris est de réduire le risque de #fraude. Le #Programme_Alimentaire_Mondial (#Pam) contrôle pourtant le genre de denrées qui peuvent être achetées en autorisant ou non leur paiement avec la somme placée sur le compte des réfugiés. C’est le cas par exemple pour des aliments comme les chips, ou encore pour les protections hygiéniques. Pour ces biens-là, les réfugiés doivent compléter en liquide.

    Des interactions qui changent entre le personnel humanitaire et les réfugiés

    Les effets de ces #nouvelles_technologies se font aussi sentir dans les interactions entre le personnel du camp et les réfugiés. Chargés de collecter les #données, certains humanitaires doivent régulièrement interroger des jeunes hommes venant de zones rurales limitrophes (qui forment la majorité des réfugiés) sur leur hygiène ou leurs moyens de subsistance. Cela leur permet de créer des #indicateurs pour classer les réfugiés par catégories de #vulnérabilité et donc de #besoins. Ces interactions sont considérées par les réfugiés comme une intrusion dans leur espace de vie, à cause de la nature des questions posées, et sont pourtant devenues un des rares moments d’échanges entre ceux qui travaillent et vivent dans le camp.

    Le #classement des ménages et des individus doit se faire de manière objective pour savoir qui recevra quoi, mais les données collectées sont composites. Difficile pour les responsables de projets, directement interpellés par des réfugiés dans le camp, d’assumer les choix faits par des logiciels. C’est un exercice mathématique qui décide finalement de l’#allocation de l’aide et la majorité des responsables de programmes que j’ai interrogés ne connaissent pas son fonctionnement. Le processus de décision est retiré des mains du personnel humanitaire.

    Aucune évaluation de la #protection_des_données n’a été réalisée

    La vie privée de cette population qui a fui la guerre et trouvé refuge dans un camp est-elle bien protégée alors que toutes ces #données_personnelles sont récoltées ? Le journal en ligne The New Humanitarian rapportait en 2017 une importante fuite de données de bénéficiaires du Pam en Afrique de l’Ouest, détectée par une entreprise de protection de la donnée (https://www.thenewhumanitarian.org/investigations/2017/11/27/security-lapses-aid-agency-leave-beneficiary-data-risk). En Jordanie, les #données_biométriques de l’iris des réfugiés circulent entre une banque privée et l’entreprise jordanienne qui exploite le supermarché, mais aucune évaluation de la protection des données n’a été réalisée, ni avant ni depuis la mise en œuvre de cette #innovation_technologique. Si la protection des données à caractère personnel est en train de devenir un objet de légalisation dans l’Union européenne (en particulier avec le Règlement Général sur la Protection des Données), elle n’a pas encore été incluse dans le #droit_humanitaire.

    De la collecte de données sur les pratiques d’hygiène à l’utilisation de données biométriques pour la distribution de l’#aide_humanitaire, les outils numériques suivent en continu l’histoire des réfugiés. Non pas à travers des récits personnels, mais sur la base de données chiffrées qui, pense-t-on, ne sauraient mentir. Pour sensibiliser le public à la crise humanitaire, les équipes de communication des agences des Nations Unies et des ONG utilisent pourtant des histoires humaines et non des chiffres.

    Les réfugiés eux-mêmes reçoivent peu d’information, voire aucune, sur ce que deviennent leurs données personnelles, ni sur leurs droits en matière de protection de données privées. La connexion Internet leur est d’ailleurs refusée, de peur qu’ils communiquent avec des membres du groupe État Islamique… La gestion d’un camp aussi vaste que celui de Zaatari bénéficie peut-être de ces technologies, mais peut-on collecter les #traces_numériques des activités quotidiennes des réfugiés sans leur demander ce qu’ils en pensent et sans garantir la protection de leurs données personnelles ?

    http://icmigrations.fr/2020/01/16/defacto-015-01

    #camps_de_réfugiés #numérique #asile #migrations #camps #surveillance #contrôle #biométrie #privatisation

    ping @etraces @reka @karine4 @isskein

  • Studie “Das Smartphone, bitte! Digitalisierung von Migrationskontrolle in Deutschland und Europa”

    27. December 2019 by Daniela Turß

    Handydatenauswertung bei Geflüchteten ist teuer, unzuverlässig und gefährlich.

    Cover der Studie „Das Smartphone, bitte! Digitalisierung von Migrationskontrolle in Deutschland und Europa“

    Die Studie „Das Smartphone, bitte! Digitalisierung von Migrationskontrolle in Deutschland und Europa“ befasst sich mit der im Jahr 2017 eingeführten Analyse elektronischer Datenträger durch das BAMF. Wenn eine asylsuchende Person weder Pass noch Passersatzdokument vorweisen kann, ist die Behörde dazu berechtigt, ihr Smartphone auszuwerten, um Hinweise auf Identität und Herkunft zu erhalten. Diese Praxis verletzt das Grundrecht auf Vertraulichkeit und Integrität informationstechnischer Systeme von zigtausenden Menschen – für wenig aussagekräftige Ergebnisse.

    Seit der Einführung des Verfahrens im Jahr 2017 hat das BAMF hochgerechnet etwa 20.000 Mobiltelefone von Asylsuchenden ausgelesen und über 11 Millionen Euro in dieses Verfahren investiert. Im Zeitraum Januar 2018 bis Juni 2019 scheiterte das Auslesen in etwa einem Viertel der Fälle bereits an technischen Problemen. Nur in 1-2 % der verwertbaren Auswertungen fanden sich Widersprüche zu den Angaben, die die Asylsuchenden selbst in ihren Befragungen gemacht hatten.

    Für die Studie wertete die Journalistin Anna Biselli und die Juristin Lea Beckmann einen umfangreichen Quellenbestand aus, darunter Ergebnisberichte von Datenträgerauswertungen, Asylakten, interne Dienstanweisungen, Handbücher und Schulungsunterlagen des BAMF und Dokumente aus dem Gesetzgebungsverfahren. Zudem führten die Autorinnen Hintergrundgespräche mit Geflüchteten, Anwält*innen und Rechtswissenschaftler*innen, Verfahrensberatungsstellen und Menschenrechtsorganisationen in Deutschland und anderen Ländern Europas.

    https://freiheitsrechte.org/studie-handydatenauswertung

    –-> Studie: https://freiheitsrechte.org/home/wp-content/uploads/2019/12/GFF-Studie_Digitalisierung-von-Migrationskontrolle.pdf

    #migration #smartphone #Allemagne #BAMF #Europe #identité #numérisation #contrôle #étude

  • EU-Asylbehörde beschattete Flüchtende in sozialen Medien

    Die EU-Agentur EASO überwachte jahrelang soziale Netzwerke, um Flüchtende auf dem Weg nach Europa zu stoppen. Der oberste Datenschützer der EU setzte dem Projekt nun ein Ende.

    Das EU-Asylunterstützungsbüro EASO hat jahrelang in sozialen Medien Informationen über Flüchtende, Migrationsrouten und Schleuser gesammelt. Ihre Erkenntnisse meldete die Behörde mit Sitz in Malta an EU-Staaten, die Kommission und andere EU-Agenturen. Die Ermittlungen auf eigene Faust sorgen nun für Ärger mit EU-Datenschützern.

    Mitarbeiter von EASO durchforsteten soziale Medien seit Januar 2017. Ihr Hauptziel waren Hinweise auf neue Migrationsbewegungen nach Europa. Die EU-Behörde übernahm das Projekt von der UN-Organisation UNHCR, berichtete EASO damals in einem Newsletter.

    Die Agentur durchsuchte einschlägige Seiten, Kanäle und Gruppen mit der Hilfe von Stichwortlisten. Im Fokus standen Fluchtrouten, aber auch die Angebote von Schleusern, gefälschte Dokumente und die Stimmung unter den Geflüchteten, schrieb ein EASO-Sprecher an netzpolitik.org.

    Das Vorläuferprojekt untersuchte ab März 2016 Falschinformationen, mit denen Schleuser Menschen nach Europa locken. Es entstand als Folge der Flüchtlingsbewegung 2015, im Fokus der UN-Mitarbeiter standen Geflüchtete aus Syrien, dem Irak und Afghanistan.

    Flüchtende informierten sich auf dem Weg nach Europa über soziale Netzwerke, heißt es im Abschlussbericht des UNHCR. In Facebook-Gruppen und Youtube-Kanälen bewerben demnach Schleuser offen ihr Angebot. Sie veröffentlichten auf Facebook-Seiten sogar Rezensionen von zufriedenen „Kunden“, sagten Projektmitarbeiter damals den Medien.
    Fluchtrouten und Fälschungen

    Die wöchentlichen Berichte von EASO landeten bei den EU-Staaten und Institutionen, außerdem bei UNHCR und der Weltpolizeiorganisation Interpol. Die EU-Staaten forderten EASO bereits 2018 auf, Hinweise auf Schleuser an Europol zu übermitteln.

    Die EU-Agentur überwachte Menschen aus zahlreichen Ländern. Beobachtet wurden Sprecher des Arabischen und von afghanischen Sprachen wie Paschtunisch und Dari, aber auch von in Äthiopien und Eritrea verbreiteten Sprachen wie Tigrinya und Amharisch, das in Nigeria gesprochene Edo sowie etwa des Türkischen und Kurdischen.

    „Das Ziel der Aktivitäten war es, die Mitgliedsstaaten zu informieren und den Missbrauch von Schutzbedürftigen zu verhindern“, schrieb der EASO-Sprecher Anis Cassar.
    Als Beispiel nannte der Sprecher den „Konvoi der Hoffnung“. So nannte sich eine Gruppe von hunderte Menschen aus Afghanistan, Iran und Pakistan, die im Frühjahr 2019 an der griechisch-bulgarischen Grenze auf Weiterreise nach Europa hofften.

    Die griechische Polizei hinderte den „Konvoi“ mit Tränengasgranaten am Grenzübertritt. Die „sehr frühe Entdeckung“ der Gruppe sei ein Erfolg des Einsatzes, sagte der EASO-Sprecher.
    Kein Schutzschirm gegen Gräueltaten

    Gräueltaten gegen Flüchtende standen hingegen nicht im Fokus von EASO. In Libyen werden tausende Flüchtende unter „KZ-ähnlichen Zuständen“ in Lagern festgehalten, befand ein interner Bericht der Auswärtigen Amtes bereits Ende 2017.

    Über die Lage in Libyen dringen über soziale Medien und Messengerdienste immer wieder erschreckende Details nach außen.

    Die EU-Agentur antwortete ausweichend auf unsere Frage, ob ihre Mitarbeiter bei ihrem Monitoring Hinweise auf Menschenrechtsverletzungen gefunden hätten.

    „Ich bin nicht in der Lage, Details über die Inhalte der tatsächlichen Berichte zu geben“, schrieb der EASO-Sprecher. „Die Berichte haben aber sicherlich dazu beigetragen, den zuständigen nationalen Behörden zu helfen, Schleuser ins Visier zu nehmen und Menschen zu retten.“

    Der Sprecher betonte, das EU-Asylunterstützungsbüro sei keine Strafverfolgungsbehörde oder Küstenwache. Der Einsatz habe bloß zur Information der Partnerbehörden gedient.
    Datenschützer: Rechtsgrundlage fehlt

    Der oberste EU-Datenschützer übte heftige Kritik an dem Projekt. Die Behörde kritisiert, die EU-Agentur habe sensible persönliche Daten von Flüchtenden gesammelt, etwa über deren Religion, ohne dass diese informiert worden seien oder zugestimmt hätten.

    Die Asylbehörde habe für solche Datensammelei keinerlei Rechtsgrundlage, urteilte der EU-Datenschutzbeauftragte Wojciech Wiewiórowski in einem Brief an EASO im November.

    Die Datenschutzbehörde prüfte die Asylagentur nach neuen, strengeren Regeln für die EU-Institutionen, die etwa zeitgleich mit der Datenschutzgrundverordnung zu gelten begannen.

    In dem Schreiben warnt der EU-Datenschutzbeauftragte, einzelne Sprachen und Schlüsselwörter zu überwachen, könne zu falschen Annahmen über Gruppen führen. Dies wirke unter Umständen diskriminierend.

    Die Datenschutzbehörde ordnete die sofortigen Suspendierung des Projektes an. Es gebe vorerst keine Pläne, die Überwachung sozialer Medien wieder aufzunehmen, schrieb der EASO-Sprecher an netzpolitik.org.

    Die Asylbehörde widersprach indes den Vorwürfen. EASO habe großen Aufwand betrieben, damit keinerlei persönliche Daten in ihren Berichten landeten, schrieb der Sprecher.

    Anders sieht das der EU-Datenschutzbeauftragte. In einem einzigen Bericht, der den Datenschützern als Beispiel übermittelt wurde, fanden sie mehrere E-Mailadressen und die Telefonnummer eines Betroffenen, schrieben sie in dem Brief an EASO.

    EASO klagte indes gegenüber netzpolitik.org über die „negativen Konsequenzen“ des Projekt-Stopps. Dies schade den EU-Staaten in der Effektivität ihrer Asylsysteme und habe womöglich schädliche Auswirkungen auf die Sicherheit von Migranten und Asylsuchenden.
    Frontex stoppte Monitoring-Projekt

    Die EU-Asylagentur geriet bereits zuvor mit Aufsehern in Konflikt. Im Vorjahr ermittelte die Antikorruptionsbehörde OLAF wegen Mobbing-Vorwürfen, Verfehlungen bei Großeinkäufen und Datenschutzverstößen.

    Auf Anfrage von netzpolitik.org bestätigte OLAF, dass „Unregelmäßigkeiten“ in den genannten Bereichen gefunden wurden. Die Behörde wollte aber keine näheren Details nennen.

    EASO ist nicht die einzige EU-Behörde, die soziale Netzwerke überwachen möchte. Die Grenzagentur Frontex schrieb im September einen Auftrag über 400.000 Euro aus. Ziel sei die Überwachung von sozialen Netzwerken auf „irreguläre Migrationsbewegungen“.

    Kritische Nachfragen bremsten das Projekt aber schon vor dem Start. Nach kritischen Nachfragen der NGO Privacy International blies Frontex das Projekt ab. Frontex habe nicht erklären können, wie sich die Überwachung mit dem Datenschutz und dem rechtlichen Mandat der Organisation vereinen lässt, kritisierte die NGO.

    https://netzpolitik.org/2019/eu-asylbehoerde-beschattete-fluechtende-in-sozialen-medien#spendenleist
    #EASO #asile #migrations #réfugiés #surveillance #réseaux_sociaux #protection_des_données #Frontex #données

    –->

    « Les rapports hebdomadaires de l’EASO ont été envoyés aux pays et institutions de l’UE, au #HCR et à l’Organisation mondiale de la police d’#Interpol. Les États de l’UE ont demandé à l’EASO en 2018 de fournir à #Europol des informations sur les passeurs »

    ping @etraces

  • Datenschutzkonferenz: Hohe Hürden für den Einsatz von Windows 10 | heise online
    https://www.heise.de/newsticker/meldung/Datenschutzkonferenz-Hohe-Huerden-fuer-den-Einsatz-von-Windows-10-4584678.html

    En Allemagnee la législation en vigeur le rend pratiquement impossible d’utiliser Microsoft Windows 10 d’une manière légale. Les responsables pour la protection des données auprès des gouvernements des Länder viennent d’adopter cette position et la soutiennent dans un papier intutulé Datenschutz bei Windows 10 – Prüfschema .

    Voici le lien vers le texte : https://tlfdi.de/mam/tlfdi/gesetze/orientierungshilfen/beschluss_zu_top_13_win10_prufschema.pdf

    12.11.2019 von Stefan Krempl

    Die Aufsichtsbehörden haben ein Prüfschema für das Microsoft-Betriebssystem veröffentlicht. Nur bei einem tragbaren Restrisiko kann dieses verwendet werden.

    Die Datenschutzbeauftragten von Bund und Ländern sehen wenig Spielraum, Microsofts Betriebssystem Windows 10 rechtskonform zu nutzen. „Es ist zunächst Aufgabe des Verantwortlichen sicherzustellen und zu dokumentieren, dass die datenschutzrechtlichen Anforderungen beim Einsatz von Windows 10 jederzeit eingehalten werden“, schreiben sie in einem jetzt veröffentlichten Prüfschema. Dabei gelte es darauf zu achten, ob und gegebenenfalls „welche personenbezogenen Daten an Microsoft übermittelt werden“ und ob für diese Transfers eine Rechtsgrundlage vorliege.

    Praktisch ist dies aber eine kaum zu leistende Aufgabe, räumt die Datenschutzkonferenz (DSK) in dem Papier ein. Verschiedene Untersuchungen zeigten, dass es aktuell nicht möglich sei, die Übertragung insbesondere von Telemetrie-Daten „durch Konfiguration von Windows10 vollständig zu unterbinden“. Da die Transfers verschlüsselt erfolgten, „liegen keine detaillierten Erkenntnisse über die Natur der übertragenen Daten von einer unabhängigen Stelle vor“. Es müssten daher „technische Maßnahmen zur Verhinderung einer unbefugten Übermittlung zum Einsatz kommen“.
    Mit jedem Update erneute Prüfung?

    Zudem sei „wegen des fortlaufenden Veränderns und Hinzufügens von Funktionalität“ durch Microsoft ebenso fortlaufend zu überwachen, „ob anlässlich eines Updates eine erneute Prüfung durchgeführt werden muss“. Prinzipiell sei etwa laut der DSGVO der Grundsatz der Datenminimierung zu beachten. Stellt sich ein Transfer als unzulässig heraus, habe dieser „zu unterbleiben“, was „mit geeigneten und angemessenen Maßnahmen“ sichergestellt werden müsse. Daneben sei zu beachten, dass Microsoft Daten in die USA schicke und damit in „ein Drittland“ außerhalb der EU. Die DSK weist darauf hin, dass gegen die Rechtmäßigkeit des für diese Übertragungen genutzten Privacy Shields Bedenken bestünden und Klagen liefen.

    Das Resümee der Kontrolleure: Nur wenn „das Restrisiko“ durch die Implementierung der skizzierten Maßnahmen „tragbar ist“, könnten das Betriebssystem beziehungsweise bestimmte Funktionen davon zum Einsatz kommen. Generell lasse sich die Frage, ob Windows 10 datenschutzkonform ist, angesichts der Vielfalt der Editionen, Versionen, Funktionalitäten und vorgenommener Konfigurationen nicht beantworten. Jeder Anwender müsse seine Installation selbst prüfen. Sollten dabei etwa auch Beschäftigtendaten verarbeitet werden, müssten zusätzlich besondere Rechtsvorschriften beachtet werden.
    Kennzeichen-Scanning gerügt

    Die DSK rügt zudem die „exzessive Nutzung“ von Systemen zum Kfz-Kennzeichen-Scanning durch Strafverfolger als „Verstoß gegen das Grundgesetz“. Damit werde auch das Recht auf informationelle Selbstbestimmung der Bürger verletzt. Die Aufseher fordern die Polizeibehörden und Staatsanwaltschaften auf, „die umfassende und unterschiedslose Erfassung, Speicherung und Auswertung von Kraftfahrzeugen“ zu unterlassen und die rechtswidrig gespeicherten Daten zu löschen. In weiteren Entschließungen sprechen sich die Beauftragten etwa gegen eine Weitergabe sensibler Daten an unbefugte Dritte durch Gesundheits-Apps aus und geben Hinweise zum Einsatz von KI-Systemen in Betrieben und von Messengern im Krankenhausbereich.

    Titel: Datenschutz bei Windows 10 – Prüfschema – Version 1.0
    Herausgeber: Konferenz der unabhängigen Datenschutzbehörden des Bundes und der Länder
    Edition und Redaktion: AK Technik der Konferenz der unabhängigen Datenschutzbehörden des Bundes und der Länder
    Ansprechpartner/Autoren: Rasmus Robrahn, Dr. Martin Krämer, Dr. Christoph Lahmann und Uwe Robra (Die Landesbeauftragte für den Datenschutz Niedersachsen)

    #Allemagne #droit #sécurité #vie_privée #protection_des_données

  • #Visas : les ratés de la #sous-traitance à des #sociétés_privées

    En quelques années, la #France a généralisé la #délégation à des entreprises privées de ses services de délivrance des visas. Difficultés à obtenir un rendez-vous, bugs informatiques, surcoût : les demandeurs se plaignent de nombreux dysfonctionnements résultant de cette nouvelle donne, qui, par ailleurs, pose de sérieuses questions en matière de #protection_des_données personnelles.

    https://www.mediapart.fr/journal/international/021119/visas-les-rates-de-la-sous-traitance-des-societes-privees
    #migrations #privatisation #VFS_global
    ping @etraces

  • 5G : « Les Etats-Unis ont peur de perdre leur prééminence technologique »
    https://usbeketrica.com/article/5g-les-etats-unis-ont-peur-de-perdre-leur-preeminence-technologique

    « La 5G est un enjeu géopolitique qui a peut-être été non-assumé au départ (...) toute la difficulté est de savoir si c’est une guerre commerciale avec un simple volet technologique, ou si la guerre commerciale est un paravent à une rivalité technologique exacerbée entre Chinois et Américains (...) Le positionnement des autorités américaines est notamment lié à la montée en gamme de Huawei en matière de smartphones et de pose de câbles sous-marins. La crainte des Américains de perdre leur prééminence technologique est particulièrement élevée. »

    « Le matériel résidentiel chez Orange, SFR ou Bouygues, c’est du Huawei (...) En Pologne, tout le réseau mobile d’Orange est d’origine Huawei. Est-ce que ça veut dire qu’il est plus à risque qu’un réseau Nokia ou Alcatel ? La réalité, c’est qu’on ne peut pas le savoir pour l’instant... »

    #5G #technologie #Huawei #protection_des_données

  • Berne identifie les réfugiés grâce à leur portable

    Le Secrétariat d’Etat aux migrations contrôle l’identité des requérants d’asile grâce aux données de leur téléphone, ce que dénonce une organisation d’aide aux réfugiés.

    Nombreux sont les requérants d’asile qui ne peuvent pas prouver leur identité. Dans le cadre d’un projet pilote, le Secrétariat d’Etat aux migrations (#SEM) a contrôlé les téléphones mobiles et les ordinateurs portables des réfugiés pour vérifier leur identité. « Une atteinte à la vie privée », dénonce l’Organisation suisse d’aide aux réfugiés (OSAR)

    Le SEM a examiné 565 appareils et leurs données de novembre 2017 à mai 2018, sur une base volontaire de requérants d’asile arrivés dans les centres de Chiasso (TI) et de Vallorbe (VD). Dans 15% des cas, des informations utiles sur l’identité ou l’#itinéraire des réfugiés ont été trouvées. Le porte-parole du SEM Daniel Bach a confirmé l’existence d’un rapport interne sur ce projet pilote, comme l’ont rapporté samedi des journaux du groupe Tamedia.

    Base volontaire

    Daniel Bach s’est contenté d’expliquer que les résultats du projet pilote ont montré que ces contrôles « peuvent fournir des informations complémentaires importantes sur l’origine et l’identité des requérants d’asile ainsi que sur l’itinéraire de leur voyage ». Le porte-parole a souligné que les fouilles des téléphones mobiles et ordinateurs portables avaient été effectuées sur une base volontaire et que la protection des données personnelles avait été garantie à tout moment.

    Selon lui, jusqu’à trois quarts des demandeurs d’asile en Suisse ne peuvent prouver leur identité avec des papiers d’identité officiels. Dans certains pays, il n’y a pas d’acte de naissance et les gens n’ont pas de papiers d’identité. Les passeports des réfugiés sont aussi souvent confisqués en cours de route par des trafiquants ou d’autres groupes criminels. Les personnes sauvées en mer peuvent aussi avoir perdu leurs papiers d’identité en cours de périple.

    L’OSAR critique

    L’Organisation suisse d’aide aux réfugiés (OSAR) a vivement critiqué ce projet pilote de contrôle systématique des #données_téléphoniques et informatiques privées des demandeurs d’asile. « On ne sait pas si les autorités vont pas utiliser ces données à d’autres fins que la seule vérification de l’identité », s’interroge la porte-parole de l’OSAR Eliane Engeler à l’agence Keystone-ATS.

    « Du point de vue de la #protection_des_données, ce projet est hautement contestable et implique une atteinte draconienne à la #vie_privée des personnes concernées », dénonce-t-elle. « Le droit pénal réglemente de manière très restrictive la fouille des données des téléphones portables. Les smartphones de criminels présumés ne peuvent être analysés qu’en cas de violations graves de la loi et de suspicion justifiée », souligne-t-elle.

    Base juridique nécessaire

    Pour sa part, le porte-parole du SEM estime qu’une base juridique n’est nécessaire que pour tous les contrôles qui ne sont pas effectués avec l’assentiment du requérant d’asile. Un projet d’évaluation des données des réfugiés est actuellement en cours d’examen au Parlement. Selon les journaux Tamedia, la commission des institutions politiques (CIP) du Conseil national doit prendre une décision prochainement.

    En juin 2018, la CI du Conseil des Etats avait soutenu par 9 voix contre 1 une initiative parlementaire de l’UDC. Celle-ci demandait que les autorités puissent contrôler les téléphones mobiles des requérants d’asile si c’est le seul moyen pour établir leur identité. Avec ce feu vert, la commission du Conseil national a ainsi pu élaborer un projet concret.

    https://www.letemps.ch/suisse/berne-identifie-refugies-grace-portable
    #smartphone #téléphone_portable #Suisse #surveillance #contrôle #réfugiés #asile #migrations

    ping @etraces

  • Régulation du numérique : comment la Californie veut contrer Washington
    https://www.latribune.fr/technos-medias/internet/regulation-du-numerique-comment-la-californie-veut-contrer-washington-8070

    Au fil de trois lois différentes encadrant les pratiques en ligne, le « Golden State » s’est doté en 2018 d’un dispositif juridique sans pareil dans le reste du pays. #Protection_des_données, *neutralité_du_Net, régulation de l’intelligence artificielle : la Californie prend le contre-pied de la ligne officielle à Washington, alors que l’administration Trump était tentée jusqu’ici de déréguler la Toile.

    À coup d’ambitieux projets de loi, la Californie semble déterminée à redéfinir les règles en vigueur sur Internet. Tandis que le gouvernement fédéral prend le parti de déréguler, comme l’illustre la suppression de la loi sur la neutralité du Net, le « Golden State » fait le pari inverse, allant parfois jusqu’à défier ouvertement l’administration Trump. Tout a commencé en juin 2018, lorsque le Golden State a adopté le California Consumer Privacy Act de 2018. Cette loi, qui entrera en application le 1er janvier 2020, est largement inspirée du #RGPD européen, dont elle reprend les grandes lignes : plus grand contrôle des internautes sur leurs données personnelles, possibilité de refuser qu’elles soient employées à des fins commerciales, protections supplémentaires concernant les données des mineurs.

    La Californie ne s’est toutefois pas arrêtée en si bon chemin, et en septembre 2018, le gouverneur Jerry Brown a signé une autre loi encadrant le comportement des « #bots », ces intelligences artificielles conversationnelles simples. Cette régulation, qui prendra effet le 1er juillet 2019, oblige les bots à s’identifier lorsqu’ils communiquent avec des humains en ligne. L’objectif : empêcher que ces agents virtuels ne soient utilisés pour manipuler leurs interlocuteurs en se faisant passer pour des humains, que ce soit à des fins commerciales (vendre un produit) ou politiques (influencer une élection).

    Mais la mesure la plus forte est sans aucun doute celle qui concerne la neutralité du Net, ratifiée en septembre dernier par le gouverneur Jerry Brown. Cette loi, la plus stricte du territoire américain, interdit aux fournisseurs Internet de bloquer ou ralentir les contenus, et de favoriser la bande passante de certains sites ou services au détriment d’autres. Elle restaure dans les grandes lignes la loi sur la neutralité du Net instaurée par Barack Obama en 2015, et abrogée par l’administration Trump en décembre 2017.

  • #Solid : le projet de l’inventeur du World Wide Web pour reprendre possession de ses #données_personnelles

    On présente souvent Sir Tim Berners-Lee comme étant « l’inventeur d’Internet ». L’homme est en fait l’inventeur du World Wide Web et du langage HTML. Fervent défenseur de la neutralité du net, et d’une certaine liberté face au pouvoir grandissant des GAFA, il vient de lancer un tout nouveau projet dédié à la reprise en main des données personnelles. Le projet Solid vise à décentraliser #Internet, et à reprendre le pouvoir aux GAFA. Cette reprise en main passe par les données personnelles qui sont le coeur du business des géants du web. Si la plateforme arrive à séduire les développeurs, et les utilisateurs, elle pourrait radicalement changer la face d’Internet.

    https://www.blogdumoderateur.com/solid-le-projet-de-linventeur-du-world-wide-web-pour-reprendre-pos
    #protection_des_données

    ping @fil

  • Bots at the Gate A Human Rights Analysis of Automated Decision. Making in Canada’s Immigration and Refugee System

    A new report from the Citizen Lab and the International Human Rights Program at the University of Toronto’s Faculty of Law investigates the use of artificial intelligence and automated decision-making in Canada’s immigration and refugee systems. The report finds that use of automated decision-making technologies to augment or replace human judgment threatens to violate domestic and international human rights law, with alarming implications for the fundamental human rights of those subjected to these technologies.

    The ramifications of using automated decision-making in the sphere of immigration and refugee law and policy are far-reaching. Marginalized and under-resourced communities such as residents without citizenship status often have access to less robust human rights protections and less legal expertise with which to defend those rights. The report notes that adopting these autonomous decision-making systems without first ensuring responsible best practices and building in human rights principles at the outset may only exacerbate pre-existing disparities and can lead to rights violations including unjust deportation.

    Since at least 2014, Canada has been introducing automated decision-making experiments in its immigration mechanisms, most notably to automate certain activities currently conducted by immigration officials and to support the evaluation of some immigrant and visitor applications. Recent announcements signal an expansion of the uses of these technologies in a variety of immigration decisions that are normally made by a human immigration official. These can include decisions on a spectrum of complexity, including whether an application is complete, whether a marriage is “genuine”, or whether someone should be designated as a “risk.”

    The report provides a critical interdisciplinary analysis of public statements, records, policies, and drafts by relevant departments within the Government of Canada, including Immigration, Refugees and Citizenship Canada, and the Treasury Board of Canada Secretariat. The report additionally provides a comparative analysis to similar initiatives occurring in similar jurisdictions such as Australia and the United Kingdom. In February, the IHRP and the Citizen Lab submitted 27 separate Access to Information Requests and continue to await responses from Canada’s government.

    The report concludes with a series of specific recommendations for the federal government, the complete and detailed list of which are available at the end of this publication. In summary, they include recommendations that the federal government:

    1. Publish a complete and detailed report, to be maintained on an ongoing basis, of all automated decision systems currently in use within Canada’s immigration and refugee system, including detailed and specific information about each system.

    2. Freeze all efforts to procure, develop, or adopt any new automated decision system technology until existing systems fully comply with a government-wide Standard or Directive governing the responsible use of these technologies.

    3. Adopt a binding, government-wide Standard or Directive for the use of automated decision systems, which should apply to all new automated decision systems as well as those currently in use by the federal government.

    4. Establish an independent, arms-length body with the power to engage in all aspects of oversight and review of all use of automated decision systems by the federal government.

    5. Create a rational, transparent, and public methodology for determining the types of administrative processes and systems which are appropriate for the experimental use of automated decision system technologies, and which are not.

    6. Commit to making complete source code for all federal government automated decision systems—regardless of whether they are developed internally or by the private sector—public and open source by default, subject only to limited exceptions for reasons of privacy and national security.

    7. Launch a federal Task Force that brings key government stakeholders alongside academia and civil society to better understand the current and prospective impacts of automated decision system technologies on human rights and the public interest more broadly.


    https://citizenlab.ca/2018/09/bots-at-the-gate-human-rights-analysis-automated-decision-making-in-canad
    #frontières #surveillance #migrations #catégorisation #tri #Droits_Humains #rapport #Canada #réfugiés #protection_des_données #smart_borders #frontières_intelligentes #algorithme #automatisme
    signalé par @etraces sur seenthis

  • c’t entwickelt datenschutzfreundliche Social-Media-Buttons weiter | heise online
    https://www.heise.de/newsticker/meldung/c-t-entwickelt-datenschutzfreundliche-Social-Media-Buttons-weiter-2466687.html

    Die c’t hat ihre Methode, wie Webseitenbetreiber diese Buttons datenschutzrechtlich unbedenklich einbinden können, jetzt noch einmal verbessert. Der „Shariff“ benötigt nur einen Klick.

    Embetty: Social-Media-Inhalte datenschutzgerecht einbinden | heise online
    https://www.heise.de/newsticker/meldung/Embetty-Social-Media-Inhalte-datenschutzgerecht-einbinden-4060362.html

    heise online hat das Open-Source-Projekt „Embetty“ entwickelt, um Webseiten-Besucher vor dem Datenhunger von Social-Media-Sites zu schützen.

    Share- und Like-Buttons, Tweets, YouTube-Videos oder Facebook-Inhalte bereichern Websites, aber externe Inhalte verraten deren Anbietern normalerweise ungefragt Informationen über die Nutzer. Datenschutz ist heise online wichtig, deshalb haben wir uns Gedanken gemacht, wie sich dieser unkontrollierte Datenabfluss verhindern lässt. Daraus ist das Open-Source-Projekt „Embetty“ entstanden, das unser Web-Team entwickelt hat. Embetty arbeitet als Vermittler, damit die Informationen erst beim Anklicken Socia-Media-Elemente übertragen werden können. So können Website-Betreiber ihre Besucher noch besser vor dem Datenhunger der Social-Media-Plug-ins schützen.

    https://github.com/heiseonline/embetty
    https://www.heise.de/ct/ausgabe/2018-12-Social-Media-Inhalte-datenschutzfreundlich-in-die-Website-einbinden-40

    #sécurité #protection_des_données #protection_de_la_vie_privée

  • Encrypted Messaging Apps Have Limitations You Should Know
    https://www.wired.com/story/encrypted-messaging-isnt-magic

    Encrypted communication used to be too complicated for mainstream use, but approachable apps like WhatsApp and Signal have become a no-brainer for digital privacy. With all of their security-minded features, like disappearing messages and identity-confirming safety numbers, secure chat apps can rightfully give you peace of mind. You should absolutely use them. As the adage goes, though, there’s no such thing as perfect security. And feeling invincible could get you in trouble.

    End-to-end encryption transforms messages into unintelligible chunks of data as soon as a user presses send. From there, the message isn’t reconstituted into something understandable until it reaches the receiver’s device. Along the way, the message is unreadable, protected from prying eyes. It essentially amounts to a bodyguard who picks you up at your house, rides around with you in your car, and walks you to the door of wherever you’re going. You’re safe during the transport, but your vigilance shouldn’t end there.

    “These tools are hugely better than traditional email and things like Slack” for security, says Matthew Green, a cryptographer at Johns Hopkins University. “But encryption isn’t magic. You can easily get it wrong. In particular, if you don’t trust the people you’re talking to, you’re screwed.”

    On one level it’s obvious that both you and the person you’re chatting with have access to the encrypted conversation—that’s the whole point. But it’s easy to forget in practice that people you message with could show the chat to someone else, take screenshots, or retain the conversation on their device indefinitely.

    Former Trump campaign chair Paul Manafort found this out the hard way recently, when the FBI obtained messages he’d sent over WhatsApp from the people who received them.

    In another current investigation, the FBI was able to access Signal messages sent by former Senate Intelligence Committee aide James Wolfe, and had at least some information about the encrypted messaging habits of New York Times reporter Ali Watkins, after the Justice Department seized her communications records as part of a leak investigation. Though it’s unknown how the FBI gained access to these encrypted chats, it wouldn’t necessarily have taken a crypto-breaking backdoor if investigators had device access or records from other chat participants.

    You also need to keep track of how many devices you’ve stored your encrypted messages on. If you sync chats between, say, your smartphone and your laptop, or back them up in the cloud, there are potentially more opportunities for the data to be exposed. Some services, like iMessage and WhatsApp, either have cloud backups enabled by default or nudge users toward it to streamline the user experience. Manafort provides a useful illustration once again; investigators accessed his iCloud to access some of the same information informants gave them, as well as to glean new information about his activity. The chats were encrypted in WhatsApp; the backups were not.

    “Digital systems strew data all over the place,” Green notes. “And providers may keep metadata like who you talked to and when. Encrypted messaging apps are valuable in that they tend to reduce the number of places where your data can live. However, the data is decrypted when it reaches your phone.”

    That’s where operations security comes in, the process of protecting information by looking holistically at all the ways it could be obtained, and defending against each of them. An “opsec fail,” as it’s known, happens when someone’s data leaks because they didn’t think of a method an attacker could use to access it, or they didn’t carry out the procedure that was meant to protect against that particular theft strategy. Relying solely on these encrypted messaging tools without considering how they work, and without adding other, additional protections, leaves some paths exposed.

    “Good opsec will save you from bad crypto, but good crypto won’t save you from bad opsec,” says Kenn White, director of the Open Crypto Audit Project, referencing a classic warning from security researcher The Grugq. “It’s easy for people to be confused.”

    The stakes are especially high in government, where encrypted chat apps and disappearing message features are increasingly popular among officials. Just last week, sources told CNBC that investigators for special counsel Robert Mueller have been asking witnesses to voluntarily grant access to their encrypted messaging apps, including Dust, Confide, WhatsApp, and Signal. CNBC reported that witnesses have cooperated to avoid being subpoenaed.

    Several encrypted messaging apps offer a disappearing message feature to help ensure that neither you nor the person you’re chatting with keeps data around longer than necessary. But even this precaution needs to come with the understanding that the service you’re using could fail to actually delete the messages you mark for erasure from their servers. Signal had a recent problem, first reported by Motherboard, where a fix for one bug inadvertently created another that failed to delete a set of messages users had set to disappear. The app quickly resolved the issue, but the situation serves as a reminder that all systems have flaws.

    “Encrypted communication apps are tools, and just like any other tool, they have limited uses,” says Eva Galperin, director of cybersecurity at the Electronic Frontier Foundation.

    In fact, simply choosing an encrypted messaging service may cary unknown risks. Some services like Confide and Telegram haven’t allowed an independent auditor to evaluate their cryptography, meaning it’s difficult to know how trustworthy they are, which of their promises they keep, and what user data they actually retain. And iMessage may collect more metadata than you think.

    Signal, WIRED’s secure messaging recommendation, is open source, but it also proved its trustworthiness in a 2016 case where the service was subpoenaed. Developer Open Whisper Systems responded to a grand jury subpoena saying it could only produce the time an account was created and the most recent date that a user’s Signal app connected to its servers. The court had asked for significantly more detail like user names, addresses, telephone numbers, and email addresses. Signal had retained none of it.

    While end-to-end encryption is a vital privacy protection that can thwart many types of surveillance, you still need to understand the other avenues a government or attacker could take to obtain chat logs. Even when a service works perfectly factors like where messages are stored, who else has received them, and who else has access to devices that contain them play an important role in your security. If you’re using encrypted chat apps as one tool in your privacy and security toolbox, more power to you. If you’re relying on it as a panacea, you’re more at risk than you realize.

    Lily Hay Newman - 06.14.18

    https://www.wired.com/story/ditch-all-those-other-messaging-apps-heres-why-you-should-use-signal
    https://www.wired.com/story/encrypt-all-of-the-things
    https://www.washingtonpost.com/news/powerpost/paloma/the-cybersecurity-202/2018/06/06/the-cybersecurity-202-paul-manafort-s-case-may-undermine-the-fbi-s-encryption-argument/5b16ae5e1b326b08e8839150
    https://blogsofwar.com/hacker-opsec-with-the-grugq
    https://www.cnbc.com/2018/06/06/mueller-team-zeroes-in-on-encrypted-apps-as-witness-turn-in-phones.html
    https://motherboard.vice.com/en_us/article/bj3pxd/signal-disappearing-messages-not-disappearing
    https://theintercept.com/2016/09/28/apple-logs-your-imessage-contacts-and-may-share-them-with-police
    https://www.wired.com/story/ditch-all-those-other-messaging-apps-heres-why-you-should-use-signal
    https://www.aclu.org/blog/national-security/secrecy/new-documents-reveal-government-effort-impose-secrecy-encryption?redirect=blog/free-future/new-documents-reveal-government-effort-impose-secrecy-encryption-company

    #vie_privée #messagerie_chiffrée #protection_des_données_personnelles #autodéfense_numérique #cryptography #chiffrement #Signal #gnupg

  • Libre et Humain à l’ère d’internet

    Un livre numérique pour comprendre pourquoi et comment protéger sa #vie_privée sur #internet. Une question essentielle aujourd’hui !


    https://etikya.fr/produit/libre-et-humain-a-lere-dinternet
    #protection_DeS_données #surveillance #manuel #profilage #profilage_de_masse #données #big_data #démocratie #liberté #solutions

    Le #livre peut être téléchargé ici :
    https://espritcreateur.net/wp-content/uploads/2018/02/Extrait-Libre-et-humain-%C3%A0-l%C3%A8re-dinternet.pdf

    Et à écouter...

    Entretien avec #Amélie_Delalain, co-auteure avec Héloïse Pierre, de l’E-Book « Libre et Humain à l’ère d’Internet »

    http://audioblog.arteradio.com/post/3084170/libre_et_humain_a_l_ere_d_internet

  • Potential expansion of #Eurodac #database scope raises data protection concerns

    The Civil Liberties, Justice and Home Affairs (LIBE) Committee of the European Parliament has adopted a report on the European Commission proposal to recast the Eurodac Regulation. It outlines a wide expansion of the scope of the Eurodac database that raises strong concerns about data protection.

    https://www.ecre.org/potential-expansion-of-eurodac-database-scope-raises-data-protection-concerns
    #surveillance #données #protection_des_données #Europe #UE #EU #base_de_données

  • Epidemium : lutter contre le cancer avec le #big_data - EchoSciences
    http://alireailleurs.tumblr.com/post/132593994673

    EchoSciences revient sur le lancement d’Epidemium (@edpidemium_cc) - un programme de recherche scientifique participatif et ouvert sous forme de concours dédié à la compréhension du cancer grâce aux Big Data - lancé ce jour par La Paillasse. L’enjeu : initier des équipes de recherche pluridisciplinaires sur le thème des données appliquées à l’épidémiologie du cancer. Si on ne sait pas encore quelles données permettront aux équipes d’imaginer de nouvelles analyses, l’article d’EchoSciences dresse un rapide point sur quelques-unes des bases de données existantes. “Il existe CancerLinQ, une grande base de données qui regroupe les informations sur tous les patients atteints du cancer aux Etats-Unis (y compris les tests laboratoires, les notes des médecins etc.), qui reste ouverte aux analyses de médecins et de (...)

    #santé #vie_privée #Protection_des_données_personnelles

  • Le Safe Harbour prend l’eau – et après ?
    https://reflets.info/le-safe-harbour-prend-leau-et-apres

    La #Justice européenne vient de rendre un arrêt qui ouvre une nouvelle brèche a préoccupante pour le modèle économique des mastodontes de l’internet. La Cour de justice de l’UE, sise au Luxembourg (CJUE), vient en effet d’invalider un des piliers du libre échange de données personnelles entre les #USA et l’Europe. C’est ce cadre juridique, […]

    #Technos #Protection_des_données_personnelles #Réseaux_sociaux #Union_Européenne #VIe_Privée

  • Internet et #VIe_Privée : la vidéo à double tranchant
    https://reflets.info/internet-et-vie-privee-la-video-a-double-tranchant

    C’est une vidéo étonnante, à double tranchant. Les uns y verront un moyen de mettre en garde les citoyens contre leur tendance à prendre le réseau pour une grande agora où ils peuvent étaler leur vie privée, un espace avec lequel ils s’amusent sans jamais pouvoir imaginer qu’il faut y protéger sa vie privée. Les […]

    #Breves #Le_radar_de_Reflets.info #défense_des_libertés_numériques #protection_de_la_vie_privée #Protection_des_données_personnelles #surveillance_Internet

  • Retour au #Moteur_de_recherche #Startpage
    http://www.dsfc.net/internet/moteurs-internet/moteur-de-recherche-startpage

    Avec Searx, Startpage est un des rares #Moteurs de recherche à vous garantir un très haut niveau de protection de vos données personnelles.

    Autres lectures sur le thèmeDuckDuckGo soumis aux lois américaines !Punir #Google par une fesséeTracking : Ghostery ou Disconnect ?

    #Confidentialité_des_données_personnelles #Moteurs_de_recherche #Protection_des_données_personnelles #Trackin

  • L’anonymisation transforme-t-elle les résultats de #recherche ? - ACMQueue
    http://alireailleurs.tumblr.com/post/96612700635

    Le 30 mai 2014, des chercheurs du laboratoire de l’apprentissage numérique du MIT et de Harvard ont publié des données anonymisées sur les étudiants suivants 16 cours de la plateforme de cours en ligne (Moocs) EdX pour permettre à d’autres chercheurs de les utiliser. Celles-ci ont donné lieu à de nombreuses exploitations, notamment par le Chronicle of Higher Education montrant que les cours en ligne attiraient surtout des étudiants de sexe masculin, déjà largement diplômés, de 24 ans de moyenne d’âge, provenant pour 1/3 d’Amérique du Nord, dont la moitié n’a fait que s’inscrire (10% n’a consulté que la moitié des cours et 3% ont visionné toutes les pages). Parmi les élèves les plus assidus, ce sont les plus diplômés et les européens qui ont consulté le plus de cours. Mais le problème du respect du nécessaire (...)

    #science #protection_des_données_personnelles #anonymisation

  • Welcome to Britain: Border control officers can seize personal data without reasonable suspicion

    The detention of David Miranda, partner of Guardian journalist Glenn Greenwald, by border officials has put the spotlight on the powers conferred on the UK’s border control officials by Schedule 7 to the Terrorism Act 2000.

    http://www.newstatesman.com/law/2013/08/welcome-britain-border-control-officers-can-seize-personal-data-withou

    #données #protection_des_données #migration #UK #Grande-Bretagne #contrôles_frontaliers

  • #Protection_des_données : six #Cnil européennes lancent une action contre #Google - France Info
    http://www.franceinfo.fr/high-tech/protection-des-donnees-six-cnil-europeennes-lancent-une-action-repressive

    Les autorités européennes de protection des données ne comptent pas se laisser faire par le géant américain. Les Cnil (Commission nationale de l’informatique et des libertés) de six pays européens (Allemagne, Espagne, France, Italie, Pays-Bas et Royaume-Uni) ont annoncé mardi qu’elles engageaient une « action répressive concertée » contre Google, qui n’a pas répondu à leur demande de revoir ses règles de confidentialité.

    Pour ce qui est de la France, la Cnil a notifié à Google sa décision « d’ouvrir une procédure de contrôle, ainsi qu’une procédure de coopération administrative internationale avec ses homologues du groupe de travail ».

    Et concrètement ?

  • Données personnelles : l’#Europe envisage de durcir le ton à l’encontre des entreprises | bluetouff
    http://reflets.info/donnees-personnelles-leurope-envisage-de-durcir-le-ton-a-lencontre-des-ent

    On l’attendait depuis longtemps de par chez nous, l’Europe semble sur le point de concrétiser un ensemble de directives sanctionnant financièrement le manque de diligence (les spécialistes auront probablement reconnu une expression HADOPIenne), que certaines entreprises mettent à sécuriser les données personnelles de leurs clients, salariés ou fournisseurs. A la clé, des sanctions financières pourraient bien tomber, allant jusqu’à 1 million d’euros ou 5% du chiffre d’affaire. Clubic, relatant une information émanant de l’AFP, rapporte que « La Commission européenne avait précisé qu’elle s’attacherait particulièrement aux conditions de conservation de ces données lors d’achats en ligne ou d’inscriptions sur des réseaux sociaux. » Suivez mon regard... Il faut savoir que Facebook conserve et exploite ad vitam æternam les données de ses utilisateurs actifs, non actifs et décédés, juste au cas où vous sortiriez de votre tombe pour aller superpoker vos friends. Cependant, ce n’est pas Fa

    #A_la_Une #Rainbow_Hat #Technos #Militello #Protection_des_données_personnelles